Está en la página 1de 284

Capítulo 1.

Conceptos básicos en estadística


________________________________________________________________________

SEGUNDA EDICIÓN

FERNANDO MAUREIRA CID

1
Fernando Maureira Cid
________________________________________________________________________

© Texto: Fernando Maureira Cid

© Estadística básica para educación física

ISBN papel: 978-84-686-4579-7


ISBN digital: 978-84-686-4604-6

Impreso en España Código de barras


Editado por Bubok Publishing S.L

2
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

Fernando Mauriera Cid

Es PhD. en Educación, con especialización en


neurociencia. Autor de más de 60 artículos científicos
y varios libros sobre neurociencia, neuropsicobiología,
ciencias cognitivas, metodología de la investigación y
estadística.
Profesor de la Escuela de Educación en Ciencias del
Movimiento y Deportes, Universidad Católica Silva
Henríquez. Santiago de Chile.

3
Fernando Maureira Cid
________________________________________________________________________

4
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

Dedicado a mis hermanas


Miriam y Yessenia
a mis padres
Fernando y Nidia,
a mi amor
Elizabeth

5
Fernando Maureira Cid
________________________________________________________________________

6
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

La segunda edición de Estadística sos análisis; los ejemplos enfocados en


para educación física es una introducción al situaciones y estudios en el ámbito de la
cálculo de diversas pruebas descriptivas e educación física, de manera que la reali-
inferenciales, siendo en primera instancia dad analizada sea lo más cercana al
un proceso manual y luego utilizando el lector; y la utilización del SPSS como
programa estadístico SPSS. Este libro herramienta computacional para realizar
puede ser utilizado como base para un las pruebas de contraste de hipótesis.
curso de estadística en carreras de educa- En esta nueva edición se incluyen
ción física o ciencias del deporte y/o definiciones más completas de los funda-
magísteres o maestrías en dichas discipli- mentos teóricos de la estadística y de las
nas. pruebas inferenciales; mayor número de
Cada vez estoy más convencido de análisis de datos; nuevos ejemplos para
la importancia de conocer y entender los familiarizar al lector con la aplicación de
fundamentos de la estadística y su aplica- las diversas pruebas; y la utilización de
ción en el ámbito de la educación física, una versión más actualizada del SPSS.
ya que esto nos permitirá generar nuevo En esta nueva edición de Estadística
conocimiento, expandiendo el campo de para educación física quisiera volver a
acción de nuestra disciplina y entregando agradecer a mis estudiantes, los cuales
sólidas bases a nuestro quehacer. gracias a sus necesidades y dudas rela-
Algunas características que se han cionadas con los análisis de datos, fueron
mantenido de la primera edición del libro un estímulo para la redacción de este
son: el enfoque pedagógico, realizando libro y para quienes espero este texto sea
las pruebas estadísticas paso a paso, de de utilidad.
manera que el estudiante pueda desarro-
llar manualmente los estadísticos y así
comprenda los fundamentos matemáticos Santiago, Julio 2017
que justifican la utilización de los diver- Fernando Maureira Cid

7
Fernando Maureira Cid
________________________________________________________________________

8
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

INTRODUCCIÓN 19

PARTE I. ESTADÍSTICA DESCRIPTIVA 21

Capítulo 1. Conceptos básicos en estadística 23


Capítulo 2. Estadística descriptiva: representación de datos 33
Capítulo 3. Estadística descriptiva: medidas centrales, dispersión y posición 47
Capítulo 4. Estadística descriptiva: medidas de forma y gráfico de caja 61

PARTE II. MUESTRAS Y PROBABILIDADES 77

Capítulo 5. Muestra y Muestreo 79


Capítulo 6. Distribuciones de probabilidades 87

PARTE III. ESTADÍSTICA INFERENCIAL UNIVARIADA PARAMÉTRICA 101

Capítulo 7. Estadística inferencial: aspectos básicos 103


Capítulo 8. Normalidad de los datos 115
Capítulo 9. Homogeneidad de varianzas 127
Capítulo 10. Comparación de dos grupos 137
Capítulo 11. Análisis de varianza 155
Capítulo 12. ANOVA de medidas repetidas 169
Capítulo 13. Correlación y regresión 183

PARTE IV. ESTADÍSTICA INFERENCIAL UNIVARIADA NO PARAMÉTRICA 201

Capítulo 14. Comparación de dos grupos 203


Capítulo 15. Comparación de tres o más grupos 225
Capítulo 16. Asociación de variables 243

REFERENCIAS BIBLIOGRÁFICAS 255

ANEXOS 257

9
Fernando Maureira Cid
________________________________________________________________________

10
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

INTRODUCCIÓN 19

PARTE I
ESTADÍSTICA DESCRIPTIVA 21

Capítulo 1. Conceptos básicos en estadística 23


1.1 Definiciones básicas 23
1.2 Niveles de medición 25
1.2.1 Datos categóricos 25
1.2.2 Datos numéricos 25
1.3 Análisis de datos 26
1.4 Desarrollo histórico de la estadística 27

Capítulo 2. Estadística descriptiva: representación de datos 33


2.1 Tablas de frecuencia 33
2.2 Gráficos de barra y torta 36
2.3 Diagrama de tallo y hoja 36
2.4 Histograma, polígonos de frecuencia y ojiva 38
2.5 Representación de datos en SPSS 42

Capítulo 3. Estadística descriptiva: medidas centrales, dispersión y posición 47


3.1 Medidas de tendencia central 47
3.1.1 Media aritmética 47
3.1.2 Mediana 48
3.1.3 Moda 50
3.2 Medidas de dispersión 51
3.2.1 Amplitud o rango 51
3.2.2 Varianza 51
3.2.3 Desviación estándar 53
3.3 Medidas de posición 54
3.3.1 Percentiles 54
3.3.2 Cuartiles 55
3.3.3 Quintiles y deciles 56
3.4 Medidas centrales, dispersión y posición en SPSS 57

Capítulo 4. Estadística descriptiva: medidas de forma y gráfico de caja 61


4.1 Asimetría 61
4.2 Curtosis 63
4.3 Distribución según su forma 65
4.4 Gráfico de caja (box-plot) 67

11
Fernando Maureira Cid
________________________________________________________________________

4.5 Gráfico de dispersión (scatter-plot) 70


4.6 Medidas de forma en SPSS 72
4.7 Gráfico de caja en SPSS 74

PARTE II
MUESTRAS Y PROBABILIDADES 77

Capítulo 5. Muestra y muestreo 79


5.1 Muestras en investigación 79
5.1.1 Calculo del tamaño de la muestra 79
5.1.2 Muestras para construir un instrumento de medición 82
5.2 Muestreo 83
5.2.1 Para muestras probabilísticas 83
5.2.2 Para muestras no probabilísticas 85

Capítulo 6. Distribuciones de probabilidades 87


6.1 Conceptos básicos en probabilidades 87
6.2 Distribuciones discretas 88
6.2.1 Distribución de Bernoulli 88
6.2.2 Distribución binominal 89
6.2.3 Distribución de Poison 92
6.2.4 Distribución hipergeométrica 93
6.3 Distribuciones continuas 94
6.3.1 Distribución normal 94
6.3.2 Distribución Z 95
6.3.3 Distribuciones con muestras pequeñas 97

PARTE III
ESTADÍSTICA INFERENCIAL UNIVARIADA PARAMÉTRICA 101

Capítulo 7. Estadística inferencial: aspectos básicos 103


7.1 Conceptos básicos en estadística inferencial 103
7.1.1 Nivel de significancia 103
7.1.2 Métodos de inferencia estadística 104
7.2 Intervalos de confianza 107
7.3 Normalidad de los datos 114
7.4 Prueba de normalidad KS en SPSS 117

Capítulo 8. Normalidad de los datos 115


8.1 Prueba KS de normalidad 115
8.2 Prueba de normalidad de Shapiro-Wilks 118
8.3 Prueba KS de normalidad en SPSS 121
8.4 Prueba de normalidad de Shapiro-Wilks en SPSS 123

12
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

Capítulo 9. Homogeneidad de varianzas 127


9.1 Prueba de Cochran, Hartley y Bartlett 127
9.2 Prueba de homogenidad de varianzas en SPSS 134

Capítulo 10. Comparación de dos grupos 137


10.1 Prueba t de Student para muestras independientes 137
10.2 Prueba t de Student para muestras relacionadas 141
10.3 Prueba t para una muestra en SPSS 146
10.4 Prueba t para muestras independientes en SPSS 148
10.5 Prueba t para muestras relacionadas en SPSS 151

Capítulo 11. Análisis de varianza 155


11.1 Análisis de varianza de un factor 155
11.1.1 Comparaciones posteriores a F 160
11.2 ANOVA de un factor en SPSS 162

Capítulo 12. ANOVA de medidas repetidas 169


12.1 Análisis de varianza de un factor de medidas repetidas 169
12.1.1 Comparaciones posteriores a F 174
12.2 ANOVA de medidas repetidas en SPSS 176

Capítulo 13. Correlación y regresión 183


13.1 Coeficiente de correlación de Pearson 183
13.2 Regresión lineal simple 187
13.3 Correlación de Pearson en SPSS 191
13.4 Correlaciones parciales en SPSS 193
13.5 Regresión lineal simple en SPSS 195

PARTE IV
ESTADÍSTICA INFERENCIAL UNIVARIADA NO PARAMÉTRICA 201

Capítulo 14. Comparación de dos grupos 203


14.1 Prueba U de Mann-Whitney 203
14.2 Prueba de rangos de Wilcoxon 206
14.3 Prueba de Chi-cuadrado 208
14.4 Prueba de Chi-cuadrado 2x2 211
14.5 Prueba de McNemar 213
14.6 Prueba Z de proprociones 214
14.7 Prueba U de Mann-Whitney en SPSS 215
14.8 Prueba de rangos de Wilcoxon en SPSS 218
14.9 Prueba de Chi-cuadrado en SPSS 219
14.10 Prueba de Chi-cuadrado 2x2 en SPSS 222
14.11 Prueba de McNemar en SPSS 223

13
Fernando Maureira Cid
________________________________________________________________________

Capítulo 15. Comparación de tres o más grupos 225


15.1 Análisis de la varianza unifactorial de rangos de Kruskal-Wallis 225
15.2 Prueba de varianza por rango de Friedman 230
15.3 Prueba Q de Cochran 234
15.4 Prueba de Kruskal-Wallis en SPSS 236
15.5 Prueba de Friedman en SPSS 239
15.6 Prueba Q de Cochran en SPSS 241

Capítulo 16. Asociación de variables 243


16.1 Correlación de Spearman 243
16.2 Correlación de Phi 247
16.3 Correlación de Spearman en SPSS 249
16.4 Correlación de Phi en SPSS 251

REFERENCIAS BIBLIOGRÁFICAS 255

ANEXOS 257

14
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

Fórmula 1. Frecuencia relativa 34


Fórmula 2. Media 47
Fórmula 3. Mediana 49
Fórmula 4. Rango 51
Fórmula 5. Varianza 52
Fórmula 6. Desviación estándar 53
Fórmula 7. Percentil 55
Fórmula 8. Cuartil 56
Fórmula 9. Corrección cuartil 56
Fórmula 10. Coeficiente de asimetría de Fisher 62
Fórmula 11. Coeficiente de apuntamiento de Fisher 64
Fórmula 12. Distancia inter-cuartil 67
Fórmula 13. 1° cota 68
Fórmula 14. 2° cota 68
Fórmula 15. Tamaño de una muestra infinita 81
Fórmula 16. Tamaño de una muestra finita 82
Fórmula 17. Tamaño de una muestra estratificada 84
Fórmula 18. Probabilidades 87
Fórmula 19. Probabilidad de Bernoulli 89
Fórmula 20. Probabilidad binominal 90
Fórmula 21. Posibilidad de Poisson 92
Fórmula 22. Modelo hipergeométrico 93
Fórmula 23. Calificación Z 95
Fórmula 24. Error estándar de la media con desviación estándar conocida 107
Fórmula 25. Error estándar de la media con desviación estándar desconocida 108
Fórmula 26. Diferencia de la media muestral y poblacional 108
Fórmula 27. Intervalo de confianza para una población con desviación estándar
conocida 109
Fórmula 28. Intervalo de confianza para una población con desviación estándar
desconocida 111
Fórmula 29. Intervalo de confianza para proporciones 112
Fórmula 30. Contraste de hipótesis para proporciones 113
Fórmula 31. Prueba de Shapiro-Wilk 119
Fórmula 32. Valor F 128

15
Fernando Maureira Cid
________________________________________________________________________

Fórmula 33. R de Cochran 129


Fórmula 34. F de Hartley 130
Fórmula 35. B de Bartlett 132
Fórmula 36. Valor C 132
Fórmula 37. Valor S2p 132
Fórmula 38. Error estándar de la diferencia de medias independientes con desviación
estándar conocida 138
Fórmula 39. Error estándar de la diferencia de medias independientes con desviación
estándar desconocida 138
Fórmula 40. Intervalos de confianza de diferencia de medias independientes 139
Fórmula 41. Valor t de muestras independientes 139
Fórmula 42. Tamaño del efecto de la prueba t para muestras independientes 140
Fórmula 43. Desviación típica combinada 140
Fórmula 44. Suma de cuadrados de la diferencia 143
Fórmula 45. Desviación estándar de diferencia de medias relacionadas 143
Fórmula 46. Error estándar de diferencia de medias relacionadas 143
Fórmula 47. Intervalos de confianza de diferencia de medias relacionadas 144
Fórmula 48. Valor t de muestras relacionadas 145
Fórmula 49. Tamaño del efecto de la prueba t para muestras relacionadas 145
Fórmula 50. Suma de cuadrados totales 156
Fórmula 51. Suma de cuadrados inter-grupos 157
Fórmula 52. Suma de cuadrados intra-grupos 157
Fórmula 53. Cuadrados medios inter-grupos 158
Fórmula 54. Cuadrados medios intra-grupos 158
Fórmula 55. Valor F de análisis de varianza 158
Fórmula 56. Cuadrado medio intra-grupo promedio 160
Fórmula 57. Error estándar de una media 161
Fórmula 58. Valor D 161
Fórmula 59. Suma de cuadrados totales 170
Fórmula 60. Suma de cuadrados inter-grupos 171
Fórmula 61. Suma de cuadrados inter-sujetos 171
Fórmula 62. Suma de cuadrados residual 172
Fórmula 63. gl inter-grupos 172
Fórmula 64. gl inter-sujetos 172
Fórmula 65. gl residual 172
Fórmula 66. gl total 172
Fórmula 67. Media cuadrática inter-grupos 172
Fórmula 68. Media cuadrática residual o intra-grupos 173
Fórmula 69. Valor F 173
Fórmula 70. Intervalos de confianza para pares de medias 175

16
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

Fórmula 71. Covarianza 184


Fórmula 72. Correlación de Pearson 185
Fórmula 73. Coeficiente de determinación 186
Fórmula 74. Regresión lineal 188
Fórmula 75. Suma de los errores al cuadrado 188
Fórmula 76. Valor β1 188
Fórmula 77. Valor SSxy 188
Fórmula 78. Valor SSxx 188
Fórmula 79. Valor β0 189
Fórmula 80. Varianza residual 190
Fórmula 81. Estadístico de contraste t para regresión lineal 191
Fórmula 82. Valor U de Mann-Whitney 204
Fórmula 83. Puntuación Z de la U de Mann-Whitney 205
Fórmula 84. Puntuación Z de la prueba de Wilcoxon 208
Fórmula 85. Media de la T de Wilcoxon 208
Fórmula 86. Desviación estándar de la T de Wilcoxon 208
Fórmula 87. Frecuencia esperada 209
Fórmula 88. Prueba de Chi-cuadrado 210
Fórmula 89. Grados de libertad de Chi-cuadrado 210
Fórmula 90. Valor de Chi-cuadrado para tabla de 2x2 212
Fórmula 91. Valor X2 de McNemar 213
Fórmula 92. Prueba Z de proporciones 214
Fórmula 93. Valor de Kruskal-Wallis sin empates 227
Fórmula 94. Valor de Kruskal-Wallis con empates 227
Fórmula 95. Valor crítico de diferencias de KW 229
Fórmula 96. Valor de Friedman sin empates 232
Fórmula 97. Valor de Friedman con empates 232
Fórmula 98. Valor crítico de diferencias de Friedman 233
Fórmula 99. Valor Q 235
Fórmula 100. Correlación de Spearman sin empates 245
Fórmula 101. Correlación de Spearman con empates 246
Fórmula 102. Correlación de Phi 248

17
Fernando Maureira Cid
________________________________________________________________________

18
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

La estadística es un elemento funda- En la segunda parte, constituida por


mental para desarrollar nuestras investí- dos capítulos, se estudia el cálculo del ta-
gaciones científicas, ya que ella nos per- maño de las muestras y las formas de
mite clasificar, comparar y asociar nues- muestreo. Además se analizan breve-
tros datos, de manera tal que podamos mente las principales distribuciones de
generar conclusiones e inferencias. Una datos, tanto discretas como continuas.
vez que determinamos nuestro tipo de La tercera parte corresponde a la
investigación (exploratoria, descriptiva, estadística inferencial univariada para-
correlacional o explicativa), nuestro dice- métrica y está constituida por siete
ño (experimental o no experimental), capítulos. En ellos se realiza una intro-
nuestros instrumentos y recogemos los ducción a los conceptos más relevantes
datos, debemos proceder a aplicar diver- en estadística inferencial: nivel de signi-
sos análisis estadísticos para obtener ficancia, estimaciones, contraste de hipó-
nuestros resultados. tesis y cálculos de normalidad en la dis-
Existen falencias en los conocimien- tribución de datos. Luego se explican los
tos y aplicaciones de la estadística por cálculos de igualdad de varianzas y
parte de los estudiantes y profesionales pruebas estadísticas para comparar dos y
de la educación física, por lo que surge la tres o más grupos diferentes (prueba t
idea de este libro con los aspectos básicos para muestras independientes y ANO-
de esta ciencia, orientado a los lectores VA de un factor), dos y tres o más
que estudian por primera vez esta área de mediciones al mismo grupo (prueba t
conocimiento, ya sea por la exigencia de para muestras relacionadas y ANOVA
un curso o por la necesidad de realizar de un factor de medidas repetidas) y
una investigación orientada a la obten- asociaciones entre variables (correlacio-
ción de una licenciatura o magíster. nes de Pearson y regresiones lineales
El libro está dividido en 4 partes: la simples).
primera corresponde a la estadística des- La cuarta parte corresponde a la
criptiva, constituida por cuatro capítulos estadística inferencial univariada no
donde se explican algunos conceptos fun- paramétrica, constituida por tres capítu-
damentales para esta ciencia, se presenta los. En ellos se explican los análisis para
una clasificación de los principales análi- datos que no poseen una distribución
sis, se realiza un breve resumen de la his- normal, comparando dos y tres o más
toria de esta rama de las matemática, se grupos diferentes (prueba U de Mann-
muestra el paso a paso de los cálculos de Whitney, de Wilcoxon y Chi-cuadrado),
frecuencia, las principales formas de comparando dos y tres o más mediciones
representación gráfica de las mismas, los al mismo grupo (Kruskal-Wallis, Fried-
principales análisis de tendencia central, man y Q de Cochran) y asociación de
dispersión, posición y forma. Todos para variables (correlaciones de Spearman y
presentar los datos de una investigación. de Phi).

19
Fernando Maureira Cid
________________________________________________________________________

Cada capítulo presenta los análisis Espero que este libro pueda ser una
de datos en su versión manual y en el guía para estudiantes de pre-grado y
programa estadístico SPSS 22.0. magíster en educación física, como así
Es importante destacar que los ejem- también para profesionales del área que
plos mostrados en cada uno de los capítu- deseen explorar y desarrollar la inves-
los y temas de este libro son FICTICIOS y tigación científica y ayuden de este modo
solo formulados para ilustrar los análisis al crecimiento de nuestra disciplina.
correspondientes.

20
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

21
Fernando Maureira Cid
________________________________________________________________________

22
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

________________________________________________________________________

La estadística es una rama de las ejemplo: los 10.000 estudiantes de


matemáticas que reúne y clasifica los da- enseñanza media de los colegios de
tos numéricos para generar conclusiones la comuna de Santiago Centro, los
e inferencias a partir de ellos. General- 5.000 adultos mayores de la zona
mente se cuenta sólo con un pequeño con- oriente de Santiago, los 700 estudian-
junto de datos, ya que puede resultar difí- tes de enseñanza básica de un colegio
cil medir a todas las unidades que posean de Iquique, las 1.200 personas que
las características que interesan al investí- asisten a un gimnasio de la comuna
gador. Pese a ello es posible inferir parti- de Providencia, etc.
cularidades del conjunto total de unida-
des con sólo un pequeño grupo de ellas. b) Muestra: subconjunto de la pobla-
Por ejemplo, es posible conocer con cierta ción a la cual tenemos acceso y sobre
precisión la estatura promedio de todos quienes se realizarán verdaderamen-
los estudiantes de un colegio, aun cuando te las mediciones. Por ejemplo: 250
sólo evaluemos a algunos de ellos. estudiantes de enseñanza media de 5
La particularidad de describir e infe- colegios de la comuna de Santiago
rir información es lo que hace de la esta- Centro, 160 adultos mayores de la
dística una disciplina tan atractiva para zona oriente de Santiago, 80 estu-
cualquier ámbito de conocimiento. Debi- diantes de enseñanza básica de un
do a la necesidad de incorporar esta rama colegio de Iquique, 130 personas que
de las matemáticas a la educación física es asisten a un gimnasio de la comuna
que comenzaremos nuestro estudio con la de Providencia, etc.
aclaración de algunos conceptos funda-
mentales y que se utilizarán a los largo de c) Variable: es una característica obser-
este libro. vable que varía entre los diferentes
individuos de una población. Por
ejemplo: la edad, estatura, peso,
1.1 DEFINICIONES BÁSICAS porcentaje de grasa corporal, fuerza,
resistencia, etc.
a) Población: conjunto total de sujetos o
unidades de análisis sobre los que de- d) Dato: un valor particular de una va-
seamos hacer conclusiones. En gene- riable, también llamado observación
ral este conjunto es demasiado grande o medición. Por ejemplo: 28 años,
para abarcarlo en su totalidad. Por 1,82 mts. de estatura, 84 kilos, 21% de

23
Fernando Maureira Cid
________________________________________________________________________

grasa corporal, 7 minutos en el test de estatura media de 250 estudiantes de


Naveta, etc. enseñanza media de los colegios de
la comuna de Santiago Centro, la
e) Parámetro: Cantidad numérica calcu- fuerza del tren superior de 160
lada sobre una población. Por ejem- adultos mayores de la zona oriente
plo: la estatura media de los 10.000 de Santiago, la resistencia de 80
estudiantes de enseñanza media de estudiantes de enseñanza básica de
los colegios de la comuna de Santiago un colegio de Iquique, el porcentaje
Centro, la fuerza del tren superior de de grasa de 130 personas que asisten
los 5.000 adultos mayores de la zona a un gimnasio de la comuna de
oriente de Santiago, la resistencia de Providencia, etc.
los 700 estudiantes de enseñanza
básica de un colegio de Iquique, el g) Censo: datos de una o más variables
porcentaje de grasa de las 1.200 de toda la población. Por ejemplo: el
personas que asisten a un gimnasio CENSO poblacional que se realiza en
de la comuna de Providencia, etc. nuestro país cada 10 años.

f) Estadístico: Cantidad numérica calcu- h) Unidad de análisis: corresponde al


lada sobre la muestra. Por ejemplo, la objeto estudiado. Por ejemplo, una

Variable Caso Observación

Figura 1.1 Conceptos importantes en un conjunto de datos.

24
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

persona, una familia, un colegio, una Estas variables pueden ser dicotó-
región, un país, etc. micas (cuando poseen dos catego-
rías) o policotómicas (tres o más ca-
i) Caso o registro: corresponde al con- tegorías). Por ejemplo:
junto de mediciones realizadas sobre  Sexo de un sujeto: masculino-feme-
una unidad de análisis. Por ejemplo: nino (variable dicotómica)
el sexo, la edad, el curso y el IMC de  Presencia o ausencia de un atributo:
una persona; la fuerza, velocidad, embarazada – no embarazada (varia-
resistencia y flexibilidad de un depor- ble dicotómica)
tista, etc.  Religión: cristiano, musulmán, pro-
testante, budista, etc. (variable poli-
cotómica)
1.2 NIVELES DE MEDICION  Estado civil: soltero, casado, separa-
do, viudo (variable policotómica).
Los datos obtenidos de nuestras va-  Comuna de residencia: Santiago Cen-
riables evaluadas pueden ser de dos ti- tro, Recoleta, Providencia, Ñuñoa,
pos: a) categóricos; b) numéricos. Deter- Maipú, etc. (variable policotómica).
minar correctamente el nivel de medición
(o naturaleza de los datos) es fundamen- b) Variables categóricas ordinales: Son
tal en estadística, ya que esto determinará aquellas donde las categorías poseen
finalmente que tipos de análisis podemos un orden jerárquico, es decir, hay
realizar con ellos. categorías mayores o más importan-
tes que otras. Por ejemplo:
 Cursos del colegio (1°, 2°, 3°, 4°, etc.)
1.2.1 Datos categóricos  Nivel de desarrollo de patrones mo-
tores (bajo, medio y alto)
Las variables categóricas son las que  IMC (bajo-peso, normal, sobrepeso,
obeso)
 Puesto de trabajo (rector, director,
registran la presencia de un atributo. Es
importante destacar que las categorías
deben ser excluyentes, es decir, un mismo subdirector, jefe de UTP, profesor,
sujeto no puede estar en dos categorías al etc.)
mismo tiempo. La cantidad de categorías
va a depender de las características del
atributo medido. Son ejemplos de datos 1.2.2 Datos numéricos
categóricos la puntuación baja, media y
alta de un test; la presencia y ausencia de También conocidas como variables
una cualidad; el tipo de colegio (munici- continuas o discretas. Las variables nu-
pal, subvencionado y particular), etc. méricas son las que presentan el resul-
Las variables categóricas se dividen a tado de sus observaciones como núme-
su vez en dos grupos: ros, permiten ordenar los valores en un
continuo y el intervalo entre cada par de
a) Variables categóricas nominales: Son valores es siempre el mismo indepen-
aquellas donde las categorías no po- diente del lugar donde este (el intervalo
seen un orden, todas valen los mismo. entre el 4 y el 5 es el mismo que entre el

25
Fernando Maureira Cid
________________________________________________________________________

81 y 82). Estas variables se clasifican  Velocidad, fuerza, resistencia, etc.


en dos grupos:  Número de ingreso y egreso de una
carrera, etc.
a) Variables intervalares: Son aquellas
que miden atributos donde el cero es Como se dijo anteriormente, es muy
arbitrario y no significa la ausencia importante definir correctamente el tipo
del atributo. También puede tomar de datos al que corresponden nuestros
valores negativos. Por ejemplo: valores medidos, ya que eso determina
 Las puntuaciones en las pruebas. que tipos de análisis estadísticos son
 Las puntuaciones de coeficiente inte- posibles de realizar y cuáles no. Por
lectual. ejemplo, obtener el promedio de una
 Las puntuaciones de un test cognitivo variable numérica tiene sentido en
(atención, memoria, planificación, cambio determinar el promedio de una
etc.). variable categórica no lo tiene.
 La temperatura (en grados Celsius o
Fahrenheit).
 Las puntuaciones de un test de motri- 1.3 ANALISIS DE DATOS
cidad, agilidad, coordinación, etc.
La estadística se divide en dos gran-
b) Variables de razón: Son aquellas que des áreas: la estadística descriptiva o aná-
miden atributos donde el cero no es lisis exploratorio de datos (presentación
arbitrario, sino que indica la ausencia de los datos organizados y resumen de
de dicha característica. No existen los los mismos) y la estadística inferencial
valores negativos. Por ejemplo:
 Edad, peso, estatura, etc.
(conjunto de métodos que permiten pre-

 Número de hermanos (el cero indica


decir características de un fenómeno).
La estadística descriptiva contiene
que no se tiene hermanos). las tablas de frecuencia, gráficos, medi-

Figura 1.2 Tipos de datos.

26
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

Figura 1.3 Tipos de análisis en la estadística descriptiva.

das de tendencia central, medidas de dis- estructurales (en este libro se abordará la
persión, medidas de posición y medidas estadística descriptiva y la univariada).
de forma (Fig. 1.3).
Por su parte, la estadística inferen-
cial se divide en Univariada (cuando en 1.4 DESARROLLO HISTÓRICO DE
la investigación existe una sola variable LA ESTADÍSTICA
dependiente, pudiendo existir 1 o más va-
riables independientes) y Multivariada La estadística es tan antigua como
(cuando en la investigación existen dos o la escritura y corresponde a un elemento
más variables dependientes, pudiendo complementario a todas las ciencias. La
existir una o más variables independien- historia de esta disciplina puede clasifi-
tes). La estadística univariada puede divi- carse en 4 etapas: Censos, Aritmética Po-
dirse en paramétrica y no paramétrica, lítica, Cálculo de probabilidades y Esta-
existiendo en ambos casos prueba para dística moderna.
comparar grupos y para realizar asocia-
ciones entre variables (Fig. 1.4). Por su a) La primera etapa de la estadística se
parte, la estadística multivariada se conoce como los censos, ya que se
divide en métodos de dependencia, basa en la descripción de la población
métodos de interdependencia y métodos y riquezas por parte de los gobernan-

27
Fernando Maureira Cid
________________________________________________________________________

Figura 1.4 Tipos de análisis en la estadística inferencial univariada.

tes para lograr mejorar la administra- utilizaron la estadística con censos,


ción de los estados. A continuación registros de nacimientos, defunción,
se presentan los hechos más relevan- matrimonios, riquezas, etc.
tes de esta etapa:
b) La segunda etapa de la estadística: la
 Los primeros indicios se remontan al aritmética política.
antiguo Egipto unos 3.050 años A.C.,
con los censos de población y registro  Durante los mil años posteriores a la
de las riquezas. caída del imperio romano se realiza-
 Situación similar ocurre en China en ron muy pocas operaciones estadísti-
el año 2238 A.C. cas, con la excepción de las compila-
 Los romanos fueron quienes más uti- ciones de tierras de la iglesia realiza-

28
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

da por el rey franco Pipino el Breve


en 758 D.C.
 En el año 1532 Enrique VII exige el
registro de las defunciones en Ingla-
terra, debido al temor que tenía a la
peste. Misma época en que los cléri-
gos franceses debían registrar los
nacimientos, defunciones y matrimo-
nios.
 En 1540 Sebastián Muster realiza una
compilación de datos sobre la organi-
zación política, comercio y recursos
militares de Alemania.
 En 1632 se publican las Cuentas de
Mortalidad en Inglaterra con los datos
de nacimientos y defunciones.
 En 1662 John Graunt publica Observa- Figura 1.5 En las imágenes superiores
ciones Políticas y Naturales hechas a Pipino el Breve (izquierda) y Enrique VII
partir de las Cuentas de Mortalidad, (derecha); en las imagenes inferiores
donde utiliza registros de 30 años Sebastián Muster (izquierda) y John
para efectuar predicciones sobre la Graunt (derecha).
muerte de personas por diversas en-
fermedades, siendo el primer intento
de inferencia estadística del que se
tiene registro.

c) La tercera etapa de la estadística es


denominada cálculo de probabilida-
des.

 Las probabilidades comenzaron a ser


formalizada por los franceses Blaise
Pascal y Pierre Fermat en 1654 quie-
nes encontraron la solución a cómo
repartir las apuestas de un juego que
no había finalizado, mediante las pro-
babilidades de ganar que tuviese cada
participante en ese momento.
 En 1665 Blaise Pascal publica Tratado
sobre el triángulo aritmético que se basa
en las propiedades combinatorias del Figura 1.6 En las imagenes superiores
posteriormente llamado triángulo de Blaise Pascal (izquierda) y Pierre Fermat
Pascal (una representación de los (derecha); en las imagenes inferiores
coeficientes binominales ordenados Jacob Bernoulli (izquierda) y Godofredo
en forma de triángulo). Achenwall (derecha).

29
Fernando Maureira Cid
________________________________________________________________________

 En 1812 Pierre Simón Laplace publi-


ca Teoría analítica de probabilidades
donde estudia los problemas de las
probabilidades continuas. También
descubre y demuestra el teorema de
límite central y fusiona el cálculo de
probabilidades y la estadística.
 En 1823 Karl Friedrich Gauss desa-
rrolla la teoría de errores (conjunta-
mente con Bessel y Laplace) estable-
ciendo el método de mínimos cua-
drados. Además de esto, el estudio
de la distribución normal fue el gran
aporte de Gauss al cálculo de proba-
bilidades.
 En 1835 Jacques Quételect (matemá-
Figura 1.7 En las imágenes superiores
tico belga) es quien aplica por prime-
Thomas Bayes (izquierda) y Pierre
ra vez la estadística a las ciencias so-
Laplace (derecha); en las imagenes
ciales.
inferiores Karl Gauss (izquierda) y
Jacques Quételec (derecha).
d) La cuarta etapa de la estadística es
denominada Estadística moderna.

 En 1687 se publica la obra póstuma El  En 1837 Simeón Poisson publicó


arte de la Conjetura del matemático Tratado de probabilidades que contiene
Suizo Jacob Bernoulli, donde se en- la ley de probabilidades conocida
cuentra entre otras cosas, las bases del como distribución de Poisson y la
teorema de Bernoulli (frecuencia generalización de la ley de los gran-
aproximada que un suceso a la proba- des números de Bernoulli.
bilidad p ocurra a medida que se  En 1888 Francis Galton introdujo el
repite un experimento). término correlación para hacer refe-
 En 1760 Godofredo Achenwall, pro- rencia a la influencia relativa de una
fesor alemán, acuño el término esta- variable sobre otra. También trabajo
dística que proviene del latín status en regresión lineal, componentes de
que significa estado o situación. varianza y diseño curvas normales
 En 1764 se publica la obra póstuma inversas llamadas ojivas. Sus trabajos
de Thomas Bayes Ensayo sobre la en la ley normal bivariada de proba-
resolución de un problema en la doctrina bilidades dieron origen a la ley nor-
del azar, la cual fue ignorada por sus mal multivariada, base de la estadís-
contemporáneos, pero 2 siglos des- tica multivariante.
pués sirvió para formulación de la  En 1892 Karl Pearson publica La
inferencia bayesiana, la cual asigna gramática de la ciencia, donde estudió
probabilidades a fenómenos no alea- curvas asimétricas y generó el test de
torios, pero cuyos resultados no son Chi-cuadrado. También trabajó y
conocidos. perfeccionó los análisis de correla-

30
Capítulo 1. Conceptos básicos en estadística
________________________________________________________________________

ción de Galton, desarrollando la


correlación de Pearson.
 En 1902 el inglés William Sealey
Gosset publica un artículo con las ba-
ses de la distribución t de Student
(seudónimo con el cual publicó dicho
artículo).
 En 1925 Ronald Arnold Fisher,
matemático y biólogo inglés, publica
su libro Métodos estadísticos para inves-
tigadores. Creo el análisis de varianza,
numerosos análisis multivariados y
del método de máxima verosimilitud
para la estimación de parámetros.
Desarrollo el diseño experimental en
bloques, la aleatorización y los dice-
Figura 1.8 En las imágenes superiores
ños factoriales. Considerado el más
Francis Galton (izquierda) y Karl
grande estadístico del siglo XX.

Pearson (derecha); en las imagenes
En 1933 el ruso Andrei Kolmogorov
inferiores Ronald Fisher (izquierda) y
desarrolló una teoría de probabilida-
Frank Wilcoxon (derecha).
des totalmente basada en axiomas
fundamentales totalmente rigurosos.
 En 1934 el polaco Jerzy Neyman
base de la estadística no paramétrica.

introduce la teoría de los intervalos
de confianza. También publica el pri- En 1952 los estadounidenses William
mer trabajo en muestreos de pobla- Kruskal y Allen Wallis publican el
ciones finitas. análisis de rangos que lleva su nom-
 bre.

En 1936 Jerzy Neyman y Egon Pear-
son (hijo de Karl Pearson) presentan A partir de la segunda mitad del
una teoría sobre la prueba de hipóte- siglo XX, la estadística está fuerte-
sis en estadística. mente asociada a la computación, ya
 La década de 1930-1940 fue el auge de que el desarrollo de software estadís-
la estadística multivariada con Maha- ticos permite la realización de cientos
lanobis (1936), Fisher (1936), Hotte- o miles de cálculos en tiempos redu-
ling (1936), Bartlett (1938), etc. cidos o el trabajo con decenas de
 En 1945 el estadounidense Frank variables al mismo tiempo. Por ejem-
Wilcoxon publicó un trabajo donde plo el programa SPSS fue creado en
reemplazó los datos por sus rangos, 1968 y en el 2016 se lanzó su versión
de manera que fue posible conocer 24.0. Los programas estadísticos más
propiedades distribucionales de los usados en la actualidad son: SPSS,
mismos, creando así la prueba de SAS, R, Statistica, Stata, Matlab,
rangos de Wilcoxon. Esta idea es la Minitab, etc.

31
Fernando Maureira Cid
________________________________________________________________________

32
Capítulo 2. Estadística descriptiva: representación de datos
________________________________________________________________________

________________________________________________________________________

La estadística descriptiva o análisis sión arterial baja, 80 personas una


exploratorio de datos ofrece modos de presión arterial media y 55 personas
presentar y evaluar las características más una presión arterial alta.
importantes de un conjunto de datos. Esto  La frecuencia relativa: porcentaje
a través de tablas, gráficos y medidas re- que representa el número de sujetos
súmenes. Es importante recordar que la en cada categoría en relación al total
finalidad de estos análisis no es el de de observaciones. Por ejemplo: el
obtener conclusiones sobre las variables 12,9% de las personas evaluadas po-
que se están midiendo, sino solamente seen una presión arterial baja, el
mostrar las características que presentan 51,6% poseen una presión arterial
los datos que hemos recolectado. media y el 35,5% posee una presión
arterial alta.
 La frecuencia acumulada: porcentaje
2.1 TABLAS DE FRECUENCIA acumulado que corresponde a la su-
ma de los porcentajes de cada catego-
Nivel de medición: ría más las categorías anteriores. Por
Nominal y Ordinal ejemplo: el 12,9% de las personas
evaluadas posee una presión arterial
La tabla de frecuencia es el modo baja, el 64,5% posee una presión arte-
más sencillo de presentar los datos, en rial baja-media y el 100% posee una
ella se observa: presión arterial baja-media-alta.

 El nombre de las categorías: grupos Los pasos de elaboración de una ta-


en los cuales se clasifican los datos bla de frecuencias se observan en el
obtenidos. Por ejemplo: presión arte- ejemplo 2.1.
rial baja, presión arterial media y pre- También es posible utilizar tablas
sión arterial alta; soltero, casado, di- de frecuencia con datos de naturaleza
vorciado, viudo; colegio municipal, numérica, sin embargo, aquí es necesario
colegio subvencionado, colegio parti- realizar un agrupamiento de los datos en
cular, etc. intervalos de clases, donde cada inter-
 La frecuencia absoluta: número de valo corresponde a una categoría y con
sujetos que componen cada catego- ellas es posible seguir los pasos para
ría. Por ejemplo: de 155 personas construir la tabla. Este proceso se observa
evaluadas 20 de ellas poseen una pre- en el ejemplo 2.2.

33
Fernando Maureira Cid
________________________________________________________________________

Ejemplo 2.1
Un profesor busca conocer el IMC de 15 estudiantes de primer año básico de un colegio
de Santiago, para ello mide la talla y el peso de ellos y luego calcula el IMC obteniendo
los siguientes resultados:

 Paso 1:
Para elaborar la tabla de frecuencia debemos agrupar los valores del IMC obtenidos en
diversas categorías:

Bajo peso (<18,5) = 1 sujeto


Normal (18,5 a 24,9) = 6 sujetos
Sobre-peso (25 a 29,9) = 4 sujetos
Obesidad I (30 a 34,9) = 2 sujetos
Obesidad II (35 a 39,9) = 1 sujetos
Obesidad III (>40) = 1 sujeto

 Paso 2:
Calculamos la frecuencia relativa (fr) de cada categoría con la siguiente fórmula:

(fórmula 1) fr = n1 * 100
N

n1 = número de observaciones de una categoría


N = número de todas las observaciones

Aplicamos la fórmula de la fr a los datos obtenidos en el paso 1:

Bajo peso = 1 sujeto (1/15)*100 = 6,7


Normal = 6 sujetos (6/15)*100 = 40,0
Sobre-peso = 4 sujetos (4/15)*100 = 26,7
Obesidad I = 2 sujetos (2/15)*100 = 13,2
Obesidad II = 1 sujetos (1/15)*100 = 6,7
Obesidad III = 1 sujeto (1/15)*100 = 6,7

 Paso 3:
Calculamos la frecuencia acumulada con la frecuencia relativa de la primera categoría,
luego la frecuencia relativa de la segunda más la primera categoría, luego la tercera más
la segunda y más la primera, así sucesivamente.

34
Capítulo 2. Estadística descriptiva: representación de datos
________________________________________________________________________

Bajo peso 6,7


Normal = 40,0 + 6,7 = 46,7
Sobre-peso = 26,7 + 40,0 + 6,7 = 73,4
Obesidad I = 13,2 + 26,7 + 40,0 + 6,7 = 86,6
Obesidad II = 6,7 + 13,2 + 26,7 + 40,0 + 6,7 = 93,3
Obesidad III = 6,7 + 6,7 + 13,2 + 26,7 + 40,0 + 6,7 = 100,0

 Paso 4:
Elaboramos la tabla de frecuencia con los datos anteriores:

En la tabla de frecuencia podemos observar que la categoría normal presenta el mayor


número de sujetos (6) y por ende la mayor frecuencia relativa (40,0%). Por otra parte, la
categoría bajo peso, normal y sobre-peso presentan una frecuencia acumulada de 73,4%,
es decir, las tres categorías suman ese porcentaje de sujetos de la muestra.

Ejemplo 2.2
Un profesor desea conocer cómo se distribuyen las notas de sus estudiantes en el último
control realizado. Los resultados obtenidos fueron los siguientes:

 Paso 1:
Debido a que la variable es numérica es necesario establecer intervalos de clases:

Notas entre 2,0 y 2,9 Notas entre 4,0 y 4,9 Notas entre 6,0 y 6,9
Notas entre 3,0 y 3,9 Notas entre 5,0 y 5,9

35
Fernando Maureira Cid
________________________________________________________________________

 Paso 2:
Construimos la tabla de frecuencia como en el ejemplo 2.1:

*Nota: generalmente los intervalos de clases poseen la misma longitud.

2.2 GRÁFICOS DE BARRA Y TORTA 100. Por ejemplo: en un grupo evaluado


el 40% son varones, por lo tanto el valor
Nivel de medición: de frecuencia relativa debe multiplicarse
Nominal y Ordinal por 360 (40*360 = 14.440) y ese resultado
se divide por 100 (14.440 / 100 = 144),
Una vez que hemos desarrollado siendo la porción del grafico de torta que
una tabla de frecuencias es posible gene- representa a los varones de 144°.
rar una representación de esta mediante Este tipo de grafico es igual de útil
gráficos. que el de barra para representar la dis-
El gráfico de barras se utiliza para tribución de un grupo, pero resulta me-
representar variables categóricas nomi- nos eficiente para representar a dos o
nales u ordinales. La altura de cada barra más grupos siendo necesario utilizar va-
indica un valor de frecuencia absoluta o rios gráficos (uno por cada población o
relativa (Fig. 2.1), por lo tanto, es posible muestra).
comparar visualmente las diferencias en-
tre cada categoría. También es posible uti-
lizar el gráfico de barra para comparar 2.3 DIAGRAMA DE TALLO Y HOJA
dos o más distribuciones (Fig. 2.2).
El grafico de torta (también conoci- Nivel de medición:
do como circular o de sectores) repre- Intervalar y de razón
senta la frecuencia como un ángulo y una
porción dentro de un círculo (Fig. 2.3). Corresponde a una alternativa a
Para calcular los grados de arco que co- gráficos como el de barra, con la ventaja
rresponden a cada categoría es necesario que no se pierde la información original.
multiplicar la frecuencia por 360 (que En este diagrama las decenas co-
corresponde a la cantidad total de grado rresponden al tallo y las unidades a las
de un círculo) y el resultado dividirlo en hojas, las cuales deben ubicarse siempre

36
Capítulo 2. Estadística descriptiva: representación de datos
________________________________________________________________________

Figura 2.1 Gráfico de barra del porcentaje de IMC en estudiantes de primer año medio
de un colegio de la ciudad de Santiago.

Figura 2.2 Gráfico de barra del IMC comparando estudiantes de sexo masculino y
femenino de primer año medio de un colegio de la ciudad de Santiago.

37
Fernando Maureira Cid
________________________________________________________________________

Figura 2.3 Gráfico de torta de la distribución de una muestra según sexo. Los varones
representan el 40% (144° del círculo) y las damas el 60% (216° del círculo).

a la derecha. En el ejemplo 2.3 se explica este tipo de gráfico depende de la canti-


el proceso para generar un diagrama de dad de clases que utilicemos (divisiones
estas características. de los datos como categorías).
Muchas clases provocarán que po-
cos datos queden dentro de cada clase y
2.4 HISTOGRAMA, POLÍGONOS DE por ende el histograma presentará una
FRECUENCIA Y OJIVA distribución uniforme. Por el contrario,
pocas clases provocarán que muchos da-
Nivel de medición: tos queden dentro de una clase y el gráfi-
Intervalar y de razón co mostrará pocas características impor-
tantes. El número ideal de clases se ha
Es el más conocido de los gráficos calculado entre 6 y 15.
para representar variables numéricas. A Los histogramas pueden utilizarse
diferencia del gráfico de barra, en un tanto con las frecuencias relativas, como
histograma no existe separación entre con las frecuencias acumuladas y repre-
categorías (a menos que una categoría sentan la base para elaborar polígonos
tenga valor cero), ya que sus valores son de frecuencia, que corresponden a una
continuos. gráfica lineal que se construye uniendo
En el ejemplo 2.4 se observa la re- los puntos centrales de cada barra del
presentación de una tabla de frecuencia histograma (ejemplo 2.5). Así obtenemos
en forma de histograma. Es importante una imagen de la curva que genera la
destacar que la representación visual de distribución de la variable.

38
Capítulo 2. Estadística descriptiva: representación de datos
________________________________________________________________________

Ejemplo 2.3
Un entrenador evalúo la flexibilidad de 18 gimnastas varones (edades entre 9 y 11 años)
mediante una prueba de elevación frontal de la pierna. Los resultados fueron los
siguientes:

 Paso 1:
El primer dígito de cada valor se convierte en el tallo y el segundo en la hoja, ubicando
los tallos en forma ascendente. Luego el segundo dígito se ubica a la izquierda del tallo:

5 7
6 03569
7 048
8 148
9 001245

En el diagrama es posible observar que la mayor cantidad de casos se encuentran en el


rango de 90 cms. o más, en tanto el rango de 50 a 59 cms. solo presenta un sujeto.
E

Ejemplo 2.4
Un profesor evaluó el desarrollo de los patrones motores en 42 estudiantes de tercer año
básico de un colegio de Santiago. El test presenta una puntuación de 1 a 5 (1=muy bajo;
2=bajo; 3=ni bajo ni alto; 4=alto; 5=muy alto). A continuación se presenta la tabla de
frecuencia con los resultados:

La frecuencia relativa de las puntuaciones del test de patrones motores de tercer año
básico se presenta en el siguiente histograma:

39
Fernando Maureira Cid
________________________________________________________________________

Figura 2.4 Histograma de las puntuaciones de los patrones motores de 42 estudiantes de


tercer año básico de un colegio de la ciudad de Santiago.

Ejemplo 2.5
Un profesor evaluó la coordinación de 15 niños de 6 años de un colegio de Santiago,
mediante una escala de 1 a 5 (1=muy baja; 2=baja; 3=ni baja ni alta; 4=alta; 5=muy alta) y
obtuvo los siguiente resultados:

Se construyó la tabla de frecuencia:

..

40
Capítulo 2. Estadística descriptiva: representación de datos
________________________________________________________________________

 Paso 1:
Elaboramos el histograma y unimos el centro de cada barra con una recta, entregando la
forma del polígono de frecuencia:

Figura 2.5 Polígono de frecuencia relativa de los puntajes de la coordinación.

 Paso 2:
Elaboramos el histograma con la frecuencia acumulada y unimos las barras con una
recta, entregando la ojiva.

Figura 2.6 Ojiva de los puntajes de la coordinación.

41
Fernando Maureira Cid
________________________________________________________________________

Finalmente, si construimos el histo- 2.5 REPRESENTACIÓN DE DATOS


grama con la frecuencia acumulada y se EN SPSS
unen los puntos de cada barra se obtiene
un polígono de frecuencia acumulada, En la actualidad existen muchos
también llamada ojiva, la que resulta ser programas estadísticos que pueden ayu-
una curva ascendente que comienza con darnos a realizar los cálculos necesarios
la 1° frecuencia acumulada y termina con para nuestras investigaciones. A conti-
un 100%. En este gráfico es posible nuación se utilizará el programa SPSS
conocer cómo van sumando las categorías (Statistical Package for the Social Scien-
y tener una visión de la evolución de la ces) para trabajar los análisis descripti-
frecuencia de los datos. vos.

Tras instalar el SPSS en nuestro computador abrimos el programa mostrando una


pantalla como la figura siguiente:

Figura 2.7 Pantalla inicial del SPSS 22.0.

Luego debemos ingresar los descriptores de las variables que utilizaremos presionando
Vista de variables en la barra inferior, con esto aparece una pantalla como la figura 2.8.
En la primera columna colocamos los nombres de las variables. En la columna Tipo
aparece el concepto de numérico (en variables numéricas) o cadena (en variables
categóricas, con nombres en lugar de números). En la columna Decimales podemos
modificar la cantidad de decimales de nuestros valores.

42
Capítulo 2. Estadística descriptiva: representación de datos
________________________________________________________________________

Figura 2.8 Descripción de las variables en el SPSS 22.0.

Si la variable es categórica debemos describir dichas categorías presionando en la


columna Valores, así aparecerá una pantalla como la siguiente:

Figura 2.9 Valores de las variables.

En el recuadro Valor colocamos el número asignado a cada grado de la categoría. Por


ejemplo, si la variable es sexo, un valor será 1 para femenino y 2 para masculino. En el
recuadro de Etiqueta escribimos el nombre de la categoría.
Una vez introducidos ambos valores presionamos Añadir para grabar los datos y
comenzamos a realizar lo mismo nuevamente con la siguiente categoría de la variable.
Recuerde que las variables numéricas no necesitan completar esta información.
Una vez completada la información de todas las variables volvemos a Vista de varia-
bles y podemos escribir los valores para cada variable hasta completar el traspaso de
datos.

43
Fernando Maureira Cid
________________________________________________________________________

Figura 2.10 Pantalla con los datos en el SPSS 22.0.

Para realizar todos los análisis estadísticos debemos ir a Analizar que se ubica en la
barra superior y se desplegará el índice general de pruebas. Cuando seleccionamos una
de estas alternativas se desplegará un nuevo índice con los análisis particulares para
cada caso.

Figura 2.11 Desplegar los analisis estadisticos del SPSS 22.0.

44
Capítulo 2. Estadística descriptiva: representación de datos
________________________________________________________________________

Para obtener una tabla de frecuencia y los gráficos en el SPSS 22.0 vamos en el
menú a:

 Analizar
 Estadísticos descriptivos
 Frecuencia

Figura 2.12 Pantalla de frecuencia en el SPSS 22.0.

En el cuadro de la izquierda aparece la lista de nuestras variables. Tomamos la variable


categórica y la llevamos al cuadro derecho (Variables). Luego presionamos Gráficos y
marcamos Gráfico de barra, Gráficos circulares o Histograma (Fig. 2.13).

Figura 2.13 Pantalla de graficos en el SPSS 22.0.

Tras esto presionamos Continuar para volver a la pantalla de frecuencia y presionamos


Aceptar. La hoja de cálculos del programa nos entrega una tabla como la siguiente:

45
Fernando Maureira Cid
________________________________________________________________________

Tabla 2.1 Tabla de frecuencia

En la tabla de frecuencia observamos los nombres de las categorías de la variable, la


frecuencia (número de sujetos en la categoría), el porcentaje o frecuencia relativa, el
porcentaje válido (porcentaje que se ajusta cuando existen casos perdidos) y el
porcentaje acumulado o frecuencia acumulada.
La hoja de cálculos del programa también nos entregará el gráfico que se ha escogido.

Figura 2.14 Grafico de barras entregado por el SPSS 22.0.

46
Capítulo 3. Estadística descriptiva: medidas centrales, dispersión y posición
________________________________________________________________________

________________________________________________________________________

3.1 MEDIDAS DE TENDENCIA 3.1.1 Media aritmética


CENTRAL (MTC)
La media aritmética, media o pro-
Nivel de medición: medio es la MTC más utilizada y corres-
Intervalar y de razón ponde a la suma de los valores de cada
observación y cuyo resultado se divide
Son medidas resúmenes de posición por la cantidad de datos. El cálculo de la
central alrededor de los cuales se encuen- media se aprecia en los ejemplos 3.1 y
tran las observaciones realizadas. Tam- 3.2.
bién pueden ser definidas como el com- La media de una muestra se desig-
portamiento más común en un conjunto na con la letra y la media de una pobla-
de datos. Las medidas de tendencia cen- ción se designa con la letra griega µ
tral más usadas son la media, la mediana (mu). La media representa el punto de
y la moda. equilibrio de los datos y es muy sensible

Ejemplo 3.1
Un profesor ha evaluado la velocidad en 30 metros lanzados de nueve estudiantes de
primer año medio de un colegio de Santiago y ha encontrado los siguientes resultados:

 Paso 1:
Calculamos la media aritmética con la siguiente fórmula:

= ∑ Xi (fórmula 2)
n
∑ X1 = suma del valor de todas las observaciones o datos
n = número total de observaciones
.

47
Fernando Maureira Cid
________________________________________________________________________

Ahora con los datos del ejemplo 3.1 reemplazamos en la fórmula de la media:

= 7,30 + 8,15 + 4,60 + 9,10 + 6,40 + 5,50 + 7,25 + 6,30 + 8,05 = 6,96
9

La media de velocidad de los 9 estudiantes en el test de 30 mts. es de 6,96 segundos.

Ejemplo 3.2
En un partido de básquetbol de la liga nacional ocho jugadores de un equipo realizan
lanzamientos a la canasta (independiente que estos terminen en puntos o no) y su
entrenador registra el número de intentos de cada uno de ellos y obtiene la siguiente
tabla:

.
En la primera columna vemos el número de jugadores, en la segunda los lanzamientos a
la canasta realizadas en el primer tiempo por cada uno de ellos que generan una media
de 5,25. Finalmente, en la tercera columna observamos una cantidad similar de
lanzamientos excepto en el jugador seis que de 2 lanzamiento aumento a 75, por lo
tanto, la media aumento a 14,38. Esto sirve para graficar como un solo dato outlier
produce grandes variaciones en la media de un conjunto de datos.

a los datos extremos (outliers), es decir, nes de menor a mayor. Esta se obtiene
datos demasiado atípicos o extremos pro- con el número total de observaciones y la
ducen cambios importantes en ella (ejem- suma de una unidad, luego el resultado
plo 3.2). es dividido en 2 entregando el lugar don-
de se encuentra la mediana (ejemplo 3.3).
3.1.2 Mediana Este análisis se utiliza con datos numé-
ricos, pero también con datos ordinales y
Corresponde al dato que ocupa la es una medida robusta, muy poco sen-
posición central al ordenar las observacio- sible a los datos outliers.

48
Capítulo 3. Estadística descriptiva: medidas centrales, dispersión y posición
________________________________________________________________________

Ejemplo 3.3
Un profesor evaluó la motricidad de 15 niños de edades pre-escolares de un jardín
infantil de Santiago y los resultados del test se presentan ordenados de menor a mayor
en la siguiente tabla:

 Paso 1:
Calculamos la mediana con la siguiente fórmula:

Mediana = n + 1 (fórmula 3)
2
n = número total de observaciones

Mediana = 15 + 1 = 16 = 8
2 2

La mediana corresponde al valor ubicado en el lugar 8 en el orden de menor a mayor y


que en esta base de datos corresponde a una puntuación de 10 en el test de motricidad.

Si la cantidad de datos es par la mediana es el valor promedio de los dos datos


centrales. Por ejemplo, si tomamos los 10 primeros casos del ejemplo anterior y
utilizamos la fórmula 2 tenemos:

Mediana= (10 + 1) / 2 = 5,5

La mediana se encuentra en el centro de los valores 5 y 6.

.
Como los valores de los lugares 5° y 6° son 7 y 8, respectivamente, es necesario obtener
la media aritmética de dichos valores:

= (7 + 8) / 2 = 7,5 que corresponde a la mediana de estos datos.

49
Fernando Maureira Cid
________________________________________________________________________

3.1.3 Moda Cuando una distribución presenta


una sola moda recibe el nombre de uni-
Es el dato que ocurre con mayor modal, cuando presenta dos modas se
frecuencia en el conjunto de observacio- denomina bimodal y cuando presenta
nes, pudiendo utilizarse en datos numé- tres o más modas se designa como dis-
ricos y categóricos. tribución multimodal (Fig. 3.1).

Ejemplo 3.4
Un entrenador evaluó la cantidad de abdominales en un minuto que realizan 18
seleccionados universitarios de fútbol como parte del proceso de evaluación de su
condición física y los resultados fueron los siguientes:

La moda es el número 60, ya que es el valor que se presenta más veces en este conjunto
de datos (6 en total).

Figura 3.1 Distribuciones según sus modas. En la imagen superior izquierda se grafica
una distribución unimodal, en la imagen superior derecha una distribución bimodal y en
la imagen inferior una distribución multimodal.

50
Capítulo 3. Estadística descriptiva: medidas centrales, dispersión y posición
________________________________________________________________________

3.2 MEDIDAS DE DISPERSIÓN 3.2.2 Varianza

Nivel de medición: La varianza (S2) es la media del cua-


Intervalar y de razón drado de las desviaciones respecto a la
media de los datos. Esto permite conocer
Las medidas de dispersión o varia- la diferencia promedio de los valores con
bilidad describe cuan cerca se encuentran respecto a su media, siendo la base de
los datos entre sí o cuan cerca se en- muchos análisis inferenciales.
cuentran de alguna medida de tendencia Este análisis siempre corresponde a
central. valores positivos (debido a que los valo-
res son elevados al cuadrado), siendo
3.2.1 Amplitud o rango muy sensible a datos outliers. La medida
de la varianza corresponde a la unidad
Corresponde a la diferencia de las de medida de la variable al cuadrado,
observaciones extrema de un conjunto de por ejemplo, si la variable es expresada
datos (ejemplo 3.5). Es común que en los en centímetros la varianza será en cen-
resultados se presenten el valor menor, el tímetros al cuadrado.
mayor y el rango, siendo este último muy El cálculo de la varianza se observa
sensible a los valores outliers. en el ejemplo 3.6.

Ejemplo 3.5
Un entrenador evaluó la fuerza del tren superior en 14 seleccionados de Judo. Esto se
realizó a través de una RM en press banca y los resultados fueron los siguientes:

 Paso 1:
Calculamos el rango con la siguiente fórmula:

Rango = Vmayor – Vmenor (fórmula 4)

Vmayor = valor mayor de los datos


Vmenor = valor menor de los datos

Rango = 128 – 78 = 50

50 kilos corresponde al rango de estos datos.

51
Fernando Maureira Cid
________________________________________________________________________

Ejemplo 3.6
Un investigador desea conocer los niveles de memoria visual de 11 estudiantes de
pedagogía en educación física de una universidad de Santiago y para ello se aplica un
test neuropsicológico. Los resultados de las observaciones son los siguientes:

 Paso 1:
Calculamos la varianza con la siguiente fórmula:

(fórmula 5) S2 = ∑(Xi – 2

n–1

∑(Xi – )2 = suma de los cuadrados de la diferencia entre cada puntuación y la media de las
puntuaciones
n = número de datos

 Paso 2:
Calculamos la suma de cuadrados para los datos de la memoria:

 Paso 3:
Aplicamos la fórmula 5 para nuestros datos:

52
Capítulo 3. Estadística descriptiva: medidas centrales, dispersión y posición
________________________________________________________________________

S2 = 28,55 = 28,55 = 2,855


11 – 1 10

En el ejemplo la varianza es de 2,855

3.2.3 Desviación estándar Por ejemplo, en un test de fuerza


muy pocas personas tendrán valores
Corresponde al grado en que las muy bajos o muy altos, la mayoría
puntuaciones de la variable se alejan de la obtendrán puntuaciones medias. Esta
media. Se calcula con la raíz cuadrada de situación ocurre en la mayoría de los pro-
la varianza (ejemplo 3.7). cesos naturales si la muestra es lo sufí-
La desviación estándar muestral se cientemente grande (tiende a infinito).
designa con la letra S y la desviación es- Si la desviación estándar de la
tándar poblacional con la letra sigma (σ . muestra se encuentra entre la cuarta y
Este análisis es muy útil para cono- quinta parte del rango se considera que
cer cuánto se alejan los datos de la media la distribución es homogénea, es decir,
de una muestra cuando esta posee una los datos obtenidos de todos los sujetos
distribución simétrica. Esto ocurre cuan- evaluados se encuentran cercanos a la
do la mayoría de los datos obtenidos se media. Si la desviación estándar no se en-
encuentran en los puntajes centrales y cuentra en ese rango, la muestra se consi-
muy pocos datos se encuentran en los dera heterogénea. Cuando ocurre esta
extremos (Fig. 3.2). segunda opción podría ser interesante

Ejemplo 3.7
Utilizando la varianza del ejemplo 3.6 sobre la memoria de los estudiantes
universitarios, calculamos la desviación estándar con la siguiente fórmula:

S = √S2 (fórmula 6)

√S2 = raíz cuadrada de la varianza

S = √2,855 = 1,689

El promedio o media de los datos sobre la memoria de estudiantes de educación física


fue de 5,64 y la desviación estándar fue de 1,689 esto quiere decir que todos los datos
entre – 1 S (3,951) y + 1 S (7,329) se encuentran a una desviación de la media y
siempre en este espectro se agrupa el 68% de los datos recolectados. Esto indica que casi
el 70% de las observaciones obtuvieron puntajes entre 3,951 y 7,329.

53
Fernando Maureira Cid
________________________________________________________________________

Figura 3.2 Distribución simétrica. En estos datos la cantidad de observaciones que se


encuentra entre una desviación estándar a la derecha y a la izquierda es del 68,26%, en
dos desviaciones estándar es del 95,45% y en tres desviaciones es del 99,73%.

comparar los resultados de los grupos 3.3 MEDIDAS DE POSICIÓN


extremos de datos que hemos obtenido,
para saber si existen diferencias entre Nivel de medición:
las puntuaciones más altas y más bajas. Intervalar y de razón
Para el ejemplo 3.6 de la memoria de
los estudiantes universitarios: 3.3.1 Percentiles

Rango = 6 Las medidas de posición se basan


S = 1,689 en el orden que poseen ciertos valores de
1/4 rango = 6/4 = 1,5 las observaciones, comúnmente reciben
1/5 rango = 6/5 = 1,2 el nombre de cuantiles y se define como
el valor de la variable por debajo de la
Como S =1,689 no se encuentra entre cual se encuentra una frecuencia acumu-
la cuarta y quinta parte del rango (1,5 y lada α.
1,2 respectivamente) esta muestra se con- Un percentil es un valor p% que
sidera heterogénea. deja una cantidad de p% de datos de bajo
Para muestras homogéneas los valo- de él y 1-p% sobre él. Por ejemplo, un
res de rango, varianza y desviación están- percentil 30 deja por debajo el 30% de las
dar serán menores, debido a que los datos observaciones o datos y por encima un
se encuentran más agrupados. En mues- 70% de las observaciones.
tras heterogéneas ocurrirá lo contrario. Los percentiles separan a la mues-

54
Capítulo 3. Estadística descriptiva: medidas centrales, dispersión y posición
________________________________________________________________________

tra en grupos de 1% y la mediana siem- 3.3.2 Cuartiles


pre corresponde al percentil 50. Se repre-
sentan con la letra P. Son valores que dividen a las obser-
En el ejemplo 3.7 se observa como vaciones en cuatro grupos con frecuen-
calcular un percentil. cias similares (25% cada una). El primer

Ejemplo 3.7
Un profesor midió la estatura de 21 estudiantes de cuarto año medio de un colegio de la
comuna de Santiago en la clase de educación física. Los resultados fueron los siguientes:

 Paso 1:
Los datos siempre deben ser ordenados de menor a mayor.

 Paso 2:
Calculamos los percentiles con la siguiente fórmula:

P= n*K (fórmula 7)
100
n = número de datos
K = percentil que se desea conocer

Si queremos conocer el percentil 20 reemplazamos:

P20 = 21 * 20 = 420 = 4,2


100 100

El resultado corresponde al lugar de la lista de datos, ordenadas de menor a mayor,


donde se encuentra el valor del percentil. Si el resultado es una fracción, el valor del
percentil corresponde al lugar inmediatamente superior, en este caso el lugar 5 (1,68
mts.) corresponderá al percentil 20. Esto quiere decir que el 20% de los estudiantes
medidos están bajo 1,68 de estatura y el 80% restante está sobre 1,68.

55
Fernando Maureira Cid
________________________________________________________________________

cuartil corresponde al percentil 25 (cuantil En el ejemplo 3.8 se toman los mis-


0,25), el segundo cuartil corresponde al mos valores de la estatura de 21 estu-
percentil 50 (cuantil 0,5) y el tercer cuartil diantes de 4° medio para calcular los
corresponde al percentil 75 (cuantil 0,75). cuartiles
Los cuartiles sirven para establecer
cuatro grupos de datos, así podemos
transformar una variable numérica en 3.3.3 Quintiles y deciles
categórica. Por ejemplo, los valores igua-
les o bajo el cuartil 0,25 corresponden a Los quintiles son valores que divi-
un nivel bajo, valores entre el cuartil 0,25 den a las observaciones en cinco grupos
y 0,50 a un nivel medio bajo, valores entre con frecuencias similares (20%). El pri-
el cuartil 0,50 y 0,75 a un nivel medio alto mer quintil corresponde la percentil 20
y valores sobre 0,75 a un nivel alto. (quintil 0,2), el segundo quintil corres-

Ejemplo 3.8
Utilizando los mismos valores del ejemplo 3.7

 Paso 1:
Calculamos los cuartiles con la siguiente fórmula:

(fórmula 8) Qx = K * (n + 1)
4
K = valor del cuartil (1, 2 o 3)
n = número de datos

En caso que el cálculo no corresponda con la posición exacta se utiliza la siguiente


corrección:

(fórmula 9) Qx = Li + K * (Ls – Li )
4
Ls = límite superior del intervalo
Li = límite inferior del intervalos
.

56
Capítulo 3. Estadística descriptiva: medidas centrales, dispersión y posición
________________________________________________________________________

Utilizando los datos de la estatura reemplazamos en la fórmula 8:

Q1 = 1 * (21 + 1) = 22 = 5,5
4 4

Q2 = 2 * (21 + 1) = 44 = 11
4 4

Q3 = 3 * (21 + 1) = 66 = 16,5
4 4

Q1 corresponde a los valores en la posición 5 y 6 (1,68 y 1,69); Q2 corresponde al valor en


la posición 11 (1,74) y Q3 corresponde al valor en la posición (1,77 y 1,79). Para el cuartil
1 y 3 es necesario utilizar la fórmula 9 de corrección:

ponde al percentil 40 (quintil 0,4), el ter- rresponde al percentil 10, el decil 2 al


cer quintil corresponde al percentil 60 percentil 20, el decil 3 al percentil 30 y así
(quintil 0,6) y el cuarto quintil correspon- sucesivamente.
de al percentil 80 (quintil 0,8). La finalidad de los quintiles y deci-
Los deciles son valores que dividen les es la misma que cuartiles: poder esta-
a las observaciones en diez grupos con blecer grupos y categorías más detalla-
frecuencias similares (10%). El decil 1 co- das de nuestros datos.

3.4 MEDIDAS CENTRALES, DISPER-


SIÓN Y POSICIÓN EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Estadísticos descriptivos
 Frecuencia

57
Fernando Maureira Cid
________________________________________________________________________

Figura 3.3 Frecuencia en el SPSS 22.0.

El programa mostrará una pantalla como la figura 3.4 con un cuadro a la izquierda que
muestra nuestras variables, las cuales llevaremos al cuadro derecho (variables). Hecho
esto presionamos Estadísticos abriéndose una pantalla como figura 3.5.

Figura 3.4 Pantalla de frecuencia en el SPSS 22.0

En la pantalla de estadísticos marcamos las medidas de tendencia central: media, mediana


y moda; también podemos marcar desviación estándar, varianza, rango, mínimo y máximo;
en la sección valores percentiles podemos marcar cuartiles y en punto de corte para n
grupos iguales indicamos el número de percentiles que deseamos (en este caso 10 para
obtener los deciles).

58
Capítulo 3. Estadística descriptiva: medidas centrales, dispersión y posición
________________________________________________________________________

Figura 3.5 Pantalla estadísticos en el SPSS 22.0

Una vez marcados los estadísticos que deseamos presionamos Continuar para volver a
la pantalla de frecuencia y presionamos Aceptar.
La hoja de cálculos del programa nos entrega una tabla como la siguiente:

Tabla 3.1 Estadísticos descriptivos de una variable.

.
En la tabla 3.1 observamos la cantidad de datos válidos, la cantidad de datos perdidos,
la media, la mediana, la moda, la desviación estándar, la varianza, el rango de los datos,

59
Fernando Maureira Cid
________________________________________________________________________

el mínimo y el máximo de los datos, el cuartil 0,25 (percentil 25), el cuartil 0,50 (percentil
50) y el cuartil 0,75 (percentil 75) y los deciles que corresponden a los percentiles 10, 20,
30, etc.

60
Capítulo 4. Estadística descriptiva: medidas de forma y gráfico de caja
________________________________________________________________________

________________________________________________________________________

4.1 ASIMETRÍA hacia la izquierda, dejando una cola


hacia la derecha, por lo tanto, la ma-
Nivel de medición: yoría de los datos se encuentran
Intervalar y de razón cerca de las puntuaciones más bajas.
En estas distribuciones la media es
La asimetría corresponde a la forma mayor que la mediana (Fig. 4.2).


de la curva de una distribución en rela-
ción a su imagen derecha-izquierda. Una Distribución asimétrica negativa: es
distribución es simétrica si la mitad iz- aquella donde los datos se agru-
quierda es igual a su mitad derecha (Fig. pan hacia la derecha, dejando una
4.1) y por lo tanto, la mayor parte de los cola hacia la izquierda, por lo tanto,
datos se encuentran cercanos a la media, la mayoría de los datos se encuentran
existiendo pocos casos en los extremos. cerca de las puntuaciones más altas.
En este tipo de distribuciones la media, la En estas distribuciones la media es
mediana y la moda poseen igual valor. menor que la mediana (Fig. 4.2).

Para calcular la asimetría de una


distribución existen varios análisis esta-
dísticos, nosotros utilizaremos el coefi-
ciente de asimetría de Fisher (g1), que se
basa en la relación entre las distancias a
la media y la desviación estándar. En el
ejemplo 4.1 se estudian los pasos para
calcular la asimetría de una distribución.
El valor entregado por el coeficiente
Figura 4.1 Distribución simétrica. de asimetría se interpreta de la siguiente
manera:

Una distribución asimétrica es aque-  Valores de asimetría de cero indi-


lla donde los datos tienden a agruparse can una distribución simétrica.
hacia alguno de los lados:  Valores de asimetría sobre cero in-
dican una asimetría positiva.
 Distribución asimétrica positiva: es  Valores de asimetría bajo cero in-
aquella donde los datos se agrupan dican una asimetría negativa.

61
Fernando Maureira Cid
________________________________________________________________________

Figura 4.2 Distribuciones asimétricas. La figura izquierda corresponde a una distribución


positiva y la figura derecha a una distribución negativa.

Ejemplo 4.1
Un profesor evaluó la capacidad de planificación de los estudiantes de pedagogía en
educación física de una universidad de Santiago. Los resultados de las puntuaciones
fueron los siguientes:

 Paso 1:
Calculamos la asimetría con la siguiente fórmula:

(fórmula 10) g1 = ∑(Xi – 3

n * S3

∑(Xi – 3
= suma de cada observación menos la media de todas las observaciones elevada al
cubo
n = número de datos
S3 = desviación estándar de los datos al cubo

 Paso 2:
Calculamos la suma de cubos para los datos de la planificación:

62
Capítulo 4. Estadística descriptiva: medidas de forma y gráfico de caja
________________________________________________________________________

 Paso 3:
Para obtener el coeficiente de asimetría de Fisher reemplazamos en la fórmula 10:

g1 = 0,52 = 0,52 = 0,52 = 0,014


(9 * 1,593) 9 * 4,02 36,18

El coeficiente de asimetría de Fisher es de 0,014 (distribución asimétrica positiva).

4.2 CURTOSIS que presenta una elevación alta, esto


significa que existen pocos casos lejos
La curtosis corresponde al grado de de la media y muchos cerca de ella
apuntamiento o aplastamiento de una (Fig. 4.3).
distribución. Existen tres tipos de curto-
sis: Para calcular la curtosis se puede
utilizar el coeficiente de apuntamiento
 Platicúrtica: es aquella distribución de Fisher (g2). En el ejemplo 4.2 se realiza
que presenta una forma achatada, esto un análisis paso a paso del cálculo de la
significa que existen muchos casos curtosis de una distribución.
lejos de la media y pocos cerca de ella El valor entregado por el coeficiente
(Fig. 4.3). de curtosis se interpreta de la siguiente
manera:


Mesocúrtica: es aquella distribución
que presenta una elevación media, lo Valores de la curtosis de cero indi-
can una distribución mesocúrtica.

cual muestra un grado mediano de
concentración de los datos alrededor Valores sobre cero indican una dis-
tribución leptocúrtica.

del promedio (Fig. 4.3).
Valores bajo cero indican una dis-
 Leptocúrtica: es aquella distribución tribución platicúrtica.

63
Fernando Maureira Cid
________________________________________________________________________

Figura 4.3 Tipos de curtosis. Una distribución platicúrtica (imagen superior izquierda),
una distribución mesocúrtica (imagen superior derecha) y una distribución leptocúrtica
(imagen inferior).

Ejemplo 4.2
Para el cálculo de la curtosis utilizaremos los datos de la planificación de los estudiantes
de educación física:

.
 Paso 1:
Calculamos la curtosis con la siguiente fórmula:

(fórmula 11) g2 = ∑(Xi – 4 - 3


n * S4

∑(Xi – 3
= suma de cada observación menos la media de todas las observaciones elevada a la
cuarta
n = número de datos
S3 = desviación estándar de los datos a la cuarta
.

64
Capítulo 4. Estadística descriptiva: medidas de forma y gráfico de caja
________________________________________________________________________

 Paso 2:
Calculamos la suma de valores a la cuarta para los datos de la planificación:

 Paso 3:
Para obtener el coeficiente de apuntamiento de Fisher reemplazamos en la fórmula 11:

El coeficiente de apuntamiento de Fisher es de -1,38 (distribución platicúrtica).

4.3 DISTRIBUCIÓN SEGÚN SU nera a la derecha e izquierda de la


FORMA media y forman una curva achatada.

Una distribución posee un valor de  Simétrica–leptocúrtica: asimetría de


asimetría y curtosis, por lo tanto, tiene cero y curtosis positiva. Los datos se
una de nueve formas posibles: encuentran distribuidos de igual ma-
nera a la derecha e izquierda de la
 Simétrica–mesocúrtica: asimetría y media y forman una curva alargada.


curtosis de cero. Corresponde a una
distribución normal. Los datos se en- Asimétrica positiva–mesocúrtica:
cuentran distribuidos de igual manera asimetría izquierda y curtosis de ce-
a la derecha e izquierda de la media y ro. Los datos se encuentran distri-
formando una curva de altura media buidos hacia la izquierda de la dis-
(Fig 4.4). tribución (valores menores) y forman
una curva de altura media.


Simétrica–platicúrtica: asimetría de
cero y curtosis negativa. Los datos se Asimétrica positiva–platicúrtica: asi-
encuentran distribuidos de igual ma- metría izquierda y curtosis negativa.

65
Fernando Maureira Cid
________________________________________________________________________

Figura 4.4 Tipos de distribuciones. A= simétrica-mesocúrtica; B= simétrica-platicúrtica.


C= simétrica-leptocúrtica; D= asimétrica positiva-mesocúrtica; E= asimétrica positiva-
platicúrtica, F= asimétrica positiva-leptocúrtica; G= asimétrica negativa-mesocúrtica;
H= asimétrica negativa-platicúrtica. I= asimétrica negativa-leptocúrtica.

Los datos se encuentran distribuidos (valores mayores) y forman una cur-


hacia la izquierda de la distribución va de altura media.


(valores menores) y forman una cur-
va achatada. Asimétrica negativa–platicúrtica:
asimetría derecha y curtosis negativa.
 Asimétrica positiva–leptocúrtica: asi- Los datos se encuentran distribuidos
metría izquierda y curtosis positiva. hacia la derecha de la distribución
Los datos se encuentran distribuidos (valores mayores) y forman una cur-
hacia la izquierda de la distribución va achatada.
(valores menores) y forman una cur-
va alargada.  Asimétrica negativa–leptocúrtica:
asimetría derecha y curtosis positiva.
 Asimétrica negativa–mesocúrtica: Los datos se encuentran distribuidos
asimetría derecha y curtosis de cero. hacia la derecha de la distribución
Los datos se encuentran distribuidos (valores mayores) y forman una cur-
hacia la derecha de la distribución va alargada.

66
Capítulo 4. Estadística descriptiva: medidas de forma y gráfico de caja
________________________________________________________________________

4.4 GRÁFICO DE CAJA (BOX-PLOT) la existencia de datos extremos. Para


construirlo es necesario en primer lugar
ordenar los datos de menor a mayor y
Nivel de medición:
calcular la mediana, el cuartil inferior, el
Intervalar y de razón
cuartil superior y la distancia intercuartil.
En el ejemplo 4.3 se aprecia la cons-
El gráfico de caja, gráfico de caja y trucción de un box-plot.
bigotes o box-plot es un gráfico propuesto Este tipo de gráfico es muy útil para
por Tukey (1977) que se basa en medidas comparar grupos diferentes (por ejemplo
robustas de posición y dispersión, que damas y varones) o un mismo grupo en
muestra la distribución de los datos seña- diversas mediciones (por ejemplo antes y
slando donde caen la mayoría de ellos y después de un tratamiento).

Ejemplo 4.3
Un profesor evaluó la motivación hacia la clase de educación física de 12 estudiantes de
tercer año de enseñanza media de un colegio de Santiago. De ello se obtuvo la siguiente
tabla ordenada de menor a mayor:

.
 Paso 1:
Determinar el dato menor y mayor, la mediana, el cuartil inferior y el cuartil superior y
la distancia intercuartil (Di) que se obtiene con la siguiente fórmula:

Di = CS – SI (fórmula 12)
CS = valor del cuartil superior
S3 = valor del cuartil inferior
.
Al realizar los cálculos con el ejemplo 4.3 tenemos:

Dato menor= 10
Dato mayor= 55
Mediana= 20,5
Cuartil inferior= 13,5
Cuartil superior= 29,5
Distancia intercuartil= 29,5 – 13,5 = 16

67
Fernando Maureira Cid
________________________________________________________________________

 Paso 2:
Luego debemos determinar las cotas (límites de separación de los datos de la mediana)
para decidir si un dato es outlier (extremo, anómalos o atípicos) cuando caiga entre la 1°
y 2° cota inferior o superior o si un dato es outlier severo cuando caiga fuera de la 2° cota
inferior o superior. La primera cota se obtiene con la siguiente fórmula:

(fórmula 13) 1° cota = CIS ± 1,5 DI

CIS = cuartil inferior y superior


± = más en la cota superior y menos en la cota inferior
DI = distancia intercuartil

Con los datos del ejemplo 4.3:

1° cota inferior = 13,5 – (16 * 1,5) = -10,5


1° cota superior = 29,5 + (16 * 1,5) = 53,5

La segunda cota se obtienen con la siguiente fórmula:

(fórmula 14) 2° cota = CIS ± 3 DI

CIS = cuartil inferior y superior


± = más en la cota superior y menos en la cota inferior
DI = distancia intercuartil

Con los datos del ejemplo 4.3:

2° cota inferior = 13,5 – (16 * 3) = -34,5


2° cota superior = 29,5 + (16 * 3) = 77,5

 Paso 3:
Con estos valores se debe dibujar una escala con el rango de variación de los datos,
marcar la mediana y los cuartiles (inferior y superior) dibujando una caja entre los
cuartiles.

 Paso 4:
Desde el cuartil inferior se traza una línea con bigotes hasta el dato menor de la muestra
y de igual forma del cuartil superior se traza una línea hasta el dato mayor. Esto
siempre y cuando ningún dato sobrepase la 1° o 2° cota inferior o superior, ya que de

68
Capítulo 4. Estadística descriptiva: medidas de forma y gráfico de caja
________________________________________________________________________

ser así la línea se traza hasta el dato mayor antes de la 1° cota y se marcan estos datos
outlier con un * y los datos outlier extremos con un °.

Figura 4.5 Box-plot donde se observa la mediana (20,5), el cuartil inferior (13,5), el cuartil
superior (29,5), el dato menor (10), el dato mayor antes de la 1° cota superior (38) y un
dato outlier (55).

Figura 4.6 Gráfico de caja para comparar dos grupos.

69
Fernando Maureira Cid
________________________________________________________________________

4.5 GRÁFICO DE DISPERSIÓN En un scatter-plot las representa-


(SCATTER-PLOT) ciones de nubes difusas no muestran re-
lación entre las variables (por ejemplo, la
Nivel de medición: relación entre la práctica de ejercicio físi-
Intervalar y de razón co y el conocimiento en historia, ya que
ambas no se conectan y por ende la va-
Es un gráfico simple y útil para es- riación en una de ellas no provocará ne-
tudiar la relación entre dos variables nu- sariamente cambios en la otra).
méricas. Se caracteriza por representar Las representaciones lineales mues-
una nube de puntos (forma en que se dis- tran una fuerte relación entre variables,
tribuyen los datos en el gráfico) que per- además esta relación puede ser positiva,
mite evaluar la naturaleza de la relación cuando una variable aumenta la otra
de ambas variables (dirección, forma y también aumenta o cuando una disminu-
fuerza de la relación). Puntos dispersos en ye la otra también disminuye (por ejem-
el gráfico representan la falta de relación plo, la relación entre la práctica de ejerci-
entre las variables, en cambio puntos cio físico aeróbico y la resistencia cardio-
agrupados o en líneas indican relación vascular, ya que al aumentar la primera
entre ellas. la segunda también aumenta por adapta-
En el ejemplo 4.4 se puede observar ción fisiológica) o negativa, cuando una
que los puntos se ordenan en una especie variable aumenta la otra disminuye o
de línea diagonal que asciende. Esta dis- viceversa (por ejemplo, la relación de la
persión de datos muestra una relación práctica de ejercicio físico y el porcentaje
entre las dos variables, ya que a medida de grasa corporal, ya que al aumentar la
que una puntuación aumenta (agilidad) la primera disminuye la segunda).
otra también lo hace (motricidad). Las representaciones exponenciales

Ejemplo 4.4
Un profesor evaluó la agilidad y el desarrollo motor de 11 estudiantes de 5° año básico
de un colegio de Santiago. En la tabla siguiente se observan los puntajes obtenidos:

.
 Paso 1:
Construimos un gráfico en cuyo eje X colocaremos la variable agilidad y en el eje Y la
variable motricidad. Luego ubicaremos un punto en la intersección de las dos
puntuaciones que obtuvo cada sujeto del ejemplo:
.

70
Capítulo 4. Estadística descriptiva: medidas de forma y gráfico de caja
________________________________________________________________________

Figura 4.7 Gráfico de dispersión de las puntuaciones de agilidad y motricidad.


.

Figura 4.8 Dispersiones de los datos. En la imagen A se observa una representación de


nube difusa de datos. En la imagen B y C una distribución lineal (B es positiva y C es
negativa) y en la imagen D una distribución exponencial.

71
Fernando Maureira Cid
________________________________________________________________________

no son lineales, aunque muestran relación del año, ya que entre los meses de marzo
entre las variables (positiva o negativa) y agosto existe en nuestro país un núme-
pero se caracterizan porque una variable ro constante y bajo de personas que asis-
posee valores constantes o existen modi- ten regularmente al gimnasio, situación
ficaciones pequeñas (aumento o disminu- que cambia radicalmente a partir de sep-
ción), pero de pronto se producen cam- tiembre, cuando la cantidad aumenta,
bios de gran envergadura produciendo duplicándose o triplicándose).
una curva en el gráfico (por ejemplo, la En la figura 4.8 se observan gráficos
relación entre el uso del gimnasio para de diferentes tipos de relación entre los
mejorar la apariencia física y los meses datos de dos variables.

4.6 MEDIDAS DE FORMA EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Estadísticos descriptivos
 Frecuencia

Figura 4.9 Frecuencia en el SPSS 22.0.

El programa mostrará una pantalla como la figura 4.10 con un cuadro a la izquierda que
muestra nuestras variables, las cuales llevaremos al cuadro derecho (Variables). Hecho
esto presionamos Estadísticos abriéndose una pantalla como figura 4.11.

72
Capítulo 4. Estadística descriptiva: medidas de forma y gráfico de caja
________________________________________________________________________

Figura 4.10 Pantalla de frecuencia en el SPSS 22.0

Figura 4.11 Pantalla estadísticos en el SPSS 22.0

Una vez marcados los estadísticos que deseamos presionamos Continuar para volver a
la pantalla de frecuencia y presionamos Aceptar.
La hoja de cálculos del programa nos entrega una tabla como la siguiente:

Tabla 4.1 Asimetría y curtosis de una variable.

En la tabla 4.1 observamos la cantidad de datos válidos y pérdidos, el coeficiente de


asimetría y el error estándar del mismo, la curtosis y su error estándar.

73
Fernando Maureira Cid
________________________________________________________________________

4.7 MEDIDAS DE POSICIÓN Y


GRÁFICO DE CAJA EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Gráficos
 Cuadro de diálogo antiguos
 Diagramas de cajas

Figura 4.12 Diagrama de caja en el menú del SPSS 22.0.

Cuando presionamos Diagrama de caja aparece una pantalla como la figura 4.13. Aquí
marcamos Simple si queremos graficar una variable o Agrupación si son dos o más
variables

Figura 4.13 Pantalla del gráfico de caja en el SPSS 22.0.

74
Capítulo 4. Estadística descriptiva: medidas de forma y gráfico de caja
________________________________________________________________________

Luego presionamos Definir y los datos numéricos que deseamos graficar los llevamos
al cuadro Variable y la variable nominal al cuadro Eje de categorías. Luego
presionamos Aceptar.

Figura 4.14 Pantalla de definición de variables en gráfico de caja en el SPSS 22.0.

La hoja de cálculos del programa nos entrega el diagrama de caja correspondiente.

Figura 4.15 Grafico de caja entregado pr el SPSS 22.0

75
Fernando Maureira Cid
________________________________________________________________________

76
Capítulo 4. Estadística descriptiva: medidas de forma y gráfico de caja
________________________________________________________________________

77
Fernando Maureira Cid
________________________________________________________________________

78
Capítulo 5. Muestra y muestreo
________________________________________________________________________

________________________________________________________________________

5.1 MUESTRAS EN INVESTIGACIÓN  Que se encuentren cursando primer


año medio.
Cuando planteamos nuestra investí-
gación hemos formulado hipótesis sobre b) Criterios de exclusión de la muestra:
una población que deseamos estudiar. corresponde a las características que
Por ejemplo, queremos saber si existen de poseer el sujeto o unidad de aná-
diferencias en los niveles de resistencia lisis serán excluidos de poder formar
cardiovascular de los estudiantes de pri- parte de la muestra. En el mismo
mer año medio de colegios municipaliza- ejemplo anterior, serían criterios de
exclusión:
 Los estudiantes de primer año medio
dos y de colegios particulares de la comu-
na de Providencia.
Una vez que conocemos la pobla- de colegios municipales o particula-
ción (en el ejemplo, el total de los estu- res de Providencia que posean enfer-
diantes de primer año medio de colegios medades respiratorias que puedan
afectar su resistencia cardiovascular.
 Aquellos estudiantes que formen
municipalizados y de colegios particula-
res de la comuna de Providencia) debe-
mos determinar la muestra en la cual rea- parte de equipos o clubes deportivos
lizaremos las mediciones (Fig. 5.1). con altos niveles de entrenamiento
Es importante recordar que para físico, lo cual también podría afectar
su rendimiento en la medición.
 Estudiantes de primer año medio de
obtener la muestra es necesario establecer
los criterios de inclusión y exclusión de la
misma. colegios municipales o particulares
de Providencia que se encuentren
a) Criterios de inclusión de la muestra: lesionados, etc.
corresponde a las características que
deben poseer los sujetos o unidades
de análisis para poder ser considera- 5.1.1 Calculo del tamaño de la muestra
dos como parte de la muestra. En el
ejemplo anterior de la resistencia car- Una vez establecidos los criterios de
diovascular, serían criterios de inclu- inclusión y exclusión, debemos determi-
sión: nar el tamaño de la muestra, es decir, el
 Que los sujetos fuesen estudiantes de número de sujetos que debemos medir
un colegio municipal o particular de en la realidad.
Providencia. Las muestras pueden ser probabi-

79
Fernando Maureira Cid
________________________________________________________________________

Figura 5.1 Representación de una población y una muestra.

lísticas (sujetos elegidos al azar entre to-  Del nivel de confianza: corresponde
dos los que componen la población, por al grado de certeza que un evento
lo tanto, todos tienen las mismas posibili- ocurra. Recordemos que la probabi-
dades de formar parte de la muestra y los lidad se mide entre 0 y 1, siendo 0
casos son representativos de dicha pobla- una absoluta desconfianza de que un
ción) o no probabilísticas (sujetos que evento acontezca y 1 una absoluta
son escogidos por la facilidad de acceso a confianza que dicho evento ocurra.
ellos, no todos los sujetos de la población Los niveles de confianza más utiliza-
tienen posibilidades de ser escogidos y no dos en ciencias sociales son 0,05 y
pretende que los casos sean representati- 0,01.
vos, aunque pudiesen serlo).  Del carácter finito o infinito de la
En ambos casos resulta necesario población: las poblaciones finitas son
determinar un número de sujetos que aquellas de tamaños reducidos y
vamos a evaluar y esto depende de tres cuyo valor conocemos (generalmente
aspectos: bajo 100.000 unidades de análisis) y
las poblaciones infinitas son aquellas
 Del error muestral permitido: es el de gran tamaño y cuyo valor desco-
valor de equivocación que aceptamos nocemos (generalmente sobre 100.000
para los estadísticos de la muestra al unidades de análisis). Por ejemplo,
ser extrapolados con los parámetros una población finita son los estudian-
de la población. Los niveles habitua- tes de enseñanza media de un colegio
les son de 0,05 (5% de error) y 0,01 de la comuna de Santiago Centro y
(1% de error). A medida que disminu- una población infinita son los estu-
ye el error permitido aumenta el ta- diantes de enseñanza media de todos
maño de la muestra. los colegios de Chile.

80
Capítulo 5. Muestra y muestreo
________________________________________________________________________

Ejemplo 5.1
Un investigador desea conocer si existe diferencia en los niveles de fuerza de tren su-
perior de los estudiantes de cuarto año medio de colegios de la ciudad de Santiago. Para
ello determina un nivel de confianza del 95% (0,05) y un error permitido del 5% (0,05).

 Paso 1:
Para calcular el tamaño de la muestra de una población infinita (n) utilizamos la
siguiente fórmula:

n= Z2 pq (fórmula 15)
e2

Z2 = nivel de confianza expresada en valor Z


Estos valores siempre serán:
0,05 = 1,96
0,04 = 2,05
0,03 = 2,17
0,02 = 2,33
0,01 = 2,58
pq = varianza de la población (como no conocemos ese dato utilizamos una constante de 0,25)
e2 = error muestral permitido elevado al cuadrado (por ejemplo un error del 3% corresponde a
un valor de 0,032 en la fórmula).

Realizamos los cálculos para el ejemplo 5.1:

n = 1,962 * 0,25 = 3,8416 * 0,25 = 384


0,052 0,0025

Por lo tanto, es necesario medir a 384 estudiantes de cuarto año medio de colegios de la
ciudad de Santiago.

Ahora el investigador desea realizar el mismo estudio, pero con:


a) Un nivel de confianza del 95% (0,05) y un error permitido del 1% (0,01).
b) Un nivel de confianza del 99% (0,01) y un error permitido del 1% (0,01).

n = 1,962 * 0,25 = 3,8416 * 0,25 = 9604 estudiantes de 4° año medio


0,012 0,0001

n = 2,582 * 0,25 = 6,6564 * 0,25 = 16641 estudiantes de 4° año medio


0,012 0,0001

Como es posible notar, el tamaño de la muestra aumenta exponencialmente si


aumentamos el nivel de confianza y si disminuimos nuestro error muestral permitido.

81
Fernando Maureira Cid
________________________________________________________________________

Ejemplo 5.2
Un investigador desea conocer los hábitos de estudio de los estudiantes de primer año
de la carrera de educación física de una Universidad. La población es de 200
estudiantes, el nivel de confianza es de 95% (0,05) y el error permitido del 5% (0,05).

 Paso 1:
Para calcular el tamaño de la muestra de una población finita (n) utilizamos la
siguiente fórmula:

(fórmula 16) n= N .
1 + e2 * (N – 1)
Z2 * pq

N = tamaño de la población
e2 = error muestral permitido elevado al cuadrado
Z2 = nivel de confianza elevada al cuadrado
pq = varianza de la población

Realizamos los cálculos para el ejemplo 5.2:

Por lo tanto, es necesario medir a 132 de primer año de educación física de la


Universidad.

El aumento de tamaño de la pobla- muestra es igual a la población (Morales,


ción no produce un aumento proporcio- 2012).
nal del tamaño de la muestra. Por ejem-
plo, con un nivel de confianza del 95% y 5.1.2 Muestras para construir un
un error permitido de 0,05 en poblaciones instrumento de medición
de 100 sujetos la muestra es de 80, con
poblaciones de 500 sujetos la muestra es Cuando se construye un test o una
de 217 y con poblaciones de 100.000 escala de actitudes debe aplicarse el ins-
sujetos la muestra es de 383. trumento al menos a 5 sujetos por ítems.
Cuando las poblaciones son muy Por ejemplo, si el test cuenta con 35 ítems
pequeñas (25 a 40 sujetos) la muestra es serán necesarios 175 sujetos escogidos de
muy similar a la población. En poblacio- forma aleatoria entre la población de
nes de 15 a 25 sujetos la muestra es n-1 y estudio.
en poblaciones de menos de 15 sujetos la Cuando se desea llevar a cabo un

82
Capítulo 5. Muestra y muestreo
________________________________________________________________________

análisis factorial del instrumento es nece- estadísticos como el SPSS poseen


saria una muestra grande, ya que este sistemas para calcular muestras
análisis se basa en coeficientes de correla- aleatorias (ver detalles en Maureira &
ción y el error típico de las correlaciones Flores, 2012).
disminuye si aumenta el número de su- La muestra obtenida mediante este
jetos (Morales, 2012). tipo de muestreo recibe el nombre de
Algunos autores recomiendan mues- muestra irrestricta aleatoria.
tras 10 veces mayores que el número de
ítems, es decir, para un instrumento de 40 b) Muestreo probabilístico estratifica-
ítems serían necesarios 400 sujetos. Otros do: corresponde a una división de la
autores recomiendan muestras 3 veces muestra en segmentos de diferentes
mayor, pero que no bajen de 150 o 200 tamaños y de una selección al azar en
sujetos. Por ejemplo, para un instrumento cada segmento (ejemplo 5.3).
de 80 ítems bastaría con 240 sujetos, pero
si un instrumento posee 20 ítems 60 c) Muestreo por conglomerados: se uti-
sujetos no sería suficiente, aquí el número liza cuando las unidades de la mues-
mínimo debería ser de 150 y 200 sujetos. tra se encuentran muy dispersas y su
acceso es dificultoso o cuando no
existe un marco de muestreo (lista de
5.2 MUESTREO todos los integrantes de una pobla-
ción). En este tipo de muestreo alea-
Una vez que tenemos claro el tama- torio las unidades están compuestos
ño de la muestra debemos decidir la for- por grupos de elementos (conglo-
ma en la cual escogeremos a los sujetos merado), los que pueden ser de igual
para formar parte de la muestra, este pro- o diferente tamaño.
ceso recibe el nombre de muestreo. Cuando se observan todos los inte-
grantes de cada uno de los n conglo-
5.2.1 Para muestras probabilísticas merados recibe el nombre de mues-
treo por conglomerado monoetápico
a) Muestreo aleatorio simple: corres- ya que el proceso se realiza en una
ponde a la elección al azar de una sola etapa. En cambio cuando se
muestra donde todos los sujetos o seleccionan al azar integrantes dentro
unidades de análisis tienen las mis- de los n conglomerados elegidos,
mas probabilidades de ser escogidos. recibe el nombre de muestreo por
Por ejemplo, la selección de 210 conglomerado bietápico o en dos
estudiantes de primer año medio de etapas. Finalmente, si dentro de los n
colegios particulares de la comuna de conglomerados se seleccionan al azar
Providencia. n grupos y dentro de cada grupo se
Los métodos más utilizados para este eligen los sujetos a observar recibe el
tipo de muestreo son la tómbola nombre de muestreo por conglome-
(enumerar los sujetos del 1 a n y esco- rado polietápico.
ger al azar los números que formarán Por ejemplo, un investigador quiere
parte de la muestra), las tablas Ran- conocer las cualidades físicas de
dómicas e incluso muchos programas los estudiantes de tercero medio de

83
Fernando Maureira Cid
________________________________________________________________________

Ejemplo 5.3
Para conocer las diferencias en el desarrollo de patrones motores de niños de NB1 de
colegios particulares, subvencionados y municipales de la comuna de Recoleta debemos
conocer:

 El tamaño de la población (vamos a suponer que 5000 niños)


 Calcular el tamaño de la muestra (384 niños)
 Conocer la cantidad de niños en NB1 en los colegios particulares (950 niños), sub-
vencionado (2800 niños) y municipales (1250 niños).

 Paso 1:
Como no existe la misma cantidad de estudiantes de NB1 en los colegios municipales,
subvencionado y particulares en la comuna de Recoleta, utilizamos la siguiente fórmula
para calcular el tamaño de la muestra por cada segmento:

(fórmula 17) fh= n


N
fh = factor de cada grupo de la muestra
n = tamaño de la muestra
N = tamaño de la población

Reemplazamos en la fórmula 17:

fh = 384 = 0,077
5000

 Paso 2:
Ahora multiplicamos el valor fh por la cantidad de sujetos de cada grupo y obtenemos
la muestra de cada grupo:

Colegios particulares = 950 * 0,077 = 73 niños


Colegios subvencionados = 2800 * 0,077 = 215 niños
Colegios municipales = 1250 * 0,077 = 96 niños

Así al sumar el total de los niños que deben ser evaluados de cada grupo se obtienen los
384 de la muestra total.

los colegios de Santiago de Chile. La elección de los sujetos a evaluar, por


población está compuesta por todos lo tanto, decide escoger al azar cinco
los estudiantes de 3° medio de la comunas y dentro de ellas evalúa a
ciudad lo que hace muy dificultosa la todos los estudiantes de 3° medio

84
Capítulo 5. Muestra y muestreo
________________________________________________________________________

Figura 5.2 Tipos de muestreos.

(muestreo monoetápico). Como se- b) Muestreo por cuotas: corresponde a


gunda opción puede ahora escoger al un muestreo similar al juicio de
azar los colegios dentro de cada una expertos, pero permite obtener mues-
de las cinco comunas elegidas y solo tras representativas en cuanto a la
en esos colegios medir a todos los es- distribución de algunas variables de
tudiantes de 3° medio (muestreo bie-. la población. Primero se identifican
tápico). Finalmente, el investigador las variables a las cuales se le asigna-
puede elegir al azar a los estudiantes rán cuotas (por ejemplo: edad, cur-
de 3° medio que medirá en cada uno sos, sexo, etc.) y luego se busca infor-
de los colegios escogidos de las 5 mación sobre la distribución de esas
comunas seleccionadas para el cuotas en la población para así asig-
estudio (muestreo polietápico). nar dichos porcentajes a las cuotas de
la muestra (por ejemplo: de los
5.2.2 Para muestras no probabilísticas seleccionados universitarios de hánd-
bol de una ciudad el 60% correspon-
a) Muestreo por criterio o juicio: es de a hombres y el 40% a mujeres, por
donde el tamaño de la muestra y la lo tanto la muestra deberá estar
elección de las unidades de análisis se conformada por un 60% de hombres
realiza por el juicio del investigador, y 40% de mujeres). Es importante
es decir, el investigador mediante su recordar que los sujetos no son
experiencia determina los elementos a escogidos al azar y por lo tanto, la
estudiar. muestra no es probabilística.

85
Fernando Maureira Cid
________________________________________________________________________

c) Muestreo bola de nieve: es aquel 3 atletas e incita a que estos inviten a


donde la muestra se obtiene porque deportistas conocidos suyos con las
los primeros sujetos medidos traen a características requeridas a participar
los demás para su evaluación. Este de la investigación.
sistema es muy útil cuando el inves-
tigador quiere conformar una mues- d) Muestreo por conveniencia: es aquel
tra con sujetos con características muy donde los sujetos que formarán la
particulares y de difícil acceso, enton- muestran están disponibles para el
ces los primeros individuos invitan a investigador. Se utilizan principal-
otros sujetos con esas características a mente para hacer estudios sobre las
participar en el estudio. propias muestras, ya que resulta difí-
Por ejemplo, un investigador quiere cil extrapolar los resultados a la pob-
conocer los niveles de potencia de lación (que no necesariamente se en-
cuádriceps en atletas seleccionados cuentra representada en la muestra).
nacionales que hayan participado en En otras palabras esta muestra está
al menos un campeonato internacio- constituida por los sujetos a los
nal. Para ello se pone en contacto con cuales el investigador tiene acceso.

86
Capítulo 6. Distribuciones de probabilidades
________________________________________________________________________

________________________________________________________________________

6.1 CONCEPTOS BÁSICOS EN  Evento aleatorio: es aquel resultado


PROBABILIDADES que se logra por azar o al menos
podemos atribuirlo a él. Por ejemplo,
La estadística inferencial resulta de en el caso del lanzamiento de un
aplicar las probabilidades a la estadística dado, ya que el número que se obtie-
descriptiva. En este libro no estudiare- ne es resultado del azar (claro si no
mos probabilidades, ya que eso resultaría tomamos en cuenta, la fuerza, direc-
un libro en sí mismo, sólo explicaremos ción y otra enorme cantidad de varia-
algunos conceptos básicos. bles al momento de lanzar el dado).

 Probabilidad: es una medida numé-  Evento no aleatorio: es aquel resul-


rica que cuantifica la posibilidad que tado que no se produce por azar. Por
un evento ocurra. Por ejemplo, en el ejemplo, en el caso del paraguas y la
noticiario indican un 80% de probabi- lluvia el resultado no es producto del
lidad de que llueva, esto representa azar, ya que depende de nuestra pre-
una posibilidad muy alta de que ese ferencia de llevar o no el paraguas.


evento ocurra y por lo tanto debería-
mos salir preparados con un para- Espacio muestral: corresponde a to-
guas. Las probabilidades fluctúan dos los posibles eventos aleatorios
entre 0 y 1 (0% y 100%). que puedan existir. Por ejemplo, seis
eventos aleatorios en el caso de un
 Evento: es el resultado futuro de una dado: sus seis caras.
decisión. Por ejemplo, decidimos lan-
zar un dado y para ello existen seis La estadística inferencial trata sobre
eventos posibles (las seis caras de un los eventos aleatorios, por lo tanto, todas
dado). En el ejemplo anterior de la las futuras referencias a eventos serán de
lluvia existen dos eventos posibles este tipo. La probabilidad (px) de que un
respecto del paraguas: llevarlo o no evento ocurra se puede calcular con la
llevarlo. siguiente fórmula:

px = na (fórmula 18)
Em
na = número de eventos aleatorios
Em = tamaño de espacio muestral

87
Fernando Maureira Cid
________________________________________________________________________

En el caso del dado reemplazamos 6.2 DISTRIBUCIONES DISCRETAS


en la fórmula 18:
6.2.1 Distribución de Bernoulli
p(x) = 1 / 6 = 0,16666
Es la distribución más simple, don-
La probabilidad de obtener un de existen solamente dos posibles resul-
número cualquiera al lanzar un dado (un tados: éxito y fracaso. Por ejemplo, un
dos por ejemplo) es de 16,666%. El 1 re- jugador de fútbol frente al balón en un
presentan el evento que deseamos, como lanzamiento penal tiene dos posibilida-
el número dos (que por ende es un even- des: a) convierte el gol y; b) falla el lanza-
to) y el 6 es el total de posibles eventos o miento.
espacio muestral (seis caras del dado). El proceso de Bernoulli consiste en
Desde el punto de vista de la un experimento, que a su vez consiste en
investigación científica, usando los esta- una serie de ensayos independientes,
dísticos descriptivos de una muestra y idénticos y dicotómicos. El éxito (p) o
con la ayuda de las probabilidades pode- fracaso (q) de un ensayo corresponde a la
mos determinar parámetros en una expresión:
población, función principal de la esta-
dística inferencial. p + q = 1 por lo tanto,
Las variables aleatorias de un espa- p=1–q
cio muestral pueden ser de dos tipos: dis- q=1–p
cretas o continuas. Las variables discretas
son por ejemplo, el lanzamiento de una Es decir, éxitos más fracasos es
moneda, la cantidad de elementos erró- igual a 1 (100%) o lo que es lo mismo, la
neos en una serie de elementos, el lanza- cantidad de éxitos es igual a 1 menos la
miento de un dado, etc. Por su parte, son cantidad de fracasos y por lo tanto, la
variables continuas el peso, estatura, cantidad de fracasos es igual a 1 menos
edad, resultados en una prueba y cual- la cantidad de éxitos. Por ejemplo, Un
quier valor dentro de un intervalo. delantero de fútbol posee un 70% de

Figura 6.1 Distribución de Bernoulli de los penales de un delantero de fútbol.

88
Capítulo 6. Distribuciones de probabilidades
________________________________________________________________________

aciertos en sus lanzamientos penales y ocurrencia de los resultados de un expe-


por ende presenta un 30% de fracasos. rimento generado en un proceso de
Esta distribución posee su principal Bernoulli. Un experimento puede ser
aplicación en procesos de calidad, donde dicotómico o teniendo muchos resulta-
es necesario conocer las posibilidades de dos puede dicotomizarse, por ejemplo,
una combinación determinada de éxitos y en el lanzamiento de un dado tenemos 6
fracasos en la elaboración de un pro- posibles resultados, pero podemos redu-
ducto. Esto se puede observar en el ejem- cirlo a obtener un número 2 (éxito) o no
plo 6.1. obtener un número 2 (fracaso).
En un experimento de Bernoulli con
dos etapas tenemos la existencia de dos
6.2.2 Distribución binominal posibilidades en la 1° etapa (éxito o fraca-
so) y tenemos cuatro posibilidades en la
Esta distribución produce una des- 2° etapa (éxito-fracaso-éxito-fracaso). En
cripción adecuada a las probabilidades de la figura 6.2 se aprecia un diagrama de

Ejemplo 6.1
En una fábrica de elaboración de balones de fútbol el 5% de los artículos presenta algún
defecto. ¿Cuál es la probabilidad de encontrar 3 balones defectuosos de una muestra de
6 balones?
.
 Paso 1:
Determinar la probabilidad de ocurrencia con la siguiente fórmula:

(fórmula 19)

n = coeficiente binominal, donde n es total de la muestra inspeccionada y k es el


k número de artículos defectuosos que se desea encontrar. Esto se resuelve
mediante factoriales x! que corresponde al producto de todos los números
enteros positivos hasta n (por ejemplo, 3! = 3*2*1=6). El coeficiente binominal
se resuelve con= n! .
(n – k)! * k!
p = probabilidad de artículos defectuosos
q = probabilidad de artículos correctos

Realizamos los cálculos para el ejemplo 6.1:

Pr = 6 (0,05)2 * (0,95)4 = 6! * 0,0025 * 0,8145 = 720 * 0,00203 = 0,0406


3 (6 – 3)! * 3! 6*6

La probabilidad de que se obtengan 3 balones defectuosos de entre 6 es de 0,04%.

89
Fernando Maureira Cid
________________________________________________________________________

árbol de un experimento de dos etapas Si p es igual al 80% y q es igual al


generado por un proceso de Bernoulli. 20% tenemos que:

p*p = 0,80 * 0,80 = 0,64 (64%)


p*q = 0,80 * 0,20 = 0,16 (16%)
q*p = 0,20 * 0,80 = 0,16 (16%)
q*q = 0,20 * 0,20 = 0,04 (4%)

Por lo tanto, la posibilidad de obte-


ner dos éxitos en este experimento es de
un 64%, de obtener 1 éxito es de 32% y de
obtener 0 éxito es de un 4%.
Figura 6.2 Diagrama de árbol de un También es posible que necesite-
experimento con 2 etapas. En la primera mos conocer algún resultado en particu-
existen dos opciones: éxito y fracaso. En lar y no toda la distribución de un expe-
la segunda para cada resultado anterior rimento binominal y para ello existe un
existe un éxito o fracaso. método explicado en el ejemplo 6.2.

Ejemplo 6.2
Un voleibolista tiene una probabilidad de acierto en su saque de un 75% (0,75). Si en un
partido se escogen al azar 5 saques, calcular la posibilidad que cero, uno, dos, tres,
cuatro y cinco saques sean correctos.

 Paso 1:
Determinar la probabilidad total (p(X|n,p) con la siguiente fórmula:

(fórmula 20) P(X|n,p)= n! px * qn-x


x! (n – x)!

n! = número factorial de ensayos del experimento


x! = número factorial de errores de los n ensayos
n = número de ensayos del experimento
x = número de errores de los n ensayos
p = probabilidad de éxito de cualquier ensayo
q = probabilidad de fracaso de cualquier ensayo

Reemplazamos en la fórmula 20 para cada posibilidad:

90
Capítulo 6. Distribuciones de probabilidades
________________________________________________________________________

De esto es posible concluir que el voleibolista tiene 23,7% de probabilidades de realizar


correctamente los 5 saques, 39,5% de realizar correctamente 4 saques, 26% de realizar
correctamente 3 saques, 9% de realizar correctamente 2 saques, 2% de realizar
correctamente sólo un saque y 0,098% de no realizar correctamente ninguno de los
saques. En la figura 6.3 se observa la distribución binominal para este ejemplo.

Figura 6.3 Distribución binominal, donde se aprecia la posibilidad de éxito de una


cantidad n de saques del voleibolista del ejemplo.

91
Fernando Maureira Cid
________________________________________________________________________

6.2.3 Distribución de Poisson para determinar límites de procesos dico-


tómicos reiterados cuando la probabili-
Esta distribución es una de las más dad de obtener éxito es muy pequeña.
importantes en variables discretas. Se ca- Este proceso se utiliza por ejemplo
racteriza por modelar situaciones en las para determinar el número de fallas de
que interesa determinar el número de un sistema, la cantidad de autos que
ciertos hechos que se pueden producir en pasan por una caseta de peajes, número
un intervalo de tiempo o espacio, bajo de gente que sube y baja en un terminal
ciertas características. También se utiliza de buses, etc. (ejemplo 6.3).

Ejemplo 6.3
En un partido de básquetbol de la liga amateur el 20% de los lanzamientos realizados
desde fuera de la zona se convierten en canastas de 3 puntos. Calcular la posibilidad que
en un partido donde se realizan 30 lanzamientos fuera de la zona, 8 de ellos se convierta
en canastas de tres puntos.

 Paso 1:
Determinar la probabilidad de Poisson (p(x)) con la siguiente fórmula:

(fórmula 21) P(x) = e-(np) (np)x


x!

e = 2,71828 (constante, base de logaritmos naturales)


n = número de intentos
p = probabilidad de ocurrencia
x! = valores , , …factorial

n = 30
p = 20% = 0,2
x! = 8
np = 30 * 0,2 = 6

Reemplazamos en la fórmula 21:

p(8) = 2,71828-6 * 68 = 0,0025 * 1679616 = 4199,04 = 0,104


8! 40320 40320

Esto significa que existe un 10,4% de posibilidades que en el partido 8 lanzamientos


desde fuera de la zona se conviertan en canastas de 3 puntos. También es posible
calcular las posibilidades con diferente cantidad de canastas (5, 6, 7, 8, 9, etc.) y así
construir una curva de distribución de Poisson mediante un gráfico de barras.

92
Capítulo 6. Distribuciones de probabilidades
________________________________________________________________________

6.2.4 Distribución hipergeométrica blación es finita los ensayos sucesivos no


son independientes entre sí, ni tampoco
En una distribución binominal las estacionarios y por ende la probabilidad
observaciones son independientes entre sí de éxito varia de ensayo en ensayo. En
y es un proceso estacionario, que resulta estos casos se utiliza una distribución
de una población infinita. Cuando la po- hipergeométrica (ejemplo 6.4).

Ejemplo 6.4
En una bodega de gimnasio sin luz, hay 10 balones de los cuales 7 son de color negro y 3
de color blanco. De una muestra de 4 balones calcule la posibilidad de sacar 2 de color
negro.

 Paso 1:
Determinar la probabilidad con el modelo hipergeométrico con la siguiente fórmula:

(fórmula 22)

R = éxitos de la población
x = éxitos de la muestra
n = número de la muestra
N = total de la población

N = 10
n=4
R = 7 balones negros
x = 2 balones negros

Reemplazamos en la fórmula 22:

Las posibilidades de sacar 2 balones negros al escoger balones al azar y en la oscuridad


son del 30%.

93
Fernando Maureira Cid
________________________________________________________________________

6.3 DISTRIBUCIONES CONTINUAS más conocida e importante la distribu-


ción normal (Fig. 6.4).
Las variables continuas son aquellas Mediante la utilización de histogra-
que pueden adquirir un número finito de mas y los cálculos de la asimetría y curto-
posibilidades dentro de una escala conti- sis podemos tener una idea de la forma
nua como puntos en una línea. Por ejem- de distribución de nuestros datos (una
plo, el tiempo, la temperatura, la fuerza, simetría y curtosis de cero representan
la velocidad, etc. Estas variables corres- una distribución normal o gaussiana). En
ponden a datos de tipo numérico que las distribuciones normales la media, la
pueden distribuirse en forma normal o mediana y la moda son iguales, con una
en curvas de pequeñas muestras. media 0 y varianza 1.
Recordemos que en una distribu-
ción normal el 68,26% de los datos caen
6.3.1 Distribución normal dentro de la primera desviación estándar
(34,13% en 1S y 34,13 en -1S), el 95,45%
Los datos que recolectamos de la cae dentro de dos desviaciones estándar
muestra poseen una distribución obser- (13,595% entre 1S y 2S y entre -1S y -2S) y el
vable en los histogramas o polígonos de 99,73% cae dentro de tres desviaciones
frecuencia, cuya área bajo la curva repre- estándar (2,14% entre 2S y 3S y entre -2S y
senta el 100% de los casos estudiados o de -2S).
la población. Los datos pueden presentar El teorema del límite central dice
un sinnúmero de distribuciones siendo la que aumentando el número de observa-

Figura 6.4 Una distribución normal es aquella cuya asimetría y curtosis es igual a cero.
Estas distribuciones presentan una forma acampanada. En el esquema se puede observar
el porcentaje de la muestra que se encuentra en el área bajo la curva por cada desviación
estándar, mostrando valores hacia la derecha e izquierda de la curva.

94
Capítulo 6. Distribuciones de probabilidades
________________________________________________________________________

ciones en una muestra que no presenta 6.3.2 Distribución Z


una distribución normal, esta se logra.
Para esto es necesario que el número de Una distribución normal puede ser
observaciones de la muestra sea mayor a estandarizada o tipificada, lo que corres-
30 y en poblaciones muy grandes (infi- ponde a la asignación de un valor Z a
nitas) el número debe ser menor o igual al cada desviación estándar, donde ± 1S es
5% de la población. igual a 1 Z; ± 2S equivale a 2 Z y así
La mayor parte de los fenómenos sucesivamente. Esto se utiliza para deter-
naturales tienden a generar una distribu- minar porcentajes o número de observa-
ción normal siempre que el número de ciones que se encuentran entre diversos
observaciones sea suficientemente gran- intervalos bajo la curva de la distribución
de. (ejemplo 6.5 y 6.6).

Ejemplo 6.5
Un profesor evaluó a la flexibilidad de tronco a 562 estudiantes de enseñanza media,
obteniendo una media de 17,2 cms. y una desviación estándar de 4,28. Ahora desea
conocer cuál es la probabilidad de que un estudiante escogido al azar tenga una
flexibilidad menor o igual a 15 cms.

 Paso 1:
En estos casos es necesario estandarizar los datos mediante una calificación Z que se
obtiene con la fórmula siguiente:

Z = (Xi – ) (fórmula 23)


S
Xi = valor de cada observación
= media de las observaciones
S = desviación estándar

Puntuación Z para 15 = 15 – 17,2 = -2,2 = -0,5


4,28 4,28

 Paso 2:
Buscamos en la tabla de probabilidades de una distribución Z (Anexo 1) y observamos
que para Z= -0,5 el área bajo la curva es 0,3085.

 Paso 3:
Hacemos la suma o resta de áreas para encontrar la posibilidad buscada. En este caso no
es necesario restar el área a 1 (100%) como se observa en la figura 6.5

95
Fernando Maureira Cid
________________________________________________________________________

Figura 6.5 Área bajo la curva de interes para estudiantes con flexibilidad a 5 cms.

Por lo tanto, la probabilidad de que X 5 es de 0,3805 (38,05% .

Ejemplo 6.6
Utilizado los mismos datos del ejemplo 6.5, ahora el profesor desea conocer cuál es la
probabilidad de que un estudiante escogido al azar tenga una flexibilidad mayor o igual
a 20 cms.

 Paso 1:
Puntuación Z para 20 = 20 – 17,2 = 2,8 = 0,7
4,28 4,28

 Paso 2:
Buscamos en la tabla de probabilidades de una distribución Z (Anexo 1) y observamos
que para Z= 0,7 el área bajo la curva es 0,7580.

96
Capítulo 6. Distribuciones de probabilidades
________________________________________________________________________

 Paso 3:
Hacemos la suma o resta de áreas para encontrar la posibilidad buscada. En este caso es
necesario restar el área a 1 (100%) como se observa en la figura 6.6

Figura 6.6 Área bajo la curva de interes para estudiantes con flexibilidad a 20 cms.

Área bajo la curva= 1 – 0,7580 = 0,242

Por lo tanto, la probabilidad de que X 5 es de 0,2 2 (2 ,20% .

6.3.3 Distribuciones con muestras de Student. Esta curva surge de la esti-


pequeñas mación de la media en muestras peque-
ñas, generalmente con menos de 30
Una distribución normal contiene casos, es una distribución simétrica que
una gran cantidad de casos evaluados, posee media 0 y varianza 1, es más acha-
pero puede suceder que la muestra este tada que la normal (mesocúrtica) y adop-
constituida por menos de 30 observacio- ta diferentes formas según los grados de
nes o teniendo un gran número de casos libertad (Fig. 6.7).
no posea una curva normal, situaciones Los grados de libertad son el núme-
en las que resulta necesario utilizar otros ro de valores de una muestra que pode-
tipos de distribuciones para realizar el mos especificar libremente, una vez que
análisis de nuestros datos, siendo las más se conoce la media de la muestra. Para
comunes la curva de distribución t, la explicar lo anterior imaginemos que le
Chi-cuadrado y la curva F. piden escoger dos números que sumen
10, una vez que ha escogido libremente
el primero (un 5 o 7 o 2, etc.) ya no puede
a) La distribución t de Student escoger el segundo, ya que va a existir un
único número que sumado al que esco-
Distribución descrita por William gió sumen 10. Por lo tanto, en esa situa-
Sealy Gosset en 1908 bajo el seudónimo ción se dice que existe 1 grado de liber-

97
Fernando Maureira Cid
________________________________________________________________________

Figura 6.7 Distribución t. La línea continua representa la curva normal de distribución


(más de 30 casos), la línea cortada representa la distribución de una muestra de 15 casos
y la línea de puntos una muestra de 10 casos. Como se puede observar a medida que
aumenta el n de la muestra más se acerca a una curva normal.

tad (la posibilidad de escoger un núme- b) La distribución Chi-cuadrado (X2)


ro).
Ahora, si debe escoger 3 números Se le conoce como distribución chi
que sumen 20, usted puede escoger libre- cuadrado, distribución ji cuadrado o dis-
mente los dos primeros, ya que una vez tribución de Pearson. Corresponde a una
hecho esto solo existe un único tercer nú- curva con un parámetro k que representa
mero que sumado a los dos que usted es- los grados de libertad de una variable.
cogió sumen 20, por lo tanto tiene 2 gra- Su uso es adecuado para muestras de
dos de libertad. Así se continúa depen- menos de 30 casos, siendo una distribu-
diendo de la cantidad de números a ción asimétrica positiva que adopta
escoger. diferentes formas según los grados de
Los grados de libertad (gl) se pue- libertad (Fig. 6.8), por lo tanto, existen
den calcular mediante n – 1, siendo n el infinitas curvas de chi-cuadrado. A
número de la muestra. medida que aumenta el tamaño de la
En una distribución t a medida que muestra esta distribución se vuelve
aumentan los grados de libertad se apro- menos asimétrica acercándose a una
xima a una distribución normal. Su uso es curva normal.
adecuado cuando se desea probar una Cuando la muestra es mayor a 2
hipótesis con un muestreo pequeño (ge- casos, la media de X2 corresponde a n – 1
neralmente menor a 30 casos) y probar si y la varianza a 2(n – 1).
dos muestras provienen de la misma El uso de la curva X2 es adecuado
población. para determinar si una muestra se ajusta

98
Capítulo 6. Distribuciones de probabilidades
________________________________________________________________________

Figura 6.8 Distribución Chi Cuadrada. La línea continua representa una distribución Chi
cuadrada con 1 grado de libertad, la línea cortada con 3 grados de libertad y la línea de
puntos con 6 grados de libertad.

Figura 6.9 Distribución F. La línea continua representa una distribución F con 10 grados
de libertad en el grupo 1 e infinitos grados de libertad en el grupo 2, la línea cortada con
10 grados de libertad en el grupo 1 y 10 grados de libertad en el grupo 2 y la línea de
puntos con 10 grados de libertad en el grupo 1 y 4 grados de libertad en el grupo 2.

a una distribución teórica, para saber si tribución F de Fisher-Snedecor. Corres-


poblaciones son homogéneas y para de- ponde a una distribución para dos mues-
terminar la dependencia de variables. tras aleatorias independientes de tamaño
n1 y n2 que poseen una distribución Chi-
cuadrado. Este tipo de distribución es
c) La distribución F de Fisher
asimétrica positiva y adopta diferentes
Se le conoce como distribución F de formas según los grados de libertad (Fig.
Fisher, distribución F de Snedecor o dis- 6.9)

99
Fernando Maureira Cid
________________________________________________________________________

Esta curva surge de la necesidad de A medida que aumentan los grados


comparar las varianzas de dos poblacio- de libertad de ambas muestras m y n la
nes, por lo cual se define como el cocien- distribución F de Fisher se vuelve menos
te de dos variables X2 independientes ca- asimétrica acercándose a una distribu-
da una dividida por su grados de liber- ción normal.
tad.

Chi-cuadrado: https://es.slideshare.net/sevilla_carlos2004/distribucion-de-chi-cuadrado

100
Capítulo 6. Distribuciones de probabilidades
________________________________________________________________________

101
Fernando Maureira Cid
________________________________________________________________________

102
Capítulo 7. Estadística inferencial: aspectos básicos
________________________________________________________________________

________________________________________________________________________

7.1 CONCEPTOS BÁSICOS EN  La interpretación de un análisis


ESTADÍSTICA INFERENCIAL estadístico inferencial se basa en la
aceptación o rechazo de la hipótesis
7.1.1 Nivel de significancia nula (H0) de nuestra investigación.

El nivel de significancia o valor p Al representar el nivel de signifi-


tiene que ver con la probabilidad de que cancia bajo la curva normal (p=0,05) se
un evento ocurra y se mide entre 0 y 1, produce un área de aceptación de la H0 y
siendo 0 la imposibilidad absoluta que un área de rechazo de ella (Fig. 7.1). Si
dicho evento ocurra y 1 la certeza abso- nuestro resultado cae dentro de la prime-
luta que ocurra. Como vimos en el capí- ra (p>0,05) debemos aceptar igualdad en
tulo 6, la probabilidad que salga un los resultados y si cae en la segunda área
número determinado en el lanzamiento (p<0,05) debemos aceptar que lo resulta-
de un dado es de 0,16666 (16,666%). dos son distintos estadísticamente.
Cuando un investigador desea esti- Aquí es importante destacar la exis-
mar los parámetros poblacionales desde tencia de hipótesis de una cola y de dos
los estadísticos de la muestra debe preo- colas. La primera se relaciona con hipó-
cuparse de que ambos valores sean cerca- tesis en las que se puede anticipar cual
nos (por ejemplo la media de la muestra y grupo posee una desviación mayor res-
la población), ya que si esto es así, resulta pecto a otro. Una hipótesis de dos colas
posible generalizar los resultados hacia la es aquella donde no es posible anticipar
población, de lo contrario es necesario la dirección de diferencias entre grupos.
dudar de la generalización de dichos va- Por ejemplo, un investigador quiere
lores. conocer si existen diferencias en los
En este ámbito, el nivel de signifi- hábitos de estudio de los alumnos de
cancia (nivel α es la probabilidad de educación física de una universidad,
equivocarse al generalizar los resultados según el sexo de la muestra y para ello
de la muestra hacia la población. Los plantea las siguientes hipótesis:
niveles α más utilizados en ciencias socia-
Hipótesis nula (H0): 1 = 2

les son 0,05 (95% de probabilidades de
acierto y 5% de probabilidad de error) y Hipótesis investigación (H1): 1 2

0,01 (99% de acierto y 1% de error).


También es posible utilizar niveles En caso que se rechace la H0 no es
α más pequeños (0,001 ó 0,0001). posible predecir cual grupo presentará

103
Fernando Maureira Cid
________________________________________________________________________

Figura 7.1 Áreas bajo la curva normal de aceptación y rechazo de la hipótesis nula. En la
imagen izquierda se observa un área para hipótesis de dos colas y en la imagen derecha
para hipótesis de una cola.

mayor puntuación en la encuesta de hábi- del área bajo la curva (área de aceptación
tos de estudio, por lo tanto, esta hipótesis de la hipótesis nula) se valora en térmi-
es de dos colas. nos de 1,64 desviaciones estándar en
En otro ejemplo, el mismo investíga- sentido positivo o negativo (α=0,05). Un
dor quiere conocer si existen diferencias 98% del área bajo la curva se valora en
en los niveles de fuerza de los estudiantes 2,32 desviaciones estándar (α=0,01) y el
de educación física de una universidad, 99,9% área bajo la curva se valora en 3,70
según el sexo de la muestra y para ello desviaciones estándar (α=0,00 .
plantea las siguientes hipótesis:

H0: 1 = 2 7.1.2 Métodos de inferencia estadística


H1: 1 > 2

La estadística inferencial nos permi-


En caso que se rechace la hipótesis te hacer afirmaciones sobre más elemen-
nula es posible predecir que el grupo de tos de los que vamos a medir, existiendo
varones ( 1) presentará niveles mayores dos métodos de inferencia: la estimación
de fuerza que las damas, por lo tanto, esta (donde proponemos aproximaciones de
hipótesis es de una cola. los valores de los parámetros de la pobla-
Para una prueba de dos colas el 95% ción) y el contraste de hipótesis (donde
del área bajo la curva (área de aceptación establecemos una hipótesis respecto al
de la hipótesis nula) se valora en términos valor de un parámetro de la población y
de puntajes Z a 1,96 desviaciones están- se evalúa con la información obtenida de
dar (α=0,05 . Un 8% del área bajo la la muestra).
curva se valora en 2,58 desviaciones La estimación pretende determinar
estándar (α=0,01) y el 99,9% área bajo la parámetros en base a estadísticos, es
curva se valora en 3,90 desviaciones decir, conocer los valores de una carac-
estándar (α=0,00 . terística de la población en base a unos
Para una prueba de una cola el 95% pocos sujetos extraídos de ella (muestra)

104
Capítulo 7. Estadística inferencial: aspectos básicos
________________________________________________________________________

Figura 7.2 Métodos para realizar inferencias estadisticas.

y a los cuales medimos. Por ejemplo, he- insesgado si su valor esperado coin-
mos determinado la media y la desvia- cide con el parámetro a estimar. Por
ción estándar de la velocidad en una ca- ejemplo, la media de una muestra
rrera de 100 mts. planos de una muestra aleatoria es un estimador insesgado
aleatoria de 360 estudiantes de segundo de la media de la población, ya que
año medio y ahora queremos conocer el valor esperado de la media mues-
esos mismos valores de la población de tral coincide con el valor de la media
2.500 estudiantes de segundo medio de poblacional.
donde se extrajo la muestra. Para esto  Consistencia: Un estimador será
necesitamos realizar una estimación de la consistente si a medida que aumenta
media y la desviación estándar de la el tamaño de la muestra, el valor del
población. estimador se aproxima al valor del
La estimación de parámetros se di- parámetro de la población.
vide en estimaciones puntuales y estima-  Eficiencia: Un estimador es más
ciones por intervalos. eficiente (preciso) que otro si presen-
ta una varianza menor.
 Suficiencia: Un estimador será sufi-
Estimaciones puntuales ciente si resume toda la información
relevante contenida en la muestra, de
Tratan de asignar un solo valor lo manera que ningún otro estimador
más cercano posible al valor del pueda entregar información adicio-
parámetro de la población. Estas estima- nal sobre el parámetro.
ciones requieren de un estimador que no
es otra cosa que un estadístico que per- Para obtener un estimador puntual
mite conocer características de la pobla- se selecciona una muestra que permita
ción. minimizar el error de la diferencia del
Para cada parámetro pueden existir parámetro y el estadístico (esto se logra
varios estimadores y la forma de seleccio- con el muestreo adecuado, situación que
nar el correcto es en base a cuatro propie- se analizó en el capítulo 5). Luego se
dades: calcula el estadístico muestral y se utiliza
como estimación del parámetro verifi-
 Carencia de sesgo: Un estimador será cando las cuatro propiedades menciona-

105
Fernando Maureira Cid
________________________________________________________________________

das anteriormente. Por ejemplo, un inves- guntan por la población, aunque solo
tigador desea conocer la edad promedio contemos con los estadísticos de la
de egreso de los estudiantes de la carrera muestra.
de educación física de una Universidad Una vez determinado el nivel de
de Santiago y para ello selecciona una confianza (95%, 99%, etc.) procedemos a
muestra de 50 estudiantes. El valor de la refutar la hipótesis nula si el estadístico
media de la muestra será un estimador cae en la región de rechazo y la admiti-
puntual de la media de la población de mos cierta si cae en la región de acepta-
egresados. ción.
Cuando se toma una decisión
estadística hay que tener cuidado de no
Estimaciones por intervalos cometer los errores tipo I y tipo II.
El error tipo I también llamado
Es una forma de establecer dos error alfa (α se comete cuando un
valores entre los cuales se encuentra el investigador no acepta la hipótesis nula
parámetro que deseamos conocer con una siendo esta verdadera, es decir, se
confianza de 1 – α. Esto ayuda en la concluye que existe una diferencia entre
precisión y confiabilidad del estimador grupos, existe relación entre ellos o existe
puntual. A este intervalo se le denomina diferencia entre la muestra y la pobla-
intervalo de confianza. Por ejemplo, una ción, cuando en realidad no existe.
media poblacional nunca será conocida, El error tipo II también llamado
pero con la información de la muestra error beta (β es el error que se comete
podemos determinar dos valores entre los cuando un investigador no rechaza la
cuales se incluirá la verdadera media hipótesis nula siendo esta falsa, es decir,
poblacional con una confianza del 95% se concluye que no existe diferencia entre
(esto se verá en detalle más adelante en grupos, no existe relación entre ellos o no
este capítulo). existe diferencia entre la muestra y la
población, cuando en realidad si existe.
La potencia de un contraste es la
Contraste de hipótesis probabilidad de rechazar una hipótesis
nula cuando esta es incorrecta. Esto se
Es el proceso de decisión donde puede definir como 1 – β. Cuanto mayor
contrastamos o comparamos la hipótesis es la varianza de la población menor es la
nula con los datos empíricos y determi- potencia y cuanto mayor sea el tamaño
namos si es o no compatible con ellos. de la muestra mayor es la potencia del
Recuerde que las hipótesis siempre pre- contraste.

Decisión H0 correcta H0 incorrecta


No rechazar H0 No hay error (1 – α Error tipo II (β
Rechazar H0 Error tipo I (α No hay error (1 – β

Figura 7.3 Error tipo I y tipo II.

106
Capítulo 7. Estadística inferencial: aspectos básicos
________________________________________________________________________

El error tipo I y tipo II no se pueden 7.2 INTERVALOS DE CONFIANZA


cometer simultáneamente, ya que el pri-
mero solo puede ocurrir si H0 es correcta En muchas investigaciones es nece-
y el segundo si H0 es incorrecta. Si la pro- sario construir intervalos de confianza
babilidad del error tipo I aumenta, la (IC) para establecer valores entre los cua-
probabilidad del error tipo II disminuye. les se encuentra la media poblacional.
Para reducir la probabilidad de cometer Para ello es necesario conocer el error
un error tipo I es necesario aumentar el estándar de la media, que corresponde a
nivel de confianza, por lo menos debe ser la diferencia entre la media de la muestra
de un 0,05. Por su parte, para disminuir la y la población. Los análisis para deter-
probabilidad de cometer un error tipo II minar este error dependen si conocemos
es necesario aumentar el tamaño de la o desconocemos la desviación estándar
muestra. de dicha población (ejemplo 7.1 al 7.3).

Ejemplo 7.1
Un investigador evaluó la fuerza de 252 adultos mayores de entre 65 y 75 años de
diversos centros y fundaciones de Santiago, obteniendo una media de 35,8 y una
desviación estándar de 7,36. Ahora se desea conocer cuál será error estándar de la
media. La población presenta una variación de 8,5 puntos.

 Paso 1:
Si conocemos las desviación estándar de la población, el error estándar de la media (e.e.)
se obtiene con la siguiente fórmula:

e.e.= σ . (fórmula 24)


√n
σ = desviación estándar de la población
√n = raíz cuadrada del número de datos

 Paso 2:
Calcular la desviación estándar de la población:

σ = √8,5 = 2, 5

 Paso 3
Calcular el error estándar de la media con la fórmula 24:

e.e. = 2,915 = 2,915 = 0,184


√252 5,8

Con esto el investigador puede concluir que el error estándar de la media es de 0,184.

107
Fernando Maureira Cid
________________________________________________________________________

Ejemplo 7.2
Un investigador evaluó la agilidad de 52 estudiantes de tercer año básico de 2 colegios
de Santiago, obteniendo una media de 6,50 y una desviación estándar de 2,14. Ahora se
desea conocer cuál será la diferencia de la media de la muestra y de la población.

 Paso 1:
Si desconocemos las desviación estándar de la población, el error estándar de la media
(e.e.) se obtiene con la siguiente fórmula:

(fórmula 25) e.e.= S .


√n
S = desviación estándar de la muestra
√n = raíz cuadrada del número de datos

Ahora reemplazamos en la fórmula 25:

e.e.= 2,14 = 2,14 = 0,296


√52 ,2

Con esto el investigador puede concluir que el error estándar de la media es de 0,296.

Ejemplo 7.3
Un entrenador de fútbol evaluó los tiros al arco realizado por sus 3 jugadores delanteros
durante los partidos de la liga nacional, obteniendo una media de 9,5 lanzamientos por
partido. En el torneo existe una media de 12,1 lanzamientos por partido con una
desviación estándar de 2,8. Ahora se desea conocer si existen diferencias entre los
resultados obtenidos por el equipo en relación con la media nacional. Para ello se
establecen las hipótesis:

H0 = =

1 2

H1 = 1 2

 Paso 1:
Para establecer si existe diferencia entre la media muestral y la poblacional, es necesario
utilizar las puntuación Z que se obtiene con la siguiente fórmula:

Z= ( - µ). (fórmula 26)


e.e.
= media de la muestra
µ = media de la población
e.e.= error estándar de la media (fórmula 24 o 25 según corresponda)
.

108
Capítulo 7. Estadística inferencial: aspectos básicos
________________________________________________________________________

Ahora reemplazamos en la fórmula 26:

Z= 9,5 – 12,1 = -2,6 = -1,605


2,8 / √3 1,62

De lo anterior el entrenador puede concluir que siendo -1,605 menor a -1,96 (una
desviación Z) se debe aceptar la H0 de igualdad y por lo tanto, no existen diferencias
significativas entre el rendimiento de tiros al arco de los 3 delanteros del equipo y la
media nacional.

Una vez que hemos determinado el estas operaciones varían según un hecho
error estándar de la media, podemos cal- específico: la desviación estándar (S) de
cular los IC y realizar el contraste de hi- la población es conocida (ejemplo 7.4) o
pótesis entre la media muestral y la po- es desconocida (ejemplo 7.5). De igual
blacional. En este punto es importante forma es posible establecer IC para pro-
aclarar que los cálculos necesarios para porciones (ejemplo 7.6).

Ejemplo 7.4
Un investigador desea estimar los intervalos de confianza al extrapolar la media de su
muestra aleatoria a los de la población y para ello evaluó la flexibilidad a 108 niños de
cuarto año básico de tres colegio de Santiago obteniendo una media de 15,7 cm. y una
desviación estándar muestral de 3,29. Según los registros la población de estudiantes de
esos cursos posee una desviación estándar de 5,89. El investigador determinó un nivel
de confianza de 0,05 (por ende un valor Z= 1,96).

Datos:
= 15,7 S = 3,29 σ = 2,89
e.e. = 2,89 / √108 = 0,278

 Paso 1:
Calcular los IC para una población con desviación estándar conocida con la siguiente
fórmula:

IC= ± (Z * e.e.) (fórmula 27)

= media de la muestra
± = más para el IC superior y menos para el IC inferior
Z = nivel de confianza
e.e.= error estándar de la media (fórmula 24)
.

109
Fernando Maureira Cid
________________________________________________________________________

Determinamos los intervalos de confianza utilizando la fórmula 27:

ICi = 15,7 – (1,96 * 0,278) = 15,7 – 0,545 = 15,155


ICs = 15,7 + (1,96 * 0,278) = 15,7 + 0,545 = 16,245

Por lo tanto: 15,155 < µ < ,2 5


Esto significa que el intervalo de confianza 15,155 a 16,245 contiene la media de la
flexibilidad de la población con una confianza del 95%.

 Paso 2:
Siguiendo con el ejemplo 7.4, se sabe que la media de la población es de 16,4 entonces el
investigador se pregunta ¿los estudiantes de la muestra tendrán una media de
flexibilidad menor que la población?

Datos:
= 15,7 S = 3,29 µ = 16,4
σ = 2,89 e.e. = 0,278

H0 = =
1 ≠
1 2

H1 = 2

Realizamos el contraste de hipótesis para la media de una población con desviación


estándar conocida con la fórmula 25:

Z = (15,7 – 16,4) = -0,7 = -2,518


0,278 0,278

De lo anterior el investigador puede concluir que siendo -2,518 mayor a -1,96 (una
desviación Z) se debe rechazar la H0 de igualdad y por lo tanto, existen diferencias
significativas entre la flexibilidad de los estudiantes evaluados y la flexibilidad media
poblacional.

Ejemplo 7.5
Un profesor evaluó la ejecución de la voltereta adelante en 18 niños de quinto año
básico de un colegio de Santiago. La media de la evaluación fue de 3,17 y una
desviación estándar de 1,21. Ahora se desea establecer los intervalos de confianza de la
media de la población (a un nivel de 0,05).

Datos:
= 3,17 S = 1,21
Grados de libertad (gl) = 18 – 1 = 17
e.e. = 1,21 / √ 8 = 0,285

110
Capítulo 7. Estadística inferencial: aspectos básicos
________________________________________________________________________

 Paso 1:
Calcular los IC para una población con desviación estándar desconocida con la
siguiente fórmula:

IC= ± (t * e.e.) (fórmula 28)

= media de la muestra
± = más para el IC superior y menos para el IC inferior
t = valor t
e.e.= error estándar de la media (fórmula 25)
.
El valor t se obtiene de una tabla t student (Anexo 2) donde es necesario ubicar el valor
de significancia a utilizar y los grados de libertad de la muestra, el valor de intersección
corresponde al valor t en la fórmula. Por ejemplo, para 7 gl y un nivel de confianza de
0,05 el valor es de 1,89.

Ahora determinamos los intervalos de confianza utilizando la fórmula 28:

ICi = 3,17 – (1,89 * 0,285) = 3,17 – 0,539 = 2,631


ICs = 3,17 + (1,89 * 0,285) = 3,17 + 0,539 = 3,709

Por lo tanto: 2, 3 < µ < 3, 0

Esto significa que el intervalo de confianza 2,631 a 3,709 contiene la media de la


ejecución de la voltereta de la población con una confianza del 95%.

 Paso 2:
Siguiendo con el ejemplo 7.5, se sabe que la media de la población es de 2,31 entonces el
investigador se pregunta ¿los estudiantes de la muestra tendrán una media en la
ejecución de la voltereta mayor que la población?

111
Fernando Maureira Cid
________________________________________________________________________

Datos:
= 3,17 S = 2,21 µ = 2,31
e.e. = 0,285 t = 2,11

H0 = =
1 ≠
1 2

H1 = 2

Realizamos el contraste de hipótesis para la media de una población con desviación


estándar desconocida con la fórmula 26:

Z = (3,17 – 2,31) = 0,86 = 3,018


0,285 0,285

De lo anterior el investigador puede concluir que siendo 3,018 mayor a 1,96 (una
desviación Z) se debe rechazar la H0 de igualdad y por lo tanto, existen diferencias
significativas entre la puntuación de la ejecución de la voltereta en la muestra y la
población.

Ejemplo 7.6
Un investigador desea conocer los intervalos de confianza de la proporción de niños con
obesidad a partir de su muestra aleatoria de 357 estudiantes de primer año de
enseñanza básica de diversos colegios de la ciudad de Santiago. El porcentaje de obesos
de la muestra fue del 20,5% (0,205) y el nivel de confianza determinado fue de 0,05 (Z =
1,96).

Datos:
p = 20,5% = 0,205
n = 357

 Paso 1:
Calcular los IC para proporciones con la siguiente fórmula:

(fórmula 29)

p = valor de la proporción expresada en números enteros (0,18; 0,25, etc.)


± = más para el IC superior y menos para el IC inferior
Z = nivel de confianza expresada en desviaciones estándar
n = número de datos
..
Ahora determinamos los intervalos de confianza utilizando la fórmula 29:

112
Capítulo 7. Estadística inferencial: aspectos básicos
________________________________________________________________________

Por lo tanto: 0, < µ < 0,2

Esto significa que el intervalo de confianza 0,164 (16,4%) a 0,246 (24,6%) contiene el
porcentaje de obesidad de la población con una confianza del 95%.

 Paso 2:
Siguiendo con el ejemplo 7.6, se sabe que el porcentaje de obesidad de la población es de
24,0% entonces el investigador se pregunta ¿los estudiantes de la muestra tendrán un
porcentaje menor de obesidad que la población?

Datos:
p = 20,5% = 0,205
P = 24,8% = 0,248
n = 357

H0 = p = P
H1 = p ≠ P

Realizar el contraste de hipótesis para proporciones con la siguiente fórmula:

(fórmula 30)

p = valor de la proporción expresada en números enteros (0,18; 0,25, etc.)


P = proporción de la población
n = número de datos
.
Ahora realizamos el contraste de hipótesis utilizando la fórmula 30:

113
Fernando Maureira Cid
________________________________________________________________________

De lo anterior el investigador puede concluir que siendo -1,89 menor a -1,96 (una
desviación Z) se debe aceptar la H0 de igualdad y por lo tanto, no existen diferencias
significativas entre la proporción de obsesos de la muestra y de la población.

114
Capítulo 8. Normalidad de los datos
________________________________________________________________________

________________________________________________________________________

Recordemos que la estadística infe- 8.1 PRUEBA KS DE NORMALIDAD


rencial univariada puede dividirse en
estadística paramétrica y no paramétrica, Antes de comenzar los análisis
dependiendo de las características de dis- paramétricos debemos constatar que se
tribución y naturaleza de los datos. La cumplen los supuestos mencionados
elección de una y otra resulta fundamen- anteriormente. El primer supuesto es po-
tal para nuestro trabajo de investigación, sible de confirmar con análisis estadís-
ya que la aplicación de análisis inadecua- ticos, en tanto, el segundo se logra sim-
dos conllevará a errores en nuestras con- plemente confirmando el nivel de medi-
clusiones. da de los datos que tenemos.
Los análisis paramétricos para una Como en los análisis de una pobla-
población siempre necesitan cumplir con ción no existe comparación entre grupos
dos supuestos para su aplicación y es no debemos confirmar la homocedastici-
obligación del investigador confirmar que dad, pero si es necesario determinar si
estas dos características se cumplan: los datos poseen una distribución normal


y para ello utilizamos el estadístico de
La variable dependiente debe pre- Kolmogorov-Smirnov (prueba KS), el
sentar una distribución normal.

cual permite contrastar la hipótesis que
La variable dependiente debe ser la distribución teórica es igual a la distri-
numérica (intervalar o de razón). bución observada (Ejemplo 8.1).

Ejemplo 8.1
Un profesor evaluó la agilidad de 35 estudiantes de tercer año medio de un colegio de
Santiago. Ahora quiere saber si estos datos poseen una distribución normal.

Consideraciones:
 Variable: agilidad
 1 grupo: 35 estudiantes
 H0 = No existen diferencias estadísticamente significativas entre la distribución
teórica y la distribución observada.

En la tabla a continuación se observan los puntajes del test, la frecuencia relativa


(número de sujetos que obtuvieron dicho puntaje) y acumulada con la cantidad de
niños que obtuvieron dicho puntaje:

115
Fernando Maureira Cid
________________________________________________________________________

 Paso 1:
Cada frecuencia acumulada se divide por la frecuencia acumulada total (en este caso 35)
para obtener la frecuencia observada (fo).

 Paso 2:
La frecuencia acumulada total (en este caso 35) se divide por la cantidad de categorías
(en este caso 10) para obtener la frecuencia relativa teórica (frt).

..

116
Capítulo 8. Normalidad de los datos
________________________________________________________________________

 Paso 3:
La frecuencia acumulada teórica (fat) se obtiene con la suma de una categoría más las
anteriores de la frecuencia relativa teórica.

 Paso 4:
Ahora cada fat se divide por la frecuencia acumulada total (en este caso 35) para obtener
la frecuencia teórica (ft).

 Paso 5:
Finalmente a cada frecuencia observada (fo) se le resta la frecuencia teórica (ft) y así
obtenemos cada valor de diferencia (D).

117
Fernando Maureira Cid
________________________________________________________________________

 Paso 6
La diferencia máxima (Dmáx) corresponde al valor KS (en este caso es de -0,157). Ahora
el investigador debe contrastar el valor KS obtenido (sin importar su signo positivo o
negativo) con los valores críticos de D (Anexo 3) según el nivel de confianza escogido.
Para el ejemplo, con 0,05 y 35 datos tenemos un valor KS de 0,22425.

Ahora debemos seguir la siguiente regla de decisión:

 Si el valor D obtenido es menor o igual al valor D de la tabla se debe aceptar la


H 0.
 Si el valor D obtenido es mayor al valor D de la tabla se debe rechazar la H0.

Como KS = 0,157 < 0,22425 debemos aceptar H0 que plantea una distribución teórica
igual a la observada, es decir, los datos poseen una distribución normal.

8.2 PRUEBA DE NORMALIDAD DE pótesis que la distribución teórica (Xt) es


SHAPIRO-WILK igual a la distribución observada (Xo):

La prueba de Shapiro-Wilks corres- H1 = Xt ≠ Xo


ponde a una prueba de bondad de ajuste, H0 = Xt = Xo
igual que la prueba KS, que suele utili-
zarse cuando el número de la muestra es Los detalles del cálculo de la prueba
pequeño (menor a 50 casos). de Shapiro-Wilks se muestran en el ejem-
Esta prueba permite contrastar la hi- plo 8.2.

Ejemplo 8.2
Un profesor evaluó la coordinación de 11 estudiantes de tercer año básico de un colegio
de Santiago. Ahora quiere saber si estos datos poseen una distribución normal.

118
Capítulo 8. Normalidad de los datos
________________________________________________________________________

Consideraciones:
 Variable: coordinación
 1 grupo: 11 estudiantes
 H0 = No existen diferencias estadísticamente significativas entre la distribución
teórica y la distribución observada.

En la tabla a continuación se observan los puntajes del test ordenados de menor a


mayor:

Para el cálculo de la prueba de Shapiro-Wilk se utiliza la siguiente fórmula:

W = [∑ain [X(n-1+1) – Xi] ]2 (fórmula 31)


∑(Xi – )2

ain = valor específico para cada tamaño de la muestra


X(n-1+1) – Xi = diferencias al restar el primer valor al último, el segundo al penúltimo, etc.
Xi = valor de una medición
= media de los datos

 Paso 1:
Calcular el X(n-1+1) – Xi :

 Paso 2:
Calcular ain [X(n-1+1) – Xi] obteniendo el valor ain del anexo 4 según N de la muestra.

119
Fernando Maureira Cid
________________________________________________________________________

 Paso 3:
Calcular ∑(Xi – )2

 Paso 3:
Reemplazamos en la fórmula 30:

W= 8,4992 = 72,233 = 0,948


76,182 76,182

Ahora el investigador debe contrastar el valor W obtenido con los valores críticos de W
(Anexo 5) según el nivel de confianza escogido. Para el ejemplo, con 0,05 y 11 datos
tenemos un valor W de 0,850.

120
Capítulo 8. Normalidad de los datos
________________________________________________________________________

Ahora debemos seguir la siguiente regla de decisión:

 Si el valor W obtenido es menor o igual al valor W de la tabla se debe aceptar la


H 0.
 Si el valor W obtenido es mayor al valor W de la tabla se debe rechazar la H0.

Como W = 0,948 > 0,850 debemos rechazar H0 que plantea una distribución teórica igual
a la observada, es decir, los datos no poseen una distribución normal.

8.3 PRUEBA KS DE NORMALIDAD


EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Pruebas no paramétricas
 Cuadro de dialogo antiguo
 KS de una muestra

Cuando aparece el cuadro de la figura 8.2 observamos que en el rectángulo de la


izquierda aparece la lista de nuestras variables. Tomamos la variable que deseamos
analizar y la llevamos al cuadro derecho (lista prueba de variables).

Por defecto aparece marcada la opción normal en el cuadro prueba de distribución.


Luego presionamos Aceptar.

121
Fernando Maureira Cid
________________________________________________________________________

Figura 8.1 Prueba KS en el menú del SPSS 22.0.

Figura 8.2 Pantalla de prueba KS en el SPSS 22.0.

El programa nos entrega una tabla como la figura 8.1, donde se observa el número de
sujetos, la media y desviación estándar de los datos, las diferencias más extremas al
comparar las frecuencias teóricas y las frecuencias observadas, un valor Z de la prueba
de normalidad de Kolmogorov-Smirnov y la Sig. o valor p de la prueba KS.

Ahora el investigador debe contrastar el valor Z calculado con el valor crítico de Z


(Anexo 3) obteniendo: 0,911 < 1,96
También debe contrastar el valor p calculado (p=0,377) siendo p>0,05 se debe aceptar la
hipótesis nula que plantea que la variable posee una distribución normal.

122
Capítulo 8. Normalidad de los datos
________________________________________________________________________

Tabla 8.1 Prueba de Kolmogorov-Smirnov para una muestra en el SPSS 22.0.

8.5 PRUEBA DE NORMALIDAD DE


SHAPIRO-WILK EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Frecuencia
 Explorar

Figura 8.3 Prueba de Shapiro-Wilk en el menú del SPSS 22.0.

123
Fernando Maureira Cid
________________________________________________________________________

Cuando aparece el cuadro de la figura 8.4 observamos que en el rectángulo de la


izquierda aparece la lista de nuestras variables. Tomamos la variable que deseamos
analizar y la llevamos al cuadro derecho (lista de dependientes). Luego presionamos la
opción Gráficos y aparece una pantalla como la figura 85.

Figura 8.4 Pantalla de explorar en el SPSS 22.0.

Figura 8.5 Pantalla de explorar: gráficos en el SPSS 22.0.

En la figura 8.5 marcamos gráficos de prueba de normalidad. Luego presionamos


Continuar. Al volver a la pantalla de Explorar presionamos Aceptar.

El programa nos entrega varias tablas, pero las que nos interesa es la tabla 8.2, donde se
observa la prueba de Kolmogorv-Smirnov con la corrección de Lilliefors, la cual se suele
utilizar debido a que la prueba KS por sí sola resulta ser muy conservadora.

124
Capítulo 8. Normalidad de los datos
________________________________________________________________________

Tabla 8.2 Prueba de normalidad.

También se observa la prueba de Shapiro-Wilk que entrega el valor W, los grados de


libertad y el valor p o sig.
Ahora el investigador debe contrastar el valor W calculado con el valor crítico de W
(Anexo 5) obteniendo: 0,945 > 0,892
También debe contrastar el valor p calculado (p=0,000) siendo p<0,05 se debe rechazar la
hipótesis nula que plantea que la variable posee una distribución normal.

El programa también nos entrega el grafico Q-Q de la figura 8.6

Figura 8.6 Gráfico Q-Q de normalidad de datos.

En la figura 8.6 muestra cada valor observado y lo compara con cada valor esperado
(distribución normal). Si ambos valores coinciden se encontraran en una línea recta.
Si el ajuste de los datos no es buena entonces los puntos pueden adquirir diferentes
distribuciones (Figura 8.7).

125
Fernando Maureira Cid
________________________________________________________________________

Figura 8.7 Diferentes distribuciones en gráfico Q-Q de normalidad de datos. La figura A


representa una distribución asimétrica derecha, la figura B una asimétrica izquierda, la
figura C una distribución leptocúrtica y la figura D una platicúrtica.

126
Capítulo 9. Homogeneidad de varianzas
________________________________________________________________________

________________________________________________________________________

9.1 PRUEBAS DE COCHRAN, Esta situación se refiere a la existen-


HARTLEY Y BARTLETT cia de varianzas semejantes entre dife-
rentes grupos. Cuando deseamos com-
La constatación de la distribución parar las medias de dos grupos debemos
normal de los datos de una variable de- calcular el valor F entre la relación de la
pendiente observada, nos permite la varianza de mayor y menor tamaño de
utilización de análisis paramétricos para los dos grupos (ejemplo 9.1). Por su par-
la contrastación de hipótesis. En el caso te, cuando comparamos tres o más gru-
que necesitemos comparar la media de pos de igual tamaño se utiliza la prueba
dos grupos (por ejemplo, la flexibilidad de Cochran o la prueba de Hartley
entre hombres y mujeres) primero debe- (ejemplo 9.2) y cuando comparamos tres
mos verificar que se cumpla la homoge- o más grupos de diferente tamaño
neidad u homocedasticidad de varianzas utilizamos la prueba de Bartlett (ejemplo
entre los dos grupos. 9.3)

Ejemplo 9.1
Un investigador evalúo las estrategias de aprendizaje de los alumnos de 2 cursos,
obteniendo una media de 3,16 (S=0,97) con los puntajes de los 32 estudiantes del curso A
y una media de 3,74 (S=1,11) con los puntajes de los 35 estudiantes del curso B. Ahora se
desea saber si existe diferencia entre las varianzas de los grupos.

Consideraciones:
 Variable: estrategias de aprendizaje
 2 grupos: curso A y curso B
 H0 = No existen diferencias estadísticamente significativas entre las varianzas del
curso A y B.

 Paso 1:
Calcular la varianzas de los grupos A y B:

Grupo A: La desviación estándar = 0,97 por lo tanto, la varianza = 0,972 = 0,941


Grupo B: La desviación estándar = 1,11 por lo tanto, la varianza = 1,112 = 1,232

127
Fernando Maureira Cid
________________________________________________________________________

 Paso 2:
Calcular el valor F con la siguiente fórmula:

(fórmula 32) F = S21


S22
S21 = varianza mayor de los dos grupos
S22 = varianza menor de los dos grupos

Reemplazamos en la fórmula 32:

F = 1,232 = 1,309
0,941

 Paso 3:
Ahora el investigador debe contrastar el valor F obtenido con los valores críticos de F
(Anexo 6) según el nivel de confianza escogido y los grados de libertad (n – 1) de cada
grupo. Para el ejemplo, con 0,05 y gl1=31 y gl2=34 tenemos un valor F de 1,841.

Ahora debemos seguir la siguiente regla de decisión:

 Si el valor F obtenido es menor o igual al valor F de la tabla se debe aceptar la


H 0.
 Si el valor F obtenido es mayor al valor F de la tabla se debe rechazar la H0.

Como el valor F =1,309 < 1,841 debemos aceptar H0 que plantea la igualdad de varianza
entre los dos grupos.

128
Capítulo 9. Homogeneidad de varianzas
________________________________________________________________________

Ejemplo 9.2
Un profesor evalúo la capacidad de aciertos en lanzamientos a la canasta en básquetbol
en estudiantes de enseñanza media de un colegio. Cada curso estuvo constituido por 40
alumnos. El primer año obtuvo una media de 15,7 (S=2,45), segundo año 14,8 (S=1,95),
tercer año 17,2 (S=3,80) y cuarto año 16,4 (S=2,96). Ahora se desea saber si las varianzas
de los cuatro grupos son iguales.

PRUEBA DE COCHRAN

Consideraciones:
 Variable: aciertos en lanzamientos en básquetbol
 4 grupos: 1°, 2°, 3° y 4° año
 H0 = No existen diferencias estadísticamente significativas entre las varianzas de los
cuatro cursos.

 Paso 1:
Calcular la varianzas de los grupos:

Grupo 1: La desviación estándar = 2,45 por lo tanto, la varianza = 2,452 = 6,00


Grupo 2: La desviación estándar = 1,95 por lo tanto, la varianza = 1,952 = 3,80
Grupo 3: La desviación estándar = 3,80 por lo tanto, la varianza = 3,802 = 14,44
Grupo 4: La desviación estándar = 2,96 por lo tanto la varianza = 2,962 = 8,76

 Paso 2:
Calcular el valor R de Cochran con la siguiente fórmula:

R = S2máx (fórmula 33)


∑S2

S2máx = varianza mayor de entre los grupos


∑S2 = suma de las varianzas de todos los grupos

Reemplazamos en la fórmula 33:

R= 14,44 = 14,44 = 0,438


6,00 + 3,80 + 14,44 + 8,76 33

 Paso 3:
Ahora el profesor debe contrastar el valor R obtenido con los valores críticos de R
(Anexo 7) según el nivel de confianza escogido y los valores correspondientes al núme-

129
Fernando Maureira Cid
________________________________________________________________________

ro de muestra y número de grupos. Para el ejemplo, con 0,05 y N°1=40 y N°2=4 tenemos
un valor R de 0,3720.

Ahora debemos seguir la siguiente regla de decisión:

 Si el valor R obtenido es menor al valor R de la tabla se debe aceptar la H0.


 Si el valor R obtenido es igual o mayor al valor R de la tabla se debe rechazar la
H 0.

Como el valor R = 0,437 > 0,3720 debemos rechazar H0 que plantea la igualdad de
varianza entre los cuatro grupos.

PRUEBA DE HARTLEY

 Paso 1:
Para el mismo ejemplo 8, calculamos el valor F de Hartley con la siguiente fórmula:

(fórmula 34) Fmáx = S2máx


S2min
S2máx = varianza mayor de entre los grupos
S2min = varianza menor de entre los grupos
.
Reemplazamos en la fórmula 34:

Fmáx = 14,44 = 3,8


3,80

130
Capítulo 9. Homogeneidad de varianzas
________________________________________________________________________

 Paso 2:
Ahora el profesor debe contrastar el valor F obtenido con los valores críticos de F
(Anexo 6) según el nivel de confianza escogido y los valores correspondientes al
número de muestra y número de grupos. Para el ejemplo, con 0,05 y N°1=40 y N°2=4
tenemos un valor F de 2,606.

Ahora debemos seguir la siguiente regla de decisión:

 Si el valor F obtenido es menor o igual al valor F de la tabla se debe aceptar la H0.


 Si el valor F obtenido es mayor al valor F de la tabla se debe rechazar la H0.

Como el valor F = 3,8 > 2,606 debemos rechazar H0 que plantea la igualdad de varianza
entre los cuatro grupos.

Ejemplo 9.3
Un investigador evalúo la capacidad de atención en seleccionados universitarios de
cuatro deportes. El primer grupo estuvo constituido por 15 seleccionados de voleibol
con una media de 7,97 puntos (S=1,05), el segundo grupo de 18 seleccionados de fútbol
con 8,03 (S=1,96), el tercer grupo de 16 seleccionados de básquetbol con 9,12 (S=0,98) y el
cuarto grupo de 14 seleccionados de hándbol con 8,54 (S=1,45). Ahora se desea saber si
las varianzas de los cuatro grupos son iguales.

Consideraciones:
 Variable: atención
 4 grupos: seleccionados de voleibol, fútbol, básquetbol y hándbol.
 H0 = No existen diferencias estadísticamente significativas entre las varianzas de los
cuatro grupos.

 Paso 1:
Calcular la varianza de cada grupo.

131
Fernando Maureira Cid
________________________________________________________________________

Grupo 1: La desviación estándar = 1,05 por lo tanto, la varianza = 1,052 = 1,10


n1= 15
Grupo 2: La desviación estándar = 1,96 por lo tanto, la varianza = 1,962 = 3,84
n2= 18
Grupo 3: La desviación estándar = 0,98 por lo tanto, la varianza = 0,982 = 0,96
n3= 16
Grupo 4: La desviación estándar = 1,45 por lo tanto, la varianza = 1,452 = 2,10
n4= 14

 Paso 2:
Calcular el valor B de Bartlett con la siguiente fórmula:

(fórmula 35) B = 2,3026 * [ (N – K) log S2p - ∑(n1 – 1) log S2i ]


C
2,3026 = constante
N = número total de la muestra
log = logaritmo común de base 10
ni = número de sujetos de cada muestra
K = número de grupos
C = valor que se obtiene con la siguiente fórmula:

(fórmula 36)

S2p = valor que se obtiene con la siguiente fórmula:

(fórmula 37) S2p = ∑(ni – 1) * S2i


N–K

 Calcular S2p reemplazando en la fórmula 37:

S2p = [(15-1)*1,10 + (18-1)*3,84 + (16-1)*0,96 + (14-1)*2,10] = (15,4 + 65,28 + 14,4 + 27,3)


(15+18+16+14) – 4 63 – 4
= 122,38 = 2,074
59

 Calcular C reemplazando en la fórmula 36:

132
Capítulo 9. Homogeneidad de varianzas
________________________________________________________________________

 Calcular (N – k) log S2p :

log S2p = log 2,074 = 0,317


Por lo tanto, (N – k) log S2p = (63 – 4) * 0,317 = 59 * 0,317 = 18,703

 Calcular ∑(n1 – 1) log S2i :

(n1 – 1) log S21 = (15 – 1) * log 1,10 = 14 * 0,041 = 0,574


(n2 – 1) log S22 = (18 – 1) * log 3,84 = 17 * 0,584 = 9,928
(n3 – 1) log S23 = (16 – 1) * log 0,96 = 15 * -0,018 = -0,270
(n4 – 1) log S24 = (14 – 1) * log 2,10 = 13 * 0,322 = 4,186
∑(n1 – 1) log S2i = 0,574 + 9,928 + (-0,270) + 4,186 = 14,418

 Calcular el valor B con la fórmula 35:

B= 2,3026 * (18,703 – 14,418) = 8,051 * 4,285 = 34,50


0,286

 Paso 3:
Ahora el investigador debe contrastar el valor X2 obtenido con los valores críticos de X2
(Anexo 8) según el nivel de confianza escogido y los gl (n – 1). Para el ejemplo, con 0,05
y gl=3 tenemos un valor X2 de 7,815.

Ahora debemos seguir la siguiente regla de decisión:

 Si el valor X2 obtenido es menor al valor X2 de la tabla se debe aceptar la H0.


 Si el valor X2 obtenido es igual o mayor al valor X2 de la tabla se debe rechazar la
H 0.

Como el valor X2 = 34,50 > 7,815 debemos rechazar H0 que plantea la igualdad de
varianza entre los cuatro grupos.

133
Fernando Maureira Cid
________________________________________________________________________

9.2 PRUEBA DE HOMOGENEIDAD


DE VARIANZAS EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Estadísticos descriptivos
 Explorar

Figura 9.1. Prueba de homogeneidad de varianzas en el menú del SPSS 22.0.

Figura 9.2. Pantalla Explorar en el SPSS 22.0.

Cuando aparece el cuadro de la figura 9.2 observamos que en el rectángulo de la


izquierda aparece la lista de nuestras variables. Tomamos la variable dependiente y la
llevamos al cuadro superior derecho (lista dependiente). Luego tomamos la variable de

134
Capítulo 9. Homogeneidad de varianzas
________________________________________________________________________

agrupación (grupos que queremos comparar, por ejemplo el sexo) y la llevamos al


cuadro medio derecho (lista de factores).
Luego presionamos Gráficos y en el cuadro dispersión por nivel con prueba de Levene
marcamos no transformado (Fig. 9.3).

Figura 9.3 Pantalla de gráficos en explorar en el SPSS 22.0.

Hecho esto presionamos continuar para volver a la pantalla de explorar y presionamos


Aceptar.
La hoja de cálculos del programa nos entrega varias tablas pero la que nos interesa es la
siguiente:

Tabla 9.1 Prueba de homogeneidad de varianza

En la tabla se observa el estadístico de la prueba de Levene, los grados de libertad uno


que corresponde al número de grupos menos 1 (2 – 1 = 1), los grados de libertad dos que
corresponde al número total de sujetos de la muestra menos el número de grupos (147 –
2 = 145) y la Sig. o valor p.
Ahora el investigador debe contrastar el valor F calculado con el valor crítico de F
(Anexo 6) obteniendo: 0,208 < 3,960

135
Fernando Maureira Cid
________________________________________________________________________

También debe contrastar el valor p calculado (p=0,650) siendo p>0,05 se debe aceptar la
hipótesis nula que plantea la homogeneidad de las varianzas.

136
Capítulo 10. Comparación de dos grupos
________________________________________________________________________

________________________________________________________________________

10.1 PRUEBA T DE STUDENT PARA Supuestos de la prueba t:


MUESTRAS INDEPENDIENTES
 La variable dependiente debe pre-
sentar una distribución normal.

Nivel de medición:
Intervalar o de razón La variable dependiente debe ser
numérica.
La prueba t para muestras indepen-  Debe cumplirse la homocedastici-
dientes se utiliza para comparar las me- dad u homogeneidad de varianzas
dias de dos muestras que no están relacio- entre los dos grupos.
nadas entre sí (por ejemplo: sexo, curso,
colegio, comuna, país, etc.) y determinar Al calcular el valor t también pode-
si la diferencia entre ambos son estadísti- mos determinar los intervalos de con-
camente significativas (no se deben al fianza de la diferencia de medias y el
azar). tamaño del efecto (ejemplo 10.1).

Ejemplo 10.1
Un investigador midió la fuerza prensil en 9 varones de 15 años y 7 varones de 17 años
de un colegio de Santiago. Las puntuaciones se observan en la tabla siguiente:

Grupo 1 Puntaje Grupo 2 Puntaje


N° 1 12 N° 1 15
N° 2 15 N° 2 18
N° 3 13 N° 3 19
N° 4 15 N° 4 18
N° 5 14 N° 5 17
N° 6 15 N° 6 20
N° 7 16 N° 7 15
N° 8 12
N° 9 14
= 14,0 = 17,4
S= 1,41 S= 1,90
.

137
Fernando Maureira Cid
________________________________________________________________________

Ahora se desea establecer los intervalos de confianza de la media y saber si existen


diferencias entre la media de ambos grupos. Para ello se determina la diferencia de
medias independientes (D) que se obtiene con la media del grupo 1 menos la media del
grupo 2:

D= 14,0 – 17,4 = -3,4

Luego se establecen las siguientes hipótesis:

H0 = =
1 ≠
1 2

H1 = 2

 Paso 1:
Calcular el error estándar de la diferencia de medias independientes, que corresponde
al error posible entre la diferencia de dos o más grupos que forman la muestra y de dos
o más grupos que conforman la población.

(fórmula 38)

σ21 = desviación estándar al cuadrado de la población 1


σ22 = desviación estándar al cuadrado de la población 2
n1 = número de casos del grupo 1
n2 = número de casos del grupo 2
.
Si la desviación estándar de la población es desconocida, el error estándar se obtiene con
la siguiente fórmula:

(fórmula 39)

S21 = desviación estándar al cuadrado del grupo 1


S22 = desviación estándar al cuadrado del grupo 2
n1 = número de casos del grupo 1
n2 = número de casos del grupo 2

Para el ejemplo 10.1 reemplazamos en la fórmula 39:

Se obtiene un error estándar de diferencia de medias de 0,858.

138
Capítulo 10. Comparación de dos grupos
________________________________________________________________________

 Paso 2:
Calcular los intervalos de confianza de diferencia de medias independientes con la
siguiente fórmula:

IC = D ± (Z * e.e.) (fórmula 40)

D = diferencia de medias independientes


Z = puntuación Z (por ejemplo 1,96)
e.e. = error estándar de la diferencia de medias independientes
.
Siguiendo con el ejemplo 10.1, tenemos una diferencia de medias independientes de -3,4
y un error estándar de diferencia de medias independientes de 0,858.

Ahora reemplazamos en la fórmula 40:

ICs = -3,4 + (1,96*0,858) = -3,4 + 1,682 = -1,718


ICi = -3,4 – (1,96*0,858) = -3,4 – 1,682 = -5,082

Por lo tanto: -5,082 µD -1,718

Esto significa que la media poblacional de la diferencia de medias de la fuerza prensil


de los estudiantes de 15 y 17 años de un colegio de Santiago se encuentre entre -5,082 y
-1,718 con una confianza del 95%.

 Paso 3:
Para saber si la diferencia de medias es significativa debemos calcular el valor t de
muestras independientes que se obtiene con la siguiente fórmula:

t= 1 – 2 (fórmula 41)
e.e.
1 = media grupo 1
2 = media grupo 2

e.e. = error estándar de la diferencia de medias independientes


.
Para el ejemplo 10.1 reemplazamos en la fórmula 41:

t = 14,0 – 17,4 = -3,4 = -3,963


0,858 0,858

El valor t de muestras independientes fue de 3,963 (no importa el signo del valor
obtenido). Luego calculamos los grados de libertad [(n1 – 1) + (n2 – 1)] = 14. Con ambos

139
Fernando Maureira Cid
________________________________________________________________________

datos vamos a la tabla de valores críticos de t (Anexo 2) y vemos que con 14 gl y un


nivel de confianza de 0,05 el valor t es de 1,76.

Ahora utilizamos la siguiente regla de decisión:

 Si el valor t calculado es menor al valor t de la tabla se debe aceptar la H0.


 Si el valor t calculado es igual o mayor al valor t de la tabla se debe rechazar la H0.

Como el valor t = 3,963 > 1,76 se debe rechazar H0 y podemos concluir que existen
diferencias entre las medias de los grupos.

 Paso 4:
Calcular el tamaño del efecto de la prueba t para muestras independientes, que
corresponde a la magnitud de la diferencia de dos medias, es decir, nos índica si la
diferencia es pequeña, mediana o grande. El tamaño del efecto (ES) corresponde a una
comparación en desviaciones típicas (Z) y en dos muestras independientes se calcula
con la siguiente fórmula:

(fórmula 42) ES = 1 – 2

σ
1 = media grupo 1
2 = media grupo 2

σ = desviación típica combinada que se obtiene con:

(fórmula 43)

N1 y N2 = número de sujetos grupo 1 y 2 respectivamente


S1 y S2 = desviación estándar grupo 1 y 2 respectivamente

140
Capítulo 10. Comparación de dos grupos
________________________________________________________________________

Para el ejemplo 10.1 reemplazamos en la fórmula 43:

El valor de la desviación típica combinada es de 1,27. Ahora reemplazamos en la


fórmula 42:

ES = (14,0 – 17,4) = -3,4 = -2,68


1,27 1,27

El tamaño del efecto de la diferencia de las dos medias independientes fue de 2,68 (no
importa el signo negativo). Para Cohen (1988) estos efectos se pueden clasificar en:

0,20 = efecto pequeño


0,50 = efecto moderado
0,80 = efecto grande

Por lo tanto, podemos asumir que la diferencia de medias de la fuerza prensil entre el
grupo de varones de 15 años y el grupo de varones de 17 años posee una diferencia
significativa y dicha diferencia es grande (ES=2,68).

10.2 PRUEBA T DE STUDENT PARA Supuestos de la prueba t para muestras


MUESTRAS RELACIONADAS relacionadas:

Nivel de medición:  La variable dependiente debe pre-


sentar una distribución normal.

Intervalar o de razón
La variable dependiente debe ser
Esta prueba se utiliza para comparar numérica.
la media de dos muestras que están rela-
cionadas entre sí (por ejemplo: dos medi- En la prueba t para muestras rela-
ciones a los mismos sujetos en diferentes cionadas no es necesario que exista ho-
momentos, como antes y después de un mogeneidad de varianzas. En esta prue-
entrenamiento) y determinar si la diferen- ba también podemos determinar los in-
cia entre ambos son estadísticamente sig- tervalos de confianza y el tamaño del
nificativas (no se debe al azar). efecto (ejemplo 10.2).

Ejemplo 10.2
Un investigador evaluó la motivación por la clase de educación física de 10 estudiantes
de sexto básico de un colegio de Santiago en marzo y luego en julio. Las puntuaciones
se observan en la tabla siguiente:

141
Fernando Maureira Cid
________________________________________________________________________

Ahora se desea establecer los intervalos de confianza de la diferencia de medias y saber


si existen diferencias entre las medias de ambas evaluaciones. Para ello, establecemos
las siguientes hipótesis:

H0 = =
1 ≠
1 2

H1 = 2

 Paso 1:
Calcular la diferencia de medias de cada valor ( 1 – ) y elevarlas al cuadrado (
2 1 –
2)2

La diferencia de medias fue de -2,1.

142
Capítulo 10. Comparación de dos grupos
________________________________________________________________________

 Paso 2:
Calcular la suma de cuadrados de la diferencia (∑d2) que se obtiene con la siguiente
fórmula:

∑d2 = ∑D2 – (∑D 2 (fórmula 44)


n

∑D2 = suma de los valores de las diferencias al cuadrado


(∑D 2 = suma de los valores de la diferencia elevada al cuadrado
n = número de sujetos
.
Para el ejemplo 10.2 reemplazamos en la fórmula 44:

∑d2 = 77 – (-21)2 = 77 – 441 = 77 – 44,1 = 32,9


10 10

 Paso 3:
Calcular la desviación estándar de diferencia de medias relacionadas (SD) que se
obtiene con la siguiente fórmula:

(fórmula 45)

∑d2 = suma de cuadrados de la diferencia


n = número de sujetos
.
Para el ejemplo 10.2 reemplazamos en la fórmula 45:

 Paso 4:
Calcular el error estándar de diferencia de medias relacionadas (e.e.D) que se obtiene
con la siguiente fórmula:

(fórmula 46)

SD = desviación estándar de diferencia de medias


n = número de sujetos
..

143
Fernando Maureira Cid
________________________________________________________________________

Para el ejemplo 10.2 reemplazamos en la fórmula 46:

e.e.D = 1,813 = 1,813 = 1,813 = 0,604


√(10 – 1 √ 3

El error estándar de diferencia de medias del ejemplo 10.2 es de 0,604.

 Paso 5:
Calcular los intervalos de confianza de diferencia de medias relacionadas con la
siguiente fórmula:

(fórmula 47) IC = D ± (t * e.e.D)

D = diferencia de medias independientes


t = valor t de la tabla de valores críticos (se calcula con el nivel de significancia y los grados de
libertad: n – 1)
e.e.D = error estándar de la diferencia de medias relacionadas
.
Para el ejemplo 10.2 tenemos 9 gl y un α=0,05 por lo cual el valor t es 1,83.

Ahora reemplazamos en la fórmula 47:

ICs = -2,1 + (1,83 * 0,604) = -2,1 + 1,105 = -0,995


ICi = -2,1 – (1,83 * 0,604) = -2,1 – 1,105= -3,205

Por lo tanto: -3,205 µD -0,995

Esto significa que la media poblacional de la diferencia de medias de la motivación por


la clase de educación física de estudiantes de sexto básico se encuentre entre -3,205 y
-0,995 con una confianza del 95%.

144
Capítulo 10. Comparación de dos grupos
________________________________________________________________________

 Paso 6:
Para saber si la diferencia de medias es significativa debemos calcular el valor t de
muestras relacionadas que se obtiene con la siguiente fórmula:

t= D . (fórmula 48)
e.e.D

D = diferencia de medias relacionadas


e.e.D = error estándar de la diferencia de medias relacionadas
.
Para el ejemplo 10.2 reemplazamos en la fórmula 48:

t = -2,1 = -3,477
0,604

El valor t de muestras relacionadas fue de -3,477. Con un α=0,05 y gl= el valor t= ,83.
Ahora seguimos la regla de decisión:

 Si el valor t calculado es menor al valor t de la tabla se debe aceptar la H0.


 Si el valor t calculado es igual o mayor al valor t de la tabla se debe rechazar la H0.

Como t= 3,477 > 1,83 se debe rechazar H0 y podemos decir que existen diferencias entre
las medias de los grupos. Por lo anterior, es que el investigador puede concluir que los
estudiantes de sexto básico aumentaron su motivación por la clase de educación física
entre marzo y julio.

 Paso 7:
Calcular el tamaño del efecto de la prueba t para muestras relacionadas, que se calcula
con la siguiente fórmula:

(fórmula 49) ES = post – pre

σpost

= media post-intervención
post

pre = media pre-intervención

σpost = desviación típica post-intervención


.
Para el ejemplo 10.2 reemplazamos en la fórmula 49:

ES = 6,7 – 4,6 = 2,1 = 2,21


0,95 0,95

145
Fernando Maureira Cid
________________________________________________________________________

El tamaño del efecto de la diferencia de las dos medias relacionadas fue de 2,21. Por lo
tanto, podemos asumir que la diferencia de medias de la motivación por la clase de
educación física es grande, ya que las puntuaciones han variado en más de 1 desviación
estándar (ES=2,21).

9.3 PRUEBA T PARA UNA MUESTRA


EN SPSS

En primer lugar debemos constatar que se cumplen los supuestos para la aplicación de
una prueba t para una muestra:

a) Distribución normal de la variable dependiente (con la prueba KS)


b) Naturaleza numérica de la variable dependiente.

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Comparar medias
 Prueba t para una muestra

Figura 10.1 Prueba t para una muestra en el menú del SPSS 22.0.

Cuando aparece el cuadro de la figura 10.2 se observa un rectángulo en la izquierda


donde aparece la lista de nuestras variables. Tomamos la variable que deseamos
comparar y la llevamos al cuadro derecho (contrastar variables). Luego en valor de la

146
Capítulo 10. Comparación de dos grupos
________________________________________________________________________

prueba ingresamos la media de la población (por ejemplo, 5,4). Luego presionamos


Aceptar.

Figura 10.2 Pantalla de prueba t para una muestra en el SPSS 22.0.

La hoja de cálculos del programa nos entrega las dos tablas siguientes:

Tabla 10.1 Estadísticas de muestra única.

Tabla 10.2 Prueba de muestra única.

En la tabla 10.1 se observa la estadística descriptiva de la variable medida en la muestra.


En la tabla 10.2 se observa el valor t de la prueba, los grados de libertad, la Sig. o valor
p, la diferencia de medias y los intervalos de confianza de la diferencia de medias.
Ahora el investigador debe contrastar el valor t calculado con el valor crítico de t
(Anexo 2) obteniendo: -16,906 > 1,65
También debe contrastar el valor p calculado (p=0,000) siendo p<0,05 se debe rechazar la
hipótesis nula que plantea la igualdad de la media de la muestra y la población.

147
Fernando Maureira Cid
________________________________________________________________________

9.4 PRUEBA T PARA MUESTRAS


INDEPENDIENTES EN SPSS

En primer lugar debemos constatar que se cumplen los supuestos para la aplicación de
una prueba t para muestras independientes:

a) Distribución normal de la variable dependiente (con la prueba KS)


b) Naturaleza numérica de la variable dependiente.
c) Homocedasticidad (la prueba de Levene la da el mismo análisis de prueba t para
muestras independientes)

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Comparar medias
 Prueba t para muestras independientes

Figura 10.3 Prueba t para muestras independientes en el menú del SPSS 22.0.

Cuando aparece el cuadro de la figura 10.4 se observa un rectángulo en la izquierda


donde aparece la lista de nuestras variables. Tomamos la variable dependiente y la
llevamos al cuadro superior derecho (contraste de variables). Luego tomamos la
variable de agrupación (grupos que queremos comparar, por ejemplo sexo) y la
llevamos al cuadro inferior derecho (variable de agrupación).
Luego presionamos definir grupos y agregamos los valores con que asignamos los sexos
(en este caso 1 femenino y 2 masculino).

148
Capítulo 10. Comparación de dos grupos
________________________________________________________________________

Figura 10.4 Pantalla prueba t para muestras independientes.

Figura 10.5 Pantalla de definición de grupos para la prueba t de muestras


independientes.

Hecho esto presionamos Continuar para volver a la pantalla de prueba t para muestras
independientes y presionamos Aceptar.

La hoja de cálculos del programa nos entrega dos tablas como las siguientes:

Tabla 10.3 Estadísticos de grupo.

149
Fernando Maureira Cid
________________________________________________________________________

Tabla 10.4 Prueba de muestras independientes.

En la tabla 10.3 se puede observar los estadísticos descriptivos de cada grupo.


En la tabla 10.4 se aprecia la prueba de Levene para la igualdad de varianzas:

El investigador debe contrastar el valor F calculado (17,346) con el valor crítico de F


(Anexo 6) obteniendo: 17,346 < 3,960
También debe contrastar el valor p calculado (p=0,000) siendo p<0,05 se debe rechazar la
hipótesis nula.
Con todo lo anterior el investigador puede concluir que la prueba de Levene no muestra
homogeneidad de varianzas entre los grupos 1 y 2 (F=17,346; p=0,000).

Si seguimos observando la tabla, notaremos la existencia de dos filas de resultados la


superior si las varianzas son iguales y la inferior si las varianzas son diferentes. En este
caso las varianzas son diferentes por lo tanto, se utilizan los valores de la fila inferior

En la tabla observamos el valor t para diferencia de medias independientes, los grados


de libertad, la Sig. bilateral o valor p, la diferencia de medias, el error estándar de la
diferencia de medias independientes y los intervalos de confianza de la diferencia de
medias independientes.

150
Capítulo 10. Comparación de dos grupos
________________________________________________________________________

Ahora el investigador debe contrastar el valor t calculado con el valor crítico de t


(Anexo 2) obteniendo: 2,340 > 1,65
También debe contrastar el valor p calculado (p=0,021) siendo p<0,05 se debe rechazar la
hipótesis nula que plantea la igualdad de medias de los dos grupos.

9.5 PRUEBA T PARA MUESTRAS


RELACIONADAS EN SPSS

En primer lugar debemos constatar que se cumplen los supuestos para la aplicación de
una prueba t para muestras relacionadas:

d) Distribución normal de la variable dependiente (con la prueba KS)


e) Naturaleza numérica de la variable dependiente.

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Comparar medias
 Prueba t para muestras relacionadas

Figura 10.5 Prueba t para muestras relacionadas en el menú del SPSS 22.0.

Cuando aparece el cuadro de la figura 10.6 se observa un rectángulo en la izquierda


donde aparece la lista de nuestras variables. Tomamos las 2 mediciones que deseamos
comparar (antes y después) y las llevamos al cuadro derecho (variables relacionadas).

151
Fernando Maureira Cid
________________________________________________________________________

Figura 10.6 Pantalla de prueba t para muestras relacionadas en el SPSS 22.0.

Luego presionamos Aceptar. La hoja de cálculos del programa nos entrega tres tablas
como las siguientes:

Tabla 10.5 Estadísticas de muestras emparejadas.

Tabla 10.6 Correlaciones de muestras emparejadas.

Tabla 10.7 Prueba de muestras emparejadas.

En la tabla 10.5 se puede observar los estadisticos descriptivo de ambas mediciones.


En la tabla 10.6 se observa un análisis de correlación entre las dos mediciones, con un

152
Capítulo 10. Comparación de dos grupos
________________________________________________________________________

valor Sig. o valor p=0,010 < 0,05 por lo cual se debe rechazar H0 que establece que no
existe relación entre las mediciones. El valor r =0,211 indica una relación positiva entre
las mediciones y si bien dicha asociación es baja, tiene sentido realizar la prueba t entre
los dos conjuntos de datos.

En la tabla 10.7 se observa la diferencia de medias de muestras relacionadas (0,20408), la


desviación estándar, el error estándar de la diferencia de medias relacionadas y sus
intervalos confianza. También se muestra el valor t de diferencia de medias relacio-
nadas (1,612), los grados de libertad y la Sig. bilateral o valor p=0,109.

Ahora el investigador debe contrastar el valor t calculado con el valor crítico de t


(Anexo 2) obteniendo: 1,612 < 1,65.
También debe contrastar el valor p calculado (p=0,109) siendo p>0,05 se debe aceptar la
hipótesis nula que plantea la igualdad de medias de las dos mediciones.

153
Fernando Maureira Cid
________________________________________________________________________

154
Capítulo 11. Análisis de varianza
________________________________________________________________________

________________________________________________________________________

11.1 ANALISIS DE VARIANZA DE El análisis de varianza de un factor


UN FACTOR estima la influencia de una o más varia-
bles independientes categóricas sobre
Nivel de medición: una variable dependiente numérica.
Intervalar o de razón
Supuestos del ANOVA


Cuando necesitamos comparar la
media de tres o más grupos no resulta La variable dependiente debe pre-
sentar una distribución normal.

eficiente agruparlos en dúos y realizar
comparaciones de diferencia de medias La variable dependiente debe ser
numérica.

con pruebas t para muestras indepen-
dientes, ya que al aumentar el número de Debe cumplirse la homocedastici-
análisis también aumenta la posibilidad dad u homogeneidad de varianza
entre los grupos.

de cometer el error tipo I. Por lo tanto, en
estas situaciones es necesario realizar un Debe existir independencia de las
análisis de varianza (ANOVA). mediciones de los grupos.

Ejemplo 11.1
Un investigador evalúa los hábitos de estudio de los alumnos de 3 carreras univer-
sitarias: grupo 1 educación física, grupo 2 kinesiología y grupo 3 nutrición. Los puntajes
obtenidos se observan en la tabla siguiente:

155
Fernando Maureira Cid
________________________________________________________________________

Ahora se desea saber si existe diferencia entre las medias de los tres grupos. Para ello,
se establecen las siguientes hipótesis:

H0 = = =
≠ ≠
1 2 3

H1 = 1 2 3

 Paso 1:
Los valores obtenidos en cada observación de los grupos deben ser elevados al
cuadrado y calcular la suma de valores cuadrados de cada grupo.

Ahora sumamos el valor de la suma de los valores al cuadrado de cada grupo:

∑x2 = 217 + 369 + 456 = 1042

Luego sumamos todos los valores de cada grupo:

(∑x)2 = 43 + 57 + 60 = 160

 Paso 2:
Calcular la suma de cuadrados totales (SCT) con la siguiente fórmula:

(fórmula 50) SCT = ∑x2 – (∑x 2


N

∑x2 = suma de los cuadrados de todos los grupos


(∑x 2 = suma de los valores de las observaciones de todos los grupos
N = número de toda la muestra
.

156
Capítulo 11. Análisis de varianza
________________________________________________________________________

Con los datos del ejemplo 11.1 reemplazamos en la fórmula 50:

SCT = 1042 – 1602 = 1042 – 25600 = 984,62 = 57,38


26 26

 Paso 3:
Calcular la suma de cuadrados inter-grupos (SCinter) con la siguiente fórmula:

(fórmula 51)

(∑x2)= suma de las observaciones de cada grupo elevada al cuadrado


n = número de sujetos del grupo
(∑x2)= suma de todas las observaciones de cada grupo al cuadrado
N= número total de la muestra
.

Con los datos del ejemplo 11.1 reemplazamos en la fórmula 51:

 Paso 4:
Calcular la suma de cuadrados intra-grupos (SCintra) con la siguiente fórmula:

SCintra = SCT – SCinter (fórmula 52)

SCT = suma de cuadrados totales


SCinter = suma de cuadrados inter-grupos
.

Con los datos del ejemplo 11.1 reemplazamos en la fórmula 52:

SCintra = 57,38 – 31,82 = 25,56

 Paso 5:
Calcular los cuadrados medios inter-grupos (CMinter) con la siguiente fórmula:

157
Fernando Maureira Cid
________________________________________________________________________

CMinter = SCinter (fórmula 53)


glinter

SCinter = suma de cuadrados inter-grupos


glinter = grados de libertad inter-grupos que corresponde al número de grupos menos 1

Con los datos del ejemplo 11.1 reemplazamos en la fórmula 53:

CMinter = 31,82 = 31,82 = 15,91


3–1 2

 Paso 6:
Calcular los cuadrados medios intra-grupos (CMintra) con la siguiente fórmula:

(fórmula 54) CMintra = SCintra


glintra

SCintra = suma de cuadrados intra-grupos


glintra = grados de libertad intra-grupos que corresponde a la suma de casos de cada grupo
menos 1
.
Con los datos del ejemplo 11.1 reemplazamos en la fórmula 54:

CMintra = 25,56 = 25,56 = 1,111


(9 – 1) + (9 – 1) + (8 – 1) 23

 Paso 7:
Calcular el valor F de análisis de varianza con la siguiente fórmula:

(fórmula 55) F = CMinter


CMintra

CMinter = cuadrado medio inter-grupos


CMintra = cuadrado medio intra-grupos
.
Con los datos del ejemplo 11.1 reemplazamos en la fórmula 55:

F = 15,91 = 14,320
1,111

158
Capítulo 11. Análisis de varianza
________________________________________________________________________

Los datos calculados en el análisis de varianza deben ser presentados en una tabla como
la siguiente:

El valor F del análisis de varianza fue de 14,320 ahora se debe encontrar el valor crítico
de F (Anexo 6), donde debemos ubicar los gl de los cuadrados medios inter e intra-
grupos, buscando los gl menor entre ellos en la primera fila (horizontal) y los gl
mayores en la primera columna (vertical).

Con los datos del ejemplo 1 los 2 gl inter-grupos se buscan en primera fila y los 23 gl
intra-grupos en la primera columna. La intersección de ambos fue un valor F de 3,422.

A continuación se sigue la regla de decisión:

 Si el valor F calculado es menor al valor F de la tabla se debe aceptar la H0.


 Si el valor F calculado es igual o mayor al valor F de la tabla se debe rechazar la
H 0.

Como F = 14,320 > 3,422 se debe rechazar H0 y podemos decir que existen diferencias
entre las medias de los grupos. Por lo anterior, es que el investigador puede concluir
que los hábitos de estudio de los alumnos de educación física, kinesiología y nutrición
son diferentes.

159
Fernando Maureira Cid
________________________________________________________________________

11.1.1 Comparaciones posteriores a F Los métodos principales para estas


comparaciones son el procedimiento de
El análisis de varianza nos dice si Tukey, la diferencia mínima significativa
existe o no diferencia entre la media de (LSD), prueba de rangos múltiples de
tres o más grupos, pero en el caso de Duncan, Prueba de Student-Newman-
haberla no dice nada sobre los grupos Keuls (SNK), prueba de Scheffé, etc.
entre los cuales se presentan esta dife- A continuación se explicará el pro-
rencias. Para ello es necesario realizar cedimiento de Tukey modificado por
análisis posteriores comúnmente llama- Snedecor, utilizando los resultados del
dos comparaciones múltiples. ejemplo 11.1 para ello.

Siguiendo con el ejemplo 11.1, el valor F= 14,320 con lo cual aceptamos que hay
diferencias entre los grupos. Ahora utilizamos la prueba de Tukey:

 Paso 1:
Se ubican las medias de los grupos de mayor a menor y la diferencia entre ellas.

nutrición – kinesiología = 7,50 – 6,33 = 1,17


nutrición – ed. Física = 7,50 – 4,78 = 2,72
kinesiología - ed. Física = 6,33 – 4,78 = 1,55

 Paso 2:
Obtener un cuadrado medio intra-grupo promedio (CMintraX) con la siguiente fórmula:

(fórmula 56)

k = número de sujetos
n= número de sujetos de cada grupo
.
Con los datos del ejemplo 11.1 reemplazamos en la fórmula 56:

160
Capítulo 11. Análisis de varianza
________________________________________________________________________

 Paso 3:
Calcular el error estándar de una media (Sx) con la siguiente fórmula:

Sx = √CMintraX (fórmula 57)

√CMintraX = raíz cuadrada del cuadrado medio intra-grupo promedio


.
Con los datos del ejemplo 11.1 reemplazamos en la fórmula 57:

Sx = √ 0, 28 = 0,358

 Paso 4:
Determinar el valor Q (Anexo 7) con el número de grupos (3) y los grados de libertad
dentro de los grupos (9 + 9 + 8= 24 – 1 = 23):

El valor de intersección es de 3,53.

 Paso 5:
Se calcula D con la siguiente fórmula:

D = Q * Sx (fórmula 58)

Q= valor Q
Sx= error estándar de una media
.
Con los datos del ejemplo 11.1 tenemos:

D = 3,53 * 0,358 = 1,263

161
Fernando Maureira Cid
________________________________________________________________________

 Paso 6:
Se compara el valor D con las diferencias de los pares de medias de los grupos. Valores
mayores que D significa diferencia entre los grupos.
Con los datos del ejemplo 11.1 tenemos:

Nutrición – Kinesiología = 1,17 < 1,263


Nutrición – E. Física = 2,72 > 1,263
Kinesiología – E. Física = 1,55 > 1,263

Por lo tanto, es posible concluir que las puntuaciones de los hábitos de estudio entre
estudiantes de nutrición y kinesiología son estadísticamente iguales. En cambio,
educación física posee una media menor que las otra dos carreras.

11.2 ANOVA DE UN FACTOR EN


SPSS

En primer lugar debemos constatar que se cumplen los supuestos para la aplicación de
una prueba ANOVA:

a) Distribución normal de la variable dependiente (con la prueba KS)


b) Naturaleza numérica de la variable dependiente.
c) Homocedasticidad (que se puede seleccionar dentro de la misma prueba ANOVA)
d) Independencia de las variables

En el paquete estadístico SPSS vamos en el menú a:


 Analizar
 Comparar medias
 ANOVA de un factor

Figura 11.1 Prueba ANOVA de un factor en el menú del SPSS 22.0.

162
Capítulo 11. Análisis de varianza
________________________________________________________________________

Cuando aparece el cuadro de la figura 11.2 se observa un rectángulo en la izquierda


donde aparece la lista de nuestras variables. Tomamos la variable dependiente y la
llevamos al cuadro superior derecho (lista de dependientes). Luego tomamos nuestra
variable independiente o de agrupación (grupos a comparar, por ejemplo cursos) y la
llevamos al cuadro inferior derecho (factor).

Luego presionamos opciones y aparece un cuadro como la figura 11.3. Aquí marcamos
Descriptivos, test de homogeneidad de varianzas, Brown-Forsythe y Welch.
Hecho esto presionamos continuar para volver a la pantalla de ANOVA.

Figura 11.2 Pantalla de ANOVA de un factor en el SPSS 22.0.

Figura 11.3 Pantalla de Opciones del ANOVA de un factor en el SPSS 22.0.

Una vez de vuelta en la pantalla de ANOVA de un factor presionamos Aceptar. La hoja


de cálculos del programa nos entrega tres tablas como las siguientes:

163
Fernando Maureira Cid
________________________________________________________________________

Tabla 10.1 Descriptivos.

Tabla 10.2 Prueba de homogeneidad de varianzas.

Tabla 10.3 ANOVA.

En la tabla 11.1 se puede observar los estadisticos descriptivo de la variable dependiente


en cada uno de los grupos que se desean comparar.

En la tabla 11.2 se observa el estadístico de Levene para igualdad de varianza, los


grados de libertad 1 (número de grupos menos 1, por lo tanto, 4 – 1 = 3), los grados de
libertad 2 (número total de observaciones menos el número de grupos, por lo tanto, 147
– 4 = 143) y la Sig. o valor p. El investigador debe contrastar el valor F calculado con el
valor crítico de F (Anexo 6) obteniendo: 1,011 < 2,696.
También debe contrastar el valor p calculado (p=0,390) siendo p>0,05 se debe aceptar la
hipótesis nula que plantea la homogeneidad de varianzas entre los grupos 1, 2, 3 y 4
(F=1,011; p=0,390).

164
Capítulo 11. Análisis de varianza
________________________________________________________________________

En la tabla 11.3 (la prueba de ANOVA de un factor como tal) se observan las sumas de
cuadrados, los grados de libertad, los cuadrados medios (medias cuadráticas), el valor F
y la Sig. bilateral o valor p.
Ahora el investigador debe contrastar el valor F calculado con el valor crítico de F
(Anexo 6) obteniendo: 3,100 > 2,696.
También debe contrastar el valor p calculado (p=0,029) siendo p<0,05 se debe rechazar la
hipótesis nula que plantea la igualdad de medias de los tres grupos.

NOTA:
Las pruebas de Welch y Brown-Forsythe son buenas alternativas al estadístico F cuando
no se pueden asumir varianzas iguales de los grupos (valor F<0,05 en la prueba de
Levene).

Tabla 11.4 Pruebas sólidas de igualdad de medias.

En la tabla 11.4 se observa el estadístico de Welch, el estadístico de Brown-Forsythe, los


grados de libertad 1 de ambas pruebas y la Sig. o valor p de ambas pruebas.
Ahora el investigador debe contrastar el valor F calculado en ambas pruebas con el
valor crítico de F (Anexo 6) obteniendo: 3,442 > 2,736 para la prueba de Welch y 3,064 >
2,736 para la prueba de Brown-Forsythe.
También debe contrastar el valor p calculado (p=0,021 para la prueba de Welch y
p=0,031 para la prueba de Brown-Forsythe) siendo en ambos casos p<0,05 se debe
rechazar la hipótesis nula que plantea la igualdad de medias de los tres grupos.
En caso que los valores de ambas pruebas difieran, se utilizan los valores de Welch para
realizar las conclusiones.

PRUEBAS POST HOC (POSTERIORES A F)

Si la prueba de ANOVA de un factor indica que existen diferencias entre tres o más
grupos, resulta necesario conocer entre cuales grupos se dan esas diferencias. En el
paquete estadístico SPSS 22.0 cuando estamos en la pantalla ANOVA de un factor (Fig.
11.2) marcamos Post-Hoc y aparece una pantalla como la figura 11.4.
Marcamos Tukey si asumimos varianzas iguales o Games-Howell si no asumimos
varianzas iguales. Hecho esto presionamos continuar para volver a la pantalla de
ANOVA de un factor y presionamos Aceptar.

165
Fernando Maureira Cid
________________________________________________________________________

Figura 11.4 Pantalla de Post hoc del ANOVA de un factor en el SPSS 22.0.

Si marcamos Tukey la hoja de cálculos del programa nos entrega las dos tablas
siguientes:

Tabla 11.5 Comparaciones múltiples.

166
Capítulo 11. Análisis de varianza
________________________________________________________________________

En la tabla 11.5 se puede observar la diferencia de medias entre cada par de grupos
evaluados (que se calcula restando a la media del grupo 1 la media del grupo 2), el error
estándar de diferencia de medias de muestras independientes, la Sig. o valor p y los
intervalos de confianza de la diferencia de medias independientes.
Los valores sig iguales o menores de 0,05 indican que se debe rechazar la H0. Por su
parte, la diferencia de medias nos permite conocer cuál de los dos grupos comparados
posee una puntuación mayor. Si el valor es positivo el primer grupo posee un puntaje
mayor, por el contrario, si el valor es negativo el primer grupo posee una puntación
menor que el segundo grupo. Por ejemplo, la diferencia de medias del grupo 2 y 3
presenta un valor p=0,015 < 0,05 lo que indica que existen diferencias entre estos dos
grupos. El valor de diferencia de medias es de 0,87500 lo cual significa que el grupo 2
posee una media mayor que el grupo 3.

Tabla 11.6 HSD Tukey.

En la tabla 11.6 se observan los cuatro grupos, el número de sujetos de cada grupo y
subconjuntos donde se aglutinan los grupos. En este caso hay un subconjunto con el
grupo 3, 1 y 4 y otro subconjunto con el grupo 1, 4 y 2. Entre los grupos que se
encuentran en el mismo subconjunto no existen diferencias significativas en sus medias
(grupo 3 = grupo 1 = grupo 4 y grupo 1 = grupo 4 = grupo 2), por lo tanto, en el ejemplo
sólo se observan diferencias entre el grupo 3 y 2.

Si marcamos Games-Howell la hoja de cálculos del programa nos entrega la tabla


siguiente:

167
Fernando Maureira Cid
________________________________________________________________________

Tabla 11.7 Comparaciones múltiples.

La tabla de comparaciones múltiples de Games-Howell se interpreta igual que la tabla


de la prueba de Tukey.

https://es.slideshare.net/yerkob/15-test-estadisticos

168
Capítulo 12. ANOVA de medidas repetidas
________________________________________________________________________

________________________________________________________________________

12.1 ANALISIS DE VARIANZA DE al mismo grupo se realizan tres o más


UN FACTOR DE MEDIDAS veces la prueba t no resulta adecuada,
REPETIDAS entonces debemos utilizar un ANOVA
de medidas repetidas.
Nivel de medición:
Intervalar o de razón Supuestos del ANOVA de medidas
repetidas


Cuando tenemos un grupo y le he-
mos realizado dos mediciones a través del La variable dependiente debe pre-
sentar una distribución normal.

tiempo (antes y después de una interven-
ción o en un momento inicial y otro La variable dependiente debe ser
numérica.

posterior) es posible determinar si existen
diferencias entre ambas mediciones a Debe cumplirse la homocedastici-
través de una prueba t para muestras dad u homogeneidad de varianza
relacionadas. Pero cuando las mediciones entre los grupos.

Ejemplo 12.1
Un profesor de gimnasia aplicó un entrenamiento de mejora de la flexibilidad a un
grupo de 11 gimnastas de 8 y 9 años durante 3 meses. Una de las pruebas que compone
la batería de medición es el sit and reach que fue evaluado antes del entrenamiento,
luego de 6 semanas y a las 12 semanas entregando los resultados de la tabla siguiente:

169
Fernando Maureira Cid
________________________________________________________________________

Ahora el profesor quiere saber si existen diferencias entre las 3 mediciones, es decir, si el
programa de entrenamiento provocó mejoras en las puntuaciones de esta evaluación.
Para ello, se establecen las siguientes hipótesis:

H0 = = = 3
1 ≠ 2 ≠
1 2

H1 = 3

 Paso 1:
Calcular la suma de cuadrados de cada grupo

 Paso 2:
Calcular la suma de cuadrados totales (SCT) con la siguiente fórmula:

(fórmula 59) SCT = ∑∑y2 – T2


N

∑∑y2 = suma de los cuadrados totales


T2 = suma de valores de todos los casos al cuadrado
N = número total de mediciones
..
Con el ejemplo 12.1 reemplazamos en la fórmula 59:

SCT = 599 – 1112 = 599 – 12321 = 599 – 373,36 = 225,64


33 33

170
Capítulo 12. ANOVA de medidas repetidas
________________________________________________________________________

 Paso 3:
Calcular la suma de cuadrados inter-grupos (SCI) con la siguiente fórmula:

SCT = ∑Tj2 – T2 (fórmula 60)


n N

∑Tj2 = Suma del total de puntaje de cada grupo al cuadrado


n = número de sujetos de cada grupo
T2 = suma de valores de todos los casos al cuadrado
N = número total de mediciones

Con el ejemplo 12.1 reemplazamos en la fórmula 60:

 Paso 4:
Calcular la suma de cuadrados inter-sujetos (SCB) con la siguiente fórmula:

SCB = ∑Ti2 – T2 (fórmula 61)


J N

∑Ti2 = Suma de las puntuaciones de cada sujeto al cuadrado


J = número de grupos
T2 = suma de valores de todos los casos al cuadrado
N = número total de mediciones
..
Del ejemplo 12.1 reemplazamos en la fórmula 61:

171
Fernando Maureira Cid
________________________________________________________________________

 Paso 5:
Calcular la suma de cuadrados residual (SCr) con la siguiente fórmula:

(fórmula 62) SCr = SCT – SCI – SCB

SCT = suma de cuadrados totales


SCI = suma de cuadrados inter-grupos
SCB = suma de cuadrados inter-sujetos
..
Del ejemplo 12.1 reemplazamos en la fórmula 62:

SCr = 225,64 – 144,73 – 73,34 = 7,57

 Paso 6:
Calcular los grados de libertad con las siguientes fórmulas:

(fórmula 63) glinter-grupos = J – 1


(fórmula 64) glinter-sujetos = n – 1
(fórmula 65) glresidual = (J – 1)*(n – 1)
(fórmula 66) gltotal = N – 1

J = número de grupos
n = número de sujetos de cada grupo
N = número total de mediciones
..
Ahora con el ejemplo 12.1 reemplazamos en las fórmulas de grados de libertad:

glinter-grupos = 3 – 1 = 2
glinter-sujetos = 11 – 1 = 10
glresidual = (3 – 1)*(11 – 1) = 2*10 = 20
gltotal = 33 – 1 = 32

 Paso 7:
Calcular la media cuadrática inter-grupos (MCI) con la siguiente fórmula:

(fórmula 67) MCI = SCI .

glinter-grupos
SCi = Suma de cuadrado inter-grupos
..,

172
Capítulo 12. ANOVA de medidas repetidas
________________________________________________________________________

Con el ejemplo 12.1 reemplazamos en la fórmula 67:

MCI = 144,73 = 72,365


2

 Paso 8:
Calcular la media cuadrática residual o intra-grupos (MCr) con la siguiente fórmula:

MCr = SCr . (fórmula 68)


glresidual
SCr = Suma de cuadrados residuales
..
Con el ejemplo 12.1 reemplazamos en la fórmula 68:

MCr = 7,57 = 0,379


20

 Paso 9:
Calcular el valor F con la siguiente fórmula:

F = MCI . (fórmula 69)


MCr

MCI = media cuadrática inter-grupos


MCr = media cuadrática residual
..
Con el ejemplo 12.1 reemplazamos en la fórmula 69:

F = 72,365 = 190,94
0,379

Los datos calculados en el análisis de varianza de medidas repetidas deben ser


presentados en una tabla como la siguiente:

..

173
Fernando Maureira Cid
________________________________________________________________________

El valor F del análisis de varianza de medidas repetidas fue de 190,94 ahora se debe
encontrar el valor crítico de F (Anexo 6), donde debemos ubicar los gl inter-sujetos y los
gl residuales. Con los datos del ejemplo 2 los 2 glinter-sujetos se buscan en primera fila y los
20 glresiduales en la primera columna. La intersección de ambos fue un valor F de 3,493.

A continuación se sigue la regla de decisión:

 Si el valor F calculado es menor al valor F de la tabla se debe aceptar la H0.


 Si el valor F calculado es igual o mayor al valor F de la tabla se debe rechazar la
H 0.

Como F= 190,94 > 3,49 se debe rechazar H0 y podemos decir que existen diferencias
entre las tres medias de los grupos. Por lo anterior, es que el profesor puede concluir
que las puntuaciones del test de sit and reach de flexibilidad son diferentes en los tres
momentos de medición. Por lo tanto, el programa de entrenamiento provocó una
mejora de esta cualidad física.

12.1.1 Comparaciones posteriores a F ma significativa (LSD), la prueba de


Sidak, etc.
Los métodos principales para las A continuación se explicará el pro-
comparaciones múltiples de ANOVA de cedimiento de Bonferroni para compara-
un factor de medidas repetidas son la ciones. Para ello se utilizaran los resulta-
prueba de Bonferroni, la diferencia míni- dos del ejemplo 11.1.

Siguiendo con el ejemplo 12.1, el valor F= 190,94 con lo cual aceptamos que hay
diferencias entre las 3 mediciones. Ahora utilizamos la prueba de Bonferroni:

 Paso 1:
Calcular intervalos de confianza para todos los pares de medias posibles, con la
siguiente fórmula:

174
Capítulo 12. ANOVA de medidas repetidas
________________________________________________________________________

(fórmula 70)

1= media grupo 1
2 = media grupo 2

tn-k,α/2 = valor t con número de sujetos menos número de grupos y un alfa dividido en 2
S2w = varianza de todos los datos
n1 = número de sujetos grupo 1
n2 = número de sujetos grupo 2

Con el ejemplo 12.1 reemplazamos en la fórmula 70:

 Paso 2:
El método de Bonferroni trata de establecer intervalos de confianza para cada par de
medias comparadas en el ANOVA de un factor de medidas repetidas y luego
determinar si existe diferencias entre ellas de la siguiente forma:

 Si el intervalo de confianza calculado contiene al cero las medias comparadas son


estadísticamente iguales.
 Si el intervalos de confianza calculado NO contiene al cero las medias son
estadísticamente diferentes.

175
Fernando Maureira Cid
________________________________________________________________________

En el caso del ejemplo 12.1 se puede observar que ninguno de los intervalos de
confianza calculado para cada par de medias (-3,301 y -0,699; -6,401 y -3,799; -4,401 y -
1,799) contiene al cero, por lo tanto, existen diferencias significativas entre las tres
mediciones de flexibilidad realizadas con el test de sit and reach.

12.2 ANOVA DE MEDIDAS


REPETIDAS EN SPSS

En primer lugar debemos constatar que se cumplen los supuestos para la aplicación de
una prueba ANOVA de medidas repetidas:

a) Distribución normal de la variable dependiente (con la prueba KS)


b) Naturaleza numérica de la variable dependiente.
c) Homocedasticidad (prueba de Levene)
d) Esfericidad de la matriz de varianzas-convarianzas (test de Mauchly que lo entrega
el mismo ANOVA).

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Modelo lineal general
 Medidas repetidas

Figura 12.1 ANOVA de medidas repetidas en el menú del SPSS 22.0.

176
Capítulo 12. ANOVA de medidas repetidas
________________________________________________________________________

Cuando aparece el cuadro de la figura 12.2 en el rectángulo superior (nombre del factor
intra-sujetos) colocamos el nombre de nuestra variable dependiente. En el cuadro de
número de niveles colocamos el número de veces que medimos a la muestra (3, 4, 5,
etc.) y presionamos Añadir. Esto permitirá que se active el botón Definir.

Figura 12.2 Pantalla de ANOVA de medidas repetidas en el SPSS 22.0.

Tras presionamos Definir aparece un cuadro como la figura 12.3. En el rectángulo de la


izquierda aparece la lista de nuestras variables. Tomamos en este caso las tres
mediciones realizadas y las llevamos al cuadro superior derecho (lista dependiente).

Figura 12.3 Pantalla para definir variables en ANOVA de medidas repetidas en el


SPSS 22.0.

177
Fernando Maureira Cid
________________________________________________________________________

Luego presionamos Opciones y aquí marcamos Estadística descriptiva. Luego


presionamos Continuar para volver a la pantalla de ANOVA de Medidas repetidas.

Figura 12.4 Pantalla de opciones en ANOVA de medidas repetidas en el SPSS 22.0.

Luego presionamos Aceptar. La hoja de cálculos del programa nos entrega varias tablas
por defecto, pero nos interesan las siguientes:

Tabla 12.1 Estadísticos descriptivos

En la tabla 12.1 se observa la media de cada medición, la desviación estándar y el


número de sujetos medidos.

La tabla 12.2 corresponde a contrastes multivariados que se pueden utilizar cuando no


existe igualdad de varianza entre las mediciones realizadas. En la tabla observamos
cuatro estadísticos (traza de Pillai, Lambda de Wilks, traza de Hotelling y raíz mayor de
Roy) que contrastan la hipótesis nula de que las medias son iguales. Los valores F son
todos mayores que sus valores críticos y las Sig. son todas menores de 0,05 por lo tanto,
se rechaza la H0 de la igualdad de las medias entre las tres mediciones.
En caso de obtener resultados diferentes en los cuatro estadísticos se recomienda usar
los valores entregados en la traza de Pillai..

178
Capítulo 12. ANOVA de medidas repetidas
________________________________________________________________________

Tabla 12.2 Pruebas multivariantes

Cuando tenemos 3 mediciones de un grupo, poseemos 3 variables, pero también


podemos generar 3 pares de variables (v1 y v2; v1 y v3; v2 y v3), de manera tal que al
restar las medias de cada par obtenemos 3 nuevas variables. En el modelo de ANOVA
de un factor de medidas repetidas se asume que las varianzas de estas tres nuevas
variables son iguales, lo que equivale a decir que la matriz de varianzas-covarianzas es
esférica. Para comprobar esto existen variados análisis, pero el SPSS utiliza la prueba de
esfericidad de Mauchly (1940).

Tabla 12.3 Prueba de esfericidad de Mauchly

En la tabla 12.3 se observa el valor W de Mauchly, un valor X2 aproximado, los grados


de libertad y un Sig. o valor p. En este caso p=0,030 < 0,05 por lo tanto se rechaza la H0
que plantea la igualdad de varianzas entre los 3 grupos (esfericidad).
De no cumplirse este supuesto es necesario usar los análisis multivariado que se
observan en la tabla 12.2 o utilizar un valor corregido de épsilon que aparece en la
derecha de la tabla 12.3. La tabla ofrece dos estimadores de épsilon (Greenhouse-
Geisser, 1959 y Hyunh-Feldt, 1976) siendo el primero más conservador y el más usado.
También aparece un límite inferior que corresponde al valor que adoptaría épsilon en el
caso del incumplimiento del supuesto de esfericidad. Para utilizar la tabla de valores
críticos de F cuando no se cumple el supuesto es necesario corregir los gl del numerador
y denominador del ANOVA de medidas repetidas multiplicándolo por el valor de
épsilon.

179
Fernando Maureira Cid
________________________________________________________________________

Tabla 12.4 Pruebas de efecto dentro de sujetos

En la tabla 12.4 observamos la suma de cuadrados, gl, media cuadrática, valor F y Sig. o
valor p. En caso del cumplimiento del supuesto de esfericidad se emplean los valores de
esfericidad asumida, donde F es mayor al valor crítico de F (Anexo 6) y p=0,013 < 0,05
por lo tanto, se rechaza la H0 y se asume que existen diferencias entre las medias de las
tres mediciones.
Si no se asume esfercidad en los datos y se desea utilizar un estadístico univariado se
utilizan las tres alternativas corregidas (Greenhouse-Geisser, Huynh-Feldt, Límite
inferior). Siendo la primera de ellas la más conservadora y la que se utiliza en caso de
haber diferencias entre los tres análisis.

Pruebas Post Hoc

Si la prueba de ANOVA de medidas repetidas indica que existen diferencias entre tres o
más grupos, resulta necesario conocer entre cuales grupos se dan esas diferencias. Para
ello utilizamos la prueba post-hoc de Bonferroni.
En la figura 12.3 se observa la pantalla Opciones del ANOVA de medidas repetidas
donde se debe seleccionar Opciones. En la figura 12.5 llevamos nuestra variable
dependiente del cuadro de la izquierda a la derecha. Luego marcamos Comparar
efectos, lo que permitirá desplegar el índice de ajuste del intervalo de confianza donde
marcamos Bonferroni.
Posteriormente presionamos Continuar para volver a la pantalla de ANOVA de
medidas repetidas y presionamos Aceptar.

180
Capítulo 12. ANOVA de medidas repetidas
________________________________________________________________________

Figura 12.5 Pantalla opciones del ANOVA de medidas repetidas en el SPSS 22.0.

El programa nos entrega unas tablas como las siguientes:

Tabla 12.5 Estimaciones

Tabla 12.6 Comparaciones por parejas

181
Fernando Maureira Cid
________________________________________________________________________

En la tabla 12.5 se observa la media de cada medición, el error estándar de cada media y
los intervalos de confianza de la media de cada grupo.

En la tabla 12.6 se observa la diferencia de medias, el error estándar de la diferencia de


medias, la Sig. o valor p y los intervalos de confianza para la diferencia de medias.
Esta tabla se interpreta igual que el estadístico de Tukey.

182
Capítulo 13. Correlación y regresión
________________________________________________________________________

________________________________________________________________________

13.1 COEFICIENTE DE ra determinar si existe una relación lineal


CORRELACIÓN DE PEARSON entre dos variables (por ejemplo, activi-
dad física e IMC) y determinar si esa
Nivel de medición: relación es estadísticamente significativa
Intervalar o de razón (no se debe al azar). Esta prueba puede
utilizarse con 2 o más variables.
Cuando necesitamos establecer la
posible relación existente entre dos varia- Supuestos de la correlación de Pearson
bles recurrimos a los análisis de asocia-
ción, de esta forma podemos determinar  Las variables deben presentar una
si los cambios en un fenómeno producen distribución normal.
cambios en otro. Es importante recordar  Las variables deben ser de naturale-
que estos análisis no implican causalidad. za numéricas.
A continuación estudiaremos la co-  Los datos de ambas variables deben
rrelación de Pearson, la cual se utiliza pa- ser independientes.

Ejemplo 13.1
Un investigador evaluó el tiempo de práctica de actividad física semanal de 10
estudiantes de tercer año medio de un colegio de Santiago y las notas obtenidas por
ellos durante su año académico.

..

183
Fernando Maureira Cid
________________________________________________________________________

Ahora el investigador quiere saber si existe una relación significativa entre los puntajes
alcanzados por los estudiantes, es decir, si los alumnos que realizan más actividad física
son los mismos que logran mejores notas. Para ello, se establecen las siguientes
hipótesis:

H0 = 1 se relaciona 2
H1 = 1 no se relaciona 2

 Paso 1:
Calcular la covarianza (Cov) de las variables. Esta es el promedio de los productos de
las desviaciones de las variables respectos a sus medias. Esto se obtiene con la siguiente
fórmula:

(fórmula 71) Cov (x,y) = ∑(Xi – )*(yi – )


n–1

Xi = valor de cada observación de la variable X


= media de la variable X
yi = valor de cada observación de la variable y
= media de la variable y
n= número total de sujetos

Con el ejemplo 13.1 tenemos la siguiente tabla:

Ahora con los datos del ejemplo 13.1 reemplazamos en la fórmula 71:

Cov (x,y) = 12,82 = 12,82 = 1,424


10 – 1 9

184
Capítulo 13. Correlación y regresión
________________________________________________________________________

La covarianza de los datos es de 1,424


En un gráfico de dispersión si la covarianza es positiva los puntos se distribuyen
principalmente en los cuadrantes I y III (Fig. 13.1). Si la covarianza es negativa los
puntos se distribuyen en los cuadrantes II y IV. Si la covarianza es cercana a cero los
puntos se distribuyen por los cuatro cuadrantes.

Figura 13.1. Gráfico de dispersión de los datos. Como se puede


observar los datos se distribuyen principalmente en los cuadrantes I y III.

 Paso 2:
Calcular la correlación de Pearson (r) con la siguiente fórmula:

r = Cov (x, y) (fórmula 72)


Sx * Sy

Cov (x, y) = covarianza de X e y


Sx = desviación estándar de la variable X
Sy = desviación estándar de la variable y

Ahora con el ejemplo 13.1 reemplazamos en la fórmula 72:

r = 1,424 = 1,424 = 0,943


3,02*0,50 1,51

El coeficiente de correlación de Pearson es de 0,943 ahora se debe contrastar con el valor


crítico de r (Anexo 10), donde debemos ubicar los gl de libertad con N – 1. En este caso
el valor de intersección es de 0,666.

185
Fernando Maureira Cid
________________________________________________________________________

A continuación se sigue la regla de decisión:

 Si el valor r calculado es menor al valor r de la tabla se debe aceptar la H0.


 Si el valor r calculado es igual o mayor al valor r de la tabla se debe rechazar la H 0

Como r= 0,943 > 0,666 se debe rechazar H0 y podemos decir que existe relación entre las
variables.
La correlación de Pearson puede tomar valores entre -1 y 1 midiendo la fuerza de
asociación lineal de las variables. Un valor r de cero indica que no existe correlación de
X e Y, valores positivos indica una correlación positiva y viceversa.

Este coeficiente de correlación es muy influenciado por datos extremos (outlier) y solo se
utiliza cuando existe relaciones lineales entre variables, por esta razón es necesario
construir un gráfico de dispersión para determinar la linealidad de los datos antes de
utilizar este análisis.
Por lo anterior, es que el investigador del estudio del ejemplo 13.1 puede concluir que
los estudiantes que practican más actividad física son los mismos que poseen mejor
rendimiento académico y que esta relación es muy alta (r = 0,943).

También es posible calcular el coeficiente de determinación (r2) que corresponde al


porcentaje de relación de las variables. Este se obtiene con la siguiente fórmula:

186
Capítulo 13. Correlación y regresión
________________________________________________________________________

r2= r * r (fórmula 73)


r = correlación de Pearson
.
Así del ejemplo 13.1 tenemos:

r2 = 0,943 * 0,943 = 0,89

Es decir, la relación entre las dos variables es de un 89%.

13.2 REGRESIÓN LINEAL SIMPLE Supuestos de la regresión lineal simple

Nivel de medición:  Las variables deben presentar una


distribución normal.

Intervalar o de razón
Las variables deben ser numéricas.
La representación de la relación de  Los datos de ambas variables deben
ser independientes.

dos variables, permite realizar prediccio-
nes sobre los valores que tomará una de Debe existir homocedasticidad u
homogeneidad de varianzas.

las variables a partir de los valores de la
otra. La regresión lineal simple es el esta- Debe existir linealidad en los pará-
dístico más utilizado a la hora de predecir metros (esto indica que un cambio
los valores de una variable cuantitativa unitario en X tiene el mismo efecto en
numérica en base a otra variable cuantita- Y, independiente del valor inicial de
tiva numérica. X).

Ejemplo 13.2
Un investigador evaluó el tiempo de práctica de actividad física y los niveles de estrés
de un grupo de 10 estudiantes universitarios. Ahora quiere saber si la práctica de
actividad física puede predecir los niveles de estrés en estos estudiantes.

 Paso 1:
Calcular el modelo de regresión lineal que consiste en ajustar los datos a una línea recta
mediante la siguiente ecuación:

187
Fernando Maureira Cid
________________________________________________________________________

(fórmula 74) Y= β0 + β1X + ε

β0 = ordenada de origen
β1 = pendiente
ε = error aleatorio

En un modelo de regresión es deseable que la media de los errores aleatorios sea cero.
Ahora debemos encontrar la recta que más se ajuste a nuestros datos, es decir, buscar
los valores de β0 y β1 que hagan mínimos los errores de estimación.

 Paso 2:
Calcular los valores que hagan mínima la suma de los errores al cuadrado (SSE)
mediante el método de mínimos cuadrados que se obtiene con la siguiente fórmula:

(fórmula 75) SEE= ∑yi – (β0 + β1Xi)2

∑yi = suma de valores observados en eje y


β0 = ordenada de origen
β1 = pendiente
Xi = valor en eje X

El valor β1 se obtiene con la fórmula siguiente:

(fórmula 76) β1= SSxy


SSxx
SSxy = suma de cuadrados de xy
SSxx = suma de cuadrados de x

El valor SSxy se obtiene con:

(fórmula 77) SSxy = ∑ (Xi – )*(yi –

(Xi – ) = cada valor de X menos la media de X


(yi – = cada valor de y menos la media de y

El valor SSxx se obtiene con:

(fórmula 78) SSxx = ∑ (Xi – )2

(Xi – )2 = cada valor de X menos la media de X al cuadrado


.

188
Capítulo 13. Correlación y regresión
________________________________________________________________________

El valor β0 se obtiene con la fórmula siguiente:

(fórmula 79) Β0= – β1

= media de y
= media de x

Del ejemplo 13.2 calculamos β1 y β0

El valor SSxy = 26,4 y el valor SSxx = 40,4.

Ahora reemplazamos en la fórmula 76:

β1 = 26,4 = 0,653
40,4

Ahora reemplazamos en la fórmula 79:

β0 = 3,4 – (0,653 * 5,4) = 3,4 – 3,526 = -0,126

La recta de regresión de y sobre X es por lo tanto:

y = -0,126 + 0,653 * Xi

Por ejemplo, si X tuviese un valor de 10, ¿cuál sería el valor de y?

y = -0,126 + (0,653 * 10) = -0,126 + 6,53 = 6,404

Es decir, si X adquiere un valor de 10 el valor de y sería de 6,404

189
Fernando Maureira Cid
________________________________________________________________________

CONTRASTE DE HIPOTESIS DE LA REGRESIÓN LINEAL SIMPLE

 Paso 1:
Realizar el contraste de hipótesis para la regresión lineal, con el fin de conocer si el
efecto de la variable X sobre la variable y es significativo. Por eso se plantean las
siguientes hipótesis:

H 0 = β1 = β0
H 1 = β1 ≠ β0

Luego se calcula la varianza residual (Sr2) con la siguiente fórmula:

(fórmula 80) Sr2 = SSyy – β1 SSxy


n–2

SSyy = ∑(yi – )2 = cada valor de y menos la media de y al cuadrado

SSyy = 18,4
β1 = 0,653
SSxy = 26,4
n = 10

Ahora reemplazamos en la fórmula 80:

Sr2 = 18,4 – (0,653*26,4) = 18,4 – 17,239 = 1,161 = 0,145


10 – 2 8 8

190
Capítulo 13. Correlación y regresión
________________________________________________________________________

 Paso 2:
Calcular el estadístico de contraste t para regresión lineal con la siguiente fórmula:

(fórmula 81)

b1 = constante 0

Con los datos anteriores reemplazamos en la fórmula 81:

Contrastar el valor t obtenido con el valor crítico de t del anexo 2 con un α=0,05 y n – gl
(10 – 2 = 8) que en este caso es de 1,85 y seguir la siguiente regla de decisión:

 Si el valor t calculado es menor al valor t de la tabla se debe aceptar la H0.


 Si el valor t calculado es igual o mayor al valor t de la tabla se debe rechazar la H0.

1,85 < 10,919 podemos concluir que existen efectos significativos de la práctica de
actividad física sobre el estrés de los 10 estudiantes universitarios evaluados.

13.3 CORRELACIÓN DE PEARSON


EN SPSS

En primer lugar debemos constatar que se cumplen los supuestos para la aplicación de
una correlación de Pearson:

a) Distribución normal de las variables (con la prueba KS)


b) Naturaleza numérica de las variables.
c) Ambas variables deben ser independientes.

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Correlación
 Bivariada

191
Fernando Maureira Cid
________________________________________________________________________

En el cuadro de la figura 13.2 aparece un rectángulo a la izquierda con la lista de nues-


tras variables. Tomamos las dos o más variables que deseamos relacionar y las llevamos
al cuadro derecho. Por defecto aparece marcada la opción Pearson.
Hecho esto presionamos Aceptar.

Figura 13.1 Correlación de Pearson en el menú del SPSS 22.0.

Figura 13.2 Pantalla de correlación de Pearson en el SPSS 22.0.

La hoja de cálculos del programa nos entrega una tabla como la 12.1 en la cual se
observa la correlación de Pearson, la Sig. o valor p y el número de sujetos de la muestra.
Se debe contrastar el valor p calculado (p=0,010) siendo p<0,05 se debe rechazar la

192
Capítulo 13. Correlación y regresión
________________________________________________________________________

hipótesis nula que plantea que no existe relación entre la variables.


Además, el valor de r =0,211 lo que significa que la relación es positiva y baja.

Tabla 13.1 Correlaciones de Pearson.

13.4 CORRELACIONES PARCIALES


EN SPSS

Esta prueba se utiliza para determinar si existe una relación lineal entre dos variables,
pero controlando el posible efecto de una tercera variable y determinar si esa relación es
estadísticamente significativa (no se debe al azar).
En primer lugar debemos constatar que se cumplen los supuestos para la aplicación de
una correlación Bivariada:

a) Distribución normal de las variables (con la prueba KS)


b) Naturaleza numérica de las variables.
c) Todas las variables deben ser independientes.

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Correlación
 Parcial

En el cuadro de la figura 13.4 aparece un rectángulo a la izquierda donde se encuentra


la lista de nuestras variables. Tomamos las dos variables que deseamos relacionar y la
llevamos al cuadro superior derecho. Luego llevamos la variable que deseamos
controlar al cuadro inferior derecho.
Hecho esto presionamos Aceptar.

193
Fernando Maureira Cid
________________________________________________________________________

Figura 13.3 Correlación parcial en el menú del SPSS 22.0.

Figura 13.4 Pantalla de correlación parcial en el SPSS 22.0.

La hoja de cálculos del programa nos entrega una tabla como la 13.2 donde se observa la
correlación parcial entre la variable 1 y 2 (r= 0,128) controlando la variable 3.
El investigador debe utilizar la misma regla de correlación que en el coeficiente de
correlación de Pearson.
También debe contrastar el valor p calculado (p=0,128) siendo p>0,05 se debe aceptar la
hipótesis nula que plantea que no existe relación entre las variables.

194
Capítulo 13. Correlación y regresión
________________________________________________________________________

Tabla 13.2 Correlaciones parciales.

..

13.5 REGRESIÓN LINEAL SIMPLE


EN SPSS

En primer lugar debemos constatar que se cumplen los supuestos para la aplicación de
una regresión simple:

a) Distribución normal de las variables (con la prueba KS)


b) Naturaleza numérica de las variables.
c) Ambas variables deben ser independientes.
d) Homocedasticidad
e) Linealidad de los parámetros.

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Regresión
 Simple

Figura 13.5 Regresión lineal en el menú del SPSS 22.0.

195
Fernando Maureira Cid
________________________________________________________________________

En el cuadro de la figura 13.6 aparece un rectángulo a la izquierda donde se encuentra


la lista de nuestras variables.
Tomamos la variable dependiente y la llevamos al cuadro superior derecho
(dependiente). Luego tomamos la variable independiente y la llevamos al cuadro medio
derecho (independiente).
Hecho esto presionamos Estadísticos y se abre una pantalla como la figura 13.7, donde
Estimaciones y Ajuste del modelo viene predeterminado, nosotros presionamos
Descriptivos y Durbin-Watson.

Figura 13.6 Pantalla de regresión lineal en el SPSS 22.0.

Figura 13.7 Estadísticos de la regresión lineal simple en el SPSS 22.0.

Luego presionamos Continuar para volver a la pantalla de regresión lineal y


presionamos Aceptar.

196
Capítulo 13. Correlación y regresión
________________________________________________________________________

La hoja de cálculos del programa nos entrega unas tablas como las siguientes:

Tabla 13.3 Estadísticos descriptivos

Tabla 13.4 Correlaciones

En la tabla 13.3 se observa la media, la desviación estándar y la cantidad de sujetos para


las dos variables.
En la tabla 13.4 se observa la correlación de Pearson entre las dos variables. El
investigador puede ver que existe correlación entre ellas (p=0,000) y esta es positiva y
media (r=0,447).

Tabla 13.5 variables entradas/eliminadas

Tabla 13.6 Resumen del modelo

197
Fernando Maureira Cid
________________________________________________________________________

La tabla 13.5 muestra las variables predictoras introducidas en el modelo de regresión


lineal.
En la tabla 13.6 se observa el coeficiente de correlación múltiple (R) que corresponde a la
correlación de Pearson de las dos variables, el coeficiente de determinación (R
cuadrado) que expresa la proporción de varianza de la variable dependiente que es
explicada por la variable independiente (en el ejemplo, R2 nos muestra que el 20% de la
variable dependiente es explicada por la variable independiente), el coeficiente de R2
corregido, el error estándar de la estimación que corresponde a una medida de la
variabilidad de la variable dependiente que no es explicada por la recta de regresión (se
obtiene con la raíz cuadrada de la media cuadrática residual que se observa en la tabla
de ANOVA siguiente) y Durbin-Watson que muestra la correlación de los residuos, en
valores que oscilan entre 0 y 4, siendo los valores mayores a 2,5 los que indican
autocorrelación positiva, los valores menores a 1,5 autocorrelación negativa y los
valores entre 1,5 y 2,5 independencia de los residuos (esta última opción es necesaria
para el modelo de regresión lineal).

Tabla 13.7 ANOVA de la regresión lineal

En la tabla 13.7 se observa el ANOVA con la suma de cuadrados de la recta de


regresión, la suma de cuadrados residuales (donde los valores residuales corresponden
a la desviación estándar de las distancias existentes entre las puntuaciones de la variable
dependiente y los pronósticos realizados con la recta de regresión), los grados de
libertad de la recta de regresión (n – 1 = 2 – 1 = 1), los grados de libertad de los valores
residuales (n – 2 = 45 – 2 = 43), la media cuadrática de la recta de regresión, la media
cuadrática de los valores residuales, el valor F y la Sig. o valor p.
Ahora el investigador debe contrastar el valor F calculado con el valor crítico de F.
También debe contrastar el valor p calculado (p=0,000) siendo p<0,05 se debe rechazar la
hipótesis nula que plantea que no existe relación lineal entre ambas variables.

Tabla 13.8 Coeficientes de la regresión lineal

198
Capítulo 13. Correlación y regresión
________________________________________________________________________

En la tabla 13.8 se observan las características de la ecuación de regresión de la recta: el


coeficiente no estandarizado de la constante que corresponde al valor que toma la
variable dependiente cuando la variable independiente vale 0. Es el punto en que la
recta corta el eje vertical, el coeficiente no estandarizado de la variable independiente
que corresponde a la pendiente de la recta, el error estándar de los coeficientes no
estandarizados de la constante y de la variable dependiente, el coeficiente estandarizado
de la variable dependiente, el valor t de la constante, el valor t de la variable
independiente y la Sig, o valor p de la constante y de la variable independiente.
El coeficiente no estandarizado de la constante más el coeficiente no estandarizado de la
variable independiente (1,577 + 0,516 = 2,093) indica que a cada valor de la variable X le
corresponde un pronóstico de Y multiplicado por 2,093. Por ejemplo, si X= 2,500 es
posible predecir un valor de Y= 2,093*2,500 que es igual a 5,2325.

Tabla 13.9 Estadísticos de residuos

.
La tabla 12.9 muestra los estadísticos descriptivos (mínimo, máximo, media, desviación
estándar y número de sujetos) de los residuos de la ecuación de regresión. Es
importante que las medias del residuo bruto, valor pronosticado típico y residuo típico
sean de cero.

199
Fernando Maureira Cid
________________________________________________________________________

200
Capítulo 13. Correlación y regresión
________________________________________________________________________

201
Fernando Maureira Cid
________________________________________________________________________

202
Capítulo 14. Comparación de dos grupos
________________________________________________________________________

________________________________________________________________________

Los análisis no paramétricos tienen 14.1 PRUEBA U DE


las siguientes características: MANN-WHITNEY

 No necesitan tener una distribución Nivel de medición:


normal. Ordinal
 Se basa en frecuencias, modas y
rangos. Esta prueba se utiliza para compa-
 Sus variables son categóricas. rar la media de dos muestras que no
están relacionadas entre sí y determinar
Si nuestros datos presentan estas si la diferencia entre ambos es estadís-
características, debemos buscar los análi- ticamente significativa (no se debe al
sis más adecuados según sea el problema azar). La variable dependiente debe ser
de investigación (comparación o asocia- de nivel ordinal. Es equivalente a la
ción). prueba t para muestras independientes.

Ejemplo 14.1
Un investigador evaluó los niveles de estrés de un conjunto de 9 profesores de
educación física de dos colegios de Santiago. El nivel de estrés se midió en una escala de
0= nada, 1=bajo, 2=medio y 3=alto. Los resultados fueron los siguientes:

Ahora el investigador quiere saber si existen diferencias significativas entre los puntajes
alcanzados por los profesores de los dos colegios.

 Paso 1:
Asignar un rango a cada puntaje obtenido ordenándolos de menor a mayor (los dos
grupos juntos). El rango corresponde a la suma del número de orden de los mismos va-

203
Fernando Maureira Cid
________________________________________________________________________

lores dividido por el número de valores iguales.

 Paso 2:
Calcular la suma de rangos de cada grupo (∑Rx)

 Paso 3:
Calcular el valor U de Mann-Whitney (U) con la siguiente fórmula:

(fórmula 82)

n1 y n2 = número de casos del grupo 1 y 2


nx = número de casos de cada grupo
∑Rx = suma de rangos de cada grupo

Con el ejemplo 14.1 reemplazamos en la fórmula 82:

204
Capítulo 14. Comparación de dos grupos
________________________________________________________________________

Utilizando el valor menor obtenido en la prueba comparamos con el número de la tabla


de valores críticos U de Mann Whitney (Anexo 11) ubicando el n del grupo 1 en los
valores verticales y el n del grupo 2 en los horizontales. En el ejemplo, n1=5 y n2= 4, la
intersección entrega un valor= 1

Luego seguimos la siguiente regla de decisión:

 Si el valor U obtenido es menor o igual al valor de la tabla se debe rechazar H0.


 Si el valor U obtenido es mayor al valor de la tabla se debe aceptar H0.

En el ejemplo 14.1 el valor U es de 6,5 > 1, se debe aceptar H0 y concluir que no existen
diferencias en los niveles de estrés de los profesores de educación física de los dos
colegios de Santiago.
Si alguno de los grupos tiene 20 o más casos no es posible utilizar la tabla de U de
Mann-Whitney, entonces el valor U debe convertirse en puntuación Z con la siguiente
fórmula:

(fórmula 83)

Para la puntuación Z se puede utilizar cualquiera de los dos U calculadas.


Reemplazamos con la U menor en la fórmula 83:

205
Fernando Maureira Cid
________________________________________________________________________

El valor Z obtenido debe ser contrastado con el valor Z para un α=0,05. Como -0,857 <
1,96 se debe aceptar la H0 que plantea la igualdad de medias entre los dos grupos.

14.2 PRUEBA DE RANGOS DE dos medias de la misma muestra y deter-


WILCOXON minar si la diferencia entre ambas es
estadísticamente significativa (no se debe
Nivel de medición: al azar). La variable dependiente debe
Ordinal ser de nivel ordinal. Esta prueba es
equivalente a la prueba t para muestras
Esta prueba se utiliza para comparar relacionadas.

Ejemplo 14.2
Un investigador evaluó los niveles de confianza de 6 jugadores de fútbol reservas antes
y después de la aplicación de un programa psicológico orientado a la mejora de la
autopercepción. El nivel de confianza se midió en una escala de 1=bajo, 2=medio y
3=alto. Los resultados obtenidos fueron los siguientes:

Ahora el investigador quiere saber si existen efectos de dicho programa y por ende una
mejora en la confianza de los jugadores reservas.

 Paso 1:
Obtener la diferencia entre la primera y segunda medición de cada sujeto. Luego
asignar un rango a cada puntaje obtenido de la misma forma que en la prueba U de
Mann-Whitney (no se deben considerar las diferencias de cero).

206
Capítulo 14. Comparación de dos grupos
________________________________________________________________________

Por cada empate es necesario restar un sujeto al n del grupo.

 Paso 2:
La suma de rangos con menor valor debe ser contrastado con los valores críticos de W
(Anexo 12) con el número de sujetos ajustados y un α=0,05. Para el ejemplo .2 con 0
rangos positivos y un n= 6 – 1= 5 se obtiene un valor W de cero.

Luego se debe aplicar la siguiente regla de decisión:

 Si el valor W obtenido es menor o igual al valor de la tabla de valores críticos de


W se debe rechazar H0.
 Si el valor W obtenido es mayor al valor de la tabla de valores críticos de W se
debe aceptar H0.

Por lo tanto, como el valor W obtenido es 0 = 0 concluimos que se debe rechazar H0 y


por lo tanto, existen diferencias entre la primera y segunda medición en los jugadores
reservas de fútbol, aumentando sus niveles de confianza.

Si el grupo tiene más de 25 casos no es posible utilizar la tabla de Wilcoxon, entonces el


valor W debe convertirse en puntuación Z con la siguiente fórmula:

207
Fernando Maureira Cid
________________________________________________________________________

(fórmula 84) ZT = W – T

ST
W = valor estadístico de Wilcoxon
T = Media de la T de Wilcoxon

ST = Desviación estándar de la T de Wilcoxon

El valor T se calcula con la siguiente fórmula:

(fórmula 85) T = n*(n + 1)


4
n = tamaño de la muestra

El valor ST se calcula con la siguiente fórmula:

(fórmula 86)

Reemplazamos en la fórmula 85 y 86:

T = 6*(6 + 1) = 6*7 = 42 = 10,5


4 4 4

Ahora con los valores de T y ST reemplazamos en la fórmula 84:

ZT = (0 – 10,5) = -10,5 = -2,201


4,770 4,770

El valor Z obtenido debe ser contrastado con el valor Z para un α=0,05. Como 2,20 >
1,96 se debe rechazar la H0 que plantea la igualdad de medias entre las dos mediciones.

14.3 PRUEBA DE CHI-CUADRADO dos o más grupos independientes de


proporciones organizadas en una tabla
Nivel de medición: de contingencia y determinar si las
Nominal diferencias son estadísticamente signifi-
cativas (no se debe al azar). La variable
Esta prueba se utiliza para comparar dependiente debe ser de nivel nominal.

208
Capítulo 14. Comparación de dos grupos
________________________________________________________________________

Ejemplo 14.3
Un investigador evaluó los estilos de enseñanza de profesores de educación física
clasificándolos en tradicionales, que fomenta la participación del alumno y que implica
cognoscitivamente al alumno. Ahora se desea conocer si existen diferencias en la
preferencia de cada estilo de enseñanza entre profesores hombres y mujeres.

 Paso 1:
Organizar una tabla de contingencia donde en la columnas se representan los grupos y
en las fila las categorías. Luego sumar los totales marginales por columnas y filas.

 Paso 2:
Obtener la frecuencia esperada (fe) para cada valor con la siguiente fórmula:

fe= X1 * X2 (fórmula 87)


N
X1 = valor total de la fila
X2 = valor total de la columna
N = número de sujetos

Con el ejemplo 14.3 reemplazamos en la fórmula 87:

fe1 = (7*10) / 19 = 3,68


fe2 = (7*10) / 19 = 3,68
fe3 = (5*10) / 19 = 2,63
fe4 = (7*9) / 19 = 3,32
fe5 = (7*9) / 19 = 3,32
fe6 = (5*9) / 19 = 2,37

 Paso 3:
Calcular el valor de Chi-cuadrado (X2) con la siguiente fórmula:

209
Fernando Maureira Cid
________________________________________________________________________

(fórmula 88)

f0 = frecuencia observada
fe = frecuencia esperada

Con el ejemplo 13.3 reemplazamos en la fórmula 88:

X2 = (2–3,68)2 + (5–3,68)2 + (3–2,63)2 + (5–3,32)2 + (2–3,32)2 + (2–2,37)2


3,68 3,68 2,63 3,32 3,32 2,37

= (-1,68)2 + (1,32)2 + (0,37)2 + (1,68)2 + (-1,32)2 + (-0,37)2


3,68 3,68 2,63 3,32 3,32 2,37

= 2,82 + 1,74 + 0,14 + 2,82 + 1,74 + 0,14 = 0,77 + 0,47 + 0,05 + 0,85 + 0,52 + 0,06
3,68 3,68 2,63 3,32 3,32 2,37

= 2,72

 Paso 4:
Calcular los grados de libertad de X2 con la siguiente fórmula:

(fórmula 89) gl= (f – 1)*(c – 1)

f = número de filas
c = número de columnas

Del ejemplo 14.3 reemplazamos en la fórmula 89:

gl = (3 – 1)*(2 – 1) = 2*1 = 2

El valor X2 fue de 2,72 ahora se debe encontrar el valor crítico de X2 (Anexo 8), donde
debemos ubicar los gl (en este caso 2) y un nivel de confianza de 0,05.

210
Capítulo 14. Comparación de dos grupos
________________________________________________________________________

Con los datos del ejemplo 14.3 el valor X2 de la tabla es 5,991.


Ahora debemos seguir la regla de decisión:

 Si el valor X2 calculado es menor al valor X2 de la tabla se debe aceptar la H0.


 Si el valor X2 calculado es igual o mayor al valor X2 de la tabla se debe rechazar la
H 0.

Como X2 = 2,72 < 5,991 se debe aceptar H0 y podemos decir que no existen diferencias
entre los grupos.
Por lo anterior, es que el investigador puede concluir que los profesores de educación
física hombres y mujeres no poseen diferentes estilos de enseñanza.

14.4 PRUEBA DE CHI-CUADRADO dos grupos independientes de propor-


2x2 ciones organizadas en una tabla de con-
tingencia de 2 X 2 (dos columnas y dos
Nivel de medición: filas) y determinar si las diferencias son
Nominal estadísticamente significativas (no se de-
be al azar). La variable dependiente debe
Esta prueba se utiliza para comparar ser de nivel nominal.

Ejemplo 14.4
Un investigador evaluó si la actividad física es un factor protector para no fumar. Para
ello se entrevistó a 19 personas, de las cuales 11 decían realizar actividad física, en tanto
8 no lo hacían. Por otra parte, del total de la muestra 9 afirman fumar y 10 afirmaban no
hacerlo..

 Paso 1:
Organizar una tabla de contingencia donde en la columnas se representan los grupos y
en las fila las categorías. Luego sumar los totales marginales por columnas y filas.

A, B, C y D son las frecuencias observadas.

 Paso 2:
Calcular el valor de X2 con la siguiente fórmula:

211
Fernando Maureira Cid
________________________________________________________________________

(fórmula 90) X2 = N*[(AD – BC) – (N/2)]2 .


(A+B)*(C+D)*(A+C)*(B+D)

En el ejemplo 14.4 reemplazamos en la fórmula 90:

X2 = 19*[((3*2) – (8*6)) – (19/2)]2 = 19*[(6 – 48) – 9,5]2 = 19*[(-42) – 9,5]2


(3+8)*(6+2)*(3+6)*(8+2) 11*8*9*10 7920

= 19*(-51,5)2 = 19*2652,25 = 50392,75 = 6,36


7920 7920 7920

El valor X2 fue de 6,36 ahora se debe encontrar el valor crítico de X2 (Anexo 8), donde
debemos ubicar siempre 1 gl y un nivel de confianza de 0,05.

Con los datos del ejemplo 14.4 el valor X2 de la tabla es 3,841.


Ahora debemos seguir la regla de decisión:

 Si el valor X2 calculado es menor al valor X2 de la tabla se debe aceptar la H0.


 Si el valor X2 calculado es igual o mayor al valor X2 de la tabla se debe rechazar la
H 0.

Como X2= 6,36 > 3,841 se debe rechazar H0 y podemos decir que existen diferencias entre
los grupos.

Por lo anterior, es que el investigador puede concluir que las personas que realizan
actividad física tienen menos tendencia a fumar que las personas que no realizan
actividad física.

212
Capítulo 14. Comparación de dos grupos
________________________________________________________________________

14.5 PRUEBA DE McNEMAR dos muestras relacionadas (el mismo


grupo antes y después) pero cuando la
Nivel de medición: variable dependiente es dicotómica y
Nominal determinar si las diferencias son estadís-
ticamente significativas (no se debe al
Esta prueba se utiliza para comparar azar).

Ejemplo 14.5
Un investigador quiere saber si una charla de beneficios de la actividad física puede
incentivar a un grupo de personas a inscribirse en un gimnasio. Para ello se evaluó a los
sujetos antes y después de la intervención. Ahora se desea conocer si existieron cambios.

 Paso 1:
Organizar una tabla donde:
La celdilla A (cruce de asistirán al gimnasio) se ubica la cantidad de sujetos que
mantienen su respuesta positiva hacia el gimnasio.
En la celdilla B (cruce de asistirán y no asistirán al gimnasio) se ubican los sujetos que
cambian su respuesta de positiva a negativa hacia el gimnasio.
La celdilla C (cruce de no asistirán y asistirán al gimnasio) se ubican los sujetos que
cambian su respuesta de negativa a positiva hacia el gimnasio.
La celdilla D (cruce de no asistirán la gimnasio) se ubican los sujetos que mantienen su
respuesta negativa hacia el gimnasio.

Después

 Paso 2:
Calcular el valor X2 con la siguiente fórmula:

X2 = [(B – C) – 1]2. (fórmula 91)


B+C

Con el ejemplo 14.5 reemplazamos en la fórmula 91:

X2 = [(0 – 5) – 1]2 = -62 = 36 = 7,2


0+5 5 5

213
Fernando Maureira Cid
________________________________________________________________________

El valor X2 fue de 7,2 ahora se debe encontrar el valor crítico de X2 (Anexo 8), donde
debemos ubicar siempre 1 gl y un nivel de confianza de 0,05.
Con los datos del ejemplo 14.5 el valor X2 de la tabla es 3,841.
Ahora debemos seguir la regla de decisión:

 Si el valor X2 calculado es menor al valor X2 de la tabla se debe aceptar la H0.


 Si el valor X2 calculado es igual o mayor al valor X2 de la tabla se debe rechazar la
H 0.

Como X2 = 7,2 > 3,841 se debe rechazar H0 y podemos decir que existen diferencias entre
los grupos.
Por lo anterior, es que el investigador puede concluir que las personas que reciben una
charla sobre los beneficios de la actividad física tienden a cambiar su opinión sobre la
inscripción en un gimnasio.

14.6 PRUEBA Z DE PROPORCIONES debemos basarnos en una aproximación


normal de la distribución binominal y un
Nivel de medición: estadístico Z. De esta forma, podemos
Ordinal determinar si existen diferencias signifi-
cativas (no se deben al azar) entre dos
Para realizar un contraste de hipóte- porcentajes que provienen de dos pobla-
sis entre dos proporciones independientes ciones independientes.

Ejemplo 14.6
Un investigador desea conocer si existen diferencias entre el porcentaje de estudiantes
que poseen un IMC normal (72 sujetos, 62% del total) y los que presentan sobrepeso (30
sujetos, 26% del total) en los cursos de enseñanza secundaria de un colegio de Santiago.

 Paso 1:
Calcular el valor de Z con la siguiente fórmula:

(fórmula 92)

P1 y P2 = Porcentaje grupo 1 y 2 respectivamente (expresado en 0,25; 0,72; 0,85, etc.)


q1 y q2 = 1 – p del grupo 1 y 2 respectivamente
N1 y N2 = número de la muestra 1 y 2 respectivamente

..

214
Capítulo 14. Comparación de dos grupos
________________________________________________________________________

En el ejemplo 14.6 reemplazamos en la fórmula 92:

 Paso 2:
Ahora contrastamos la puntuación Z con la distribución normal de puntuaciones Z con
el correspondiente nivel de confianza escogido. En contrastes unilaterales (también
llamados de una cola) para un nivel de 0,05 la puntuación Z es de -1,65 a +1,65. Para un
nivel de 0,01 la puntuación Z es de -2,33 a +2,33. En contrastes bilaterales (también
llamados de dos colas) para un nivel de 0,05 la puntuación Z es de -1,96 a + 1,96. Para un
nivel de 0,01 la puntuación Z es de -2,58 a +2,58.

En el ejemplo 14.6 la puntuación Z= 3,78 > 2,58 razón por la cual se rechaza H 0 y se
asume que existen diferencias entre el porcentaje de estudiantes de la muestra con IMC
normal y con sobrepeso.

14.7 PRUEBA U DE
MANN-WHITNEY EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Pruebas no paramétricas
 Cuadro de diálogo antiguo
 Dos muestras independientes

En el cuadro de la figura 14.2 aparece un rectángulo a la izquierda donde se encuentra


la lista de nuestras variables. Tomamos la variable dependiente y la llevamos al cuadro
superior derecho (lista de variables de prueba). Luego llevamos la variable de
agrupación al cuadro inferior derecho. Por defecto se encuentra marcada la prueba U de
Mann-Whitney.

Hecho esto presionamos definir grupos abriéndose un cuadro como la figura 14.3.

215
Fernando Maureira Cid
________________________________________________________________________

Figura 14.1 Prueba U de Mann-Whitney en el menú del SPSS 22.0.

Figura 14.2 Pantalla de pruebas para dos muestras independientes en el SPSS 22.0.

Figura 14.3 Pantalla de pruebas para dos muestras independientes (definir grupos) en el
SPSS 22.0.

216
Capítulo 14. Comparación de dos grupos
________________________________________________________________________

En el cuadro 14.3 de definen los códigos de los dos grupos que se desean comparar.
Luego se presiona Comparar y se vuelve a la pantalla de la figura 14.2. Presionamos
Aceptar.

La hoja de cálculos del programa nos entrega las tabla siguientes:

Tabla 14.1 Rangos de la prueba U de Mann-Whitney.

Tabla 14.1 Rangos de la prueba U de Mann-Whitney.

En la tabla 14.1se observa los grupos comparados, el número de sujetos por grupo (76 y
71), la suma de rangos y el rango promedio que se obtiene con la suma de rangos
dividido por el número de observaciones del grupo.

Tabla 14.2 Estadísticos de prueba U de Mann-Whitney.

En la tabla 14.2 se observan valores de las pruebas U de Mann-Whitney y la W de


Wilcoxon. Además se aprecia el valor Z y un valor Sig. de la prueba.

Ahora el investigador debe contrastar el valor Z de la tabla con el valor crítico Z (-0,371
< 1,96).
También debe contrastar el valor p calculado (p=0,711) siendo p>0,05 se debe aceptar la
hipótesis nula que plantea que no existe diferencia entre la media de los grupos.

217
Fernando Maureira Cid
________________________________________________________________________

14.7 PRUEBA DE WILCOXON


EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Pruebas no paramétricas
 Cuadro de diálogo antiguo
 Dos muestras relacionadas
.

Figura 14.4 Prueba de Wilcoxon en el menú del SPSS 22.0.

Figura 14.5 Pantalla Pruebas para dos muestras relacionadas en el menú del SPSS 22.0.

218
Capítulo 14. Comparación de dos grupos
________________________________________________________________________

En el cuadro de la figura 14.5 aparece un rectángulo a la izquierda donde se encuentra


la lista de nuestras variables. Tomamos las dos mediciones del mismo grupo que
deseamos comparar y la llevamos al cuadro derecho. Por defecto aparece marcada la
opción Wilcoxon. Luego presionamos Aceptar.
La hoja de cálculos del programa nos entrega las dos tablas siguientes:

Tabla 14.3 Rangos de la prueba de Wilcoxon.

Tabla 14.4 Estadísticos de la prueba de Wilcoxon.

En la tabla 14.3 se muestran los rangos promedio y la suma de rangos de cada grupo
que se comparan con la prueba de Wilcoxon.
En la tabla 14.4 se observan el valor Z y un valor Sig. de la prueba.

Ahora el investigador debe contrastar el valor Z de la tabla con el valor crítico Z (-1,900
< 1,96).
También debe contrastar el valor p calculado (p=0,057) siendo p>0,05 se debe aceptar la
hipótesis nula que plantea que no existe diferencia entre las dos mediciones del grupo.

14.8 PRUEBA DE CHI-CUADRADO


EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Estadísticos descriptivos
 Tablas cruzadas

219
Fernando Maureira Cid
________________________________________________________________________

Figura 14.6 Prueba de X2 en el menú del SPSS 22.0.

En el cuadro de la figura 14.7 aparece un rectángulo a la izquierda donde se encuentra


la lista de nuestras variables.
Tomamos la variable dependiente y la llevamos al cuadro superior derecho (Filas). Lue-
go tomamos la variable independiente (la variable de agrupación, por ejemplo sexo) y la
llevamos al cuadro medio derecho (columnas).

Figura 14.7 Pantalla de tablas cruzadas en el SPSS 22.0.

En la figura 14.7 presionamos Estadísticos y se abre una pantalla como la figura 14.8,
aquí marcamos la opción Chi Cuadrada. Hecho esto presionamos continuar para volver
a la pantalla de tablas de contingencia y presionamos Aceptar.

220
Capítulo 14. Comparación de dos grupos
________________________________________________________________________

Figura 14.8 Estadísticos en tablas cruzadas en el SPSS 22.0.

La hoja de cálculos del programa nos entrega unas tablas como las siguientes:

Tabla 14.5 Tabla de tabulación cruzada.

Tabla 14.6 Prueba de chi-cuadrado.

..

221
Fernando Maureira Cid
________________________________________________________________________

En la tabla 14.5 se observa la cantidad de casos femeninos en cada curso y los casos
masculinos de cada categoría.
En la tabla 14.6 se observa el valor Chi cuadrado de Pearson, la razón de verosimilitud
que corresponde a una prueba para estudiar la relación entre variables categóricas que
se interpreta igual que la prueba X2, la asociación lineal por lineal, el número total de
casos de la muestra, los grados de libertad de X2, los grados de libertad de la razón de
verosimilitud que se obtiene de igual forma que los gl de X2, los grados de libertad de la
asociación lineal por lineal y la Sig. o valor p de la prueba X2, razón de verosimilitud y
de la asociación lineal por lineal.

Ahora el investigador debe contrastar el valor X2 calculado con el valor crítico de X2


(Anexo 8) obteniendo: 1,447 < 7,815.
También debe contrastar el valor p calculado (p=0,695) siendo p>0,05 se debe aceptar la
hipótesis nula que plantea la igualdad entre las categorías de los dos grupos.

14.9 PRUEBA DE CHI-CUADRADO


2x2 EN SPSS

El procedimiento es exactamente igual a la prueba de X2. La hoja de cálculos del


programa nos entrega las dos tablas siguientes:

Tabla 14.7 Tabla de tabulación cruzada.

Tabla 14.8 Prueba de chi-cuadrado 2x2.

222
Capítulo 14. Comparación de dos grupos
________________________________________________________________________

En la tabla 14.7 se observan la cuatro combinaciones posibles (femenino curso 1,


femenino curso 2, masculino curso 1 y masculino curso 2) con el número de sujetos de
cada categoría.
En la tabla 14.8 se observa el valor Chi cuadrado de Pearson (X2), la corrección de
continuidad que corresponde a un análisis de ajuste para X2 en una tabla de
contingencia de 2x2, la razón de verosimilitud, la prueba exacta de Fisher que permite
asociar dos variables dicotómicas cuando el 20% o más de las casillas presentan
frecuencias esperadas inferiores a 5 (con un p<0,05 se rechaza la H0 de independencia
de las variables, por lo tanto, ambas se encuentran asociadas), la asociación lineal por
lineal, el número total de casos de la muestra, los grados de libertad de X2, de la
corrección por continuidad, de la razón de verosimilitud y de la asociación lineal por
lineal (en todos los casos siempre será 1) y la Sig. o valor p de la prueba X2, de la
corrección de continuidad, de la razón de verosimilitud y de la asociación lineal por
lineal.
Ahora el investigador debe contrastar el valor p de la corrección por continuidad
calculado con el valor crítico de X2 (Anexo 8) obteniendo: 0,332 > 3,841.
También debe contrastar el valor p calculado (p=0,211) siendo p>0,05 se debe aceptar la
hipótesis nula que plantea la igualdad entre las categorías de los dos grupos.

14.10 PRUEBA DE McNEMAR EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Pruebas no paramétricas
 Cuadro de diálogo antiguo
 Dos muestras relacionadas

Figura 14.9 Pantalla Pruebas para dos muestras relacionadas en el SPSS 22.0.

223
Fernando Maureira Cid
________________________________________________________________________

En el cuadro de la figura 14.9 aparece un rectángulo a la izquierda donde se encuentra


la lista de nuestras variables.
Tomamos las dos mediciones dicotómicas del mismo grupo que deseamos comparar y
la llevamos al cuadro derecho. Marcamos la opción McNemar. Luego presionamos
Aceptar.

La hoja de cálculos del programa nos entrega las dos tablas siguientes:

Tabla 14.9 Tabla de tabulación cruzada.

Tabla 14.10 Estadísticos de la prueba de McNemar.

En la tabla 14.9 se observa que de las personas que dijeron que NO en la 1° medición 40
de ellas continuaban respondiendo que NO en la segunda medición (cruce No-No de la
tabla), de las personas que dijeron que NO en la 1° medición 36 de ellas respondieron
que SI en la segunda medición (cruce No-Si de la tabla), de las personas que dijeron que
SI en la 1° medición 43 contestaron No en la segunda medición (cruce Si-No de la tabla)
y de las personas que dijeron que SI en la 1° medición 28 de ellas mantenían su
respuesta en la segunda medición (cruce Si-Si de la tabla).
En la tabla 14.10 se observa el número total de sujetos de la muestra y la Sig. o valor p
de la prueba de McNemar.
Ahora el investigador debe contrastar el X2 calculado con el valor crítico de X2 (Anexo 8)
obteniendo: 0,456 > 3,841.
También debe contrastar el valor p calculado (p=0,500) siendo p>0,05 se debe aceptar la
hipótesis nula que plantea la igualdad entre las categorías de los dos grupos.

224
Capítulo 15. Comparación de tres o más grupos
________________________________________________________________________

________________________________________________________________________

15.1 ANÁLISIS DE VARIANZA tres o más grupos de rangos indepen-


UNIFACTORIAL DE RANGOS dientes y determinar si las diferencias
DE KRUSKAL-WALLIS son estadísticamente significativas (no se
debe al azar). La variable dependiente
Nivel de medición: debe ser de nivel ordinal.
Ordinal Esta prueba es equivalente al análi-
sis de varianza de un factor en la estadís-
Esta prueba se utiliza para comparar tica paramétrica.

Ejemplo 15.1
Un investigador evaluó los niveles de IMC de estudiantes de primero, segundo y
tercero básico de un colegio de Santiago. El IMC se clasifico en 1=bajo-peso, 2=normal,
3=sobrepeso y 4=obeso. Los resultados obtenidos fueron los siguientes:

Ahora se desea conocer si existen diferencias entre los tres cursos.

 Paso 1:
Asignar un rango a cada puntaje obtenido tal como se explicó en la prueba U de Mann-
Whitney.

225
Fernando Maureira Cid
________________________________________________________________________

 Paso 2:
Calcular la suma (∑Rx) y media ( ) de rangos de cada grupo:
Rx

}
 Paso 3:
Se consideran los casos con las mismas puntuaciones como empates y el número de
casos como valor t. Por ejemplo, en la tabla anterior hay 7 casos que obtuvieron una
puntuación de 2 por lo tanto, el valor t de 2 puntos es 7.

..

226
Capítulo 15. Comparación de tres o más grupos
________________________________________________________________________

 Paso 4:
Calcular el valor de Kruskal-Wallis (KW) con la fórmula 93 si no hay empates y con la
94 si existen empates:

(fórmula 93)

N = número total de casos


n = número de casos de cada grupo
R = media de rangos de cada grupo

(fórmula 94)

N = número total de casos


n = número de casos de cada grupo
R = media de rangos de cada grupo

T = número de empates en cada conjunto de rangos

Como en el ejemplo 15.1 existen empates en los rangos utilizamos la fórmula 94:

227
Fernando Maureira Cid
________________________________________________________________________

El valor KW fue de 3,587 ahora se debe encontrar el valor crítico de KW (Anexo 13),
donde debemos ubicar el número de sujetos de cada grupo (6-6-5) y un nivel de
confianza de 0,05.

Si la cantidad de sujetos de un grupo o la cantidad de grupos supera los valores de la


tabla KW se debe utilizar la tabla de valores críticos de X2 (Anexo 8). Aquí es necesario
determinar los gl que equivalen al número de grupos menos 1.
Luego se debe seguir la siguiente regla de decisión:

 Si el valor KW o X2 calculado es menor al valor KW o X2 de la tabla se debe


aceptar la H0.
 Si el valor KW o X2 calculado es igual o mayor al valor KW o X2 de la tabla se
debe rechazar la H0.

Como el valor KW= 3,587 < 5,77 se debe aceptar H0 y podemos decir que no existen
diferencias entre los grupos.
Por lo anterior, es que el investigador puede concluir que el IMC de los estudiantes de
primer, segundo y tercer año básico de un colegio de Santiago es igual.

COMPARACIONES MÚLTIPLES

Cuando obtenemos una diferencia significativa en la prueba KW es necesario


determinar entre que par de grupos existen dichas diferencias.

 Paso 1:
Calcular la diferencia de las medias de los rangos de cada grupo.

R1 – R2 = 7,00 – 8,08 = -1,08 = 1,08


R1 – R3 = 7,00 – 12,50 = -5,5 = 5,5

R2 – R3 = 8,08 – 12,50 = -4,42 = 4,42

228
Capítulo 15. Comparación de tres o más grupos
________________________________________________________________________

 Paso 2:
Calcular el valor crítico de la diferencia entre cada par de grupos con la siguiente
fórmula:

(fórmula 95)

Zα/k(k-1) = valor Z para el número de comparaciones correspondiente


N = Total de casos de todos los grupos
n1 = número de casos del primer grupo
n2 = número de casos del segundo grupo

Valores críticos de Z para el número de comparaciones múltiples

Ahora con el ejemplo 15.1 reemplazamos en la fórmula 95 con un Z para tres


comparaciones:

R2 – R3 se desarrolla y se obtiene el mismo resultado que R1 – R3

229
Fernando Maureira Cid
________________________________________________________________________

Como se puede observar ninguna diferencia entre par de grupos es mayor que los
valores críticos obtenidos al comparar los pares:

G1 – G2 = 1,08 < 6,99


G1 – G3 = 5,5 < 7,33
G2 – G3 = 4,42 < 7,33

Por lo tanto, es posible asumir que no existen diferencias entre los tres grupos
comparados.

15.2 PRUEBA DE VARIANZA POR tres o más grupos de rangos relacionados


RANGOS DE FRIEDMAN y determinar si las diferencias son esta-
dísticamente significativas (no se debe al
Nivel de medición: azar). Esta prueba corresponde a un aná-
Ordinal lisis de varianza de clasificaciones por
rangos. La variable dependiente debe ser
Esta prueba se utiliza para comparar de nivel ordinal.

Ejemplo 15.2
Un profesor evaluó los niveles de destreza técnica en la ejecución de una voltereta en
estudiantes de primer año medio en marzo, julio y octubre. Los niveles se clasificaron
en 1=mal, 2=medio, 3=bien y 4=sobresaliente. Los resultados fueron los siguientes:

Ahora se desea conocer si existen diferencias entre las tres mediciones.

 Paso 1:
Asignar un rango a cada puntaje. Se ordenan las puntuaciones de menor a mayor en
cada sujeto. Como tenemos tres mediciones el rango menor será 1 y el mayor 3. Cuando
dos mediciones sean iguales les corresponde la media de los rangos, por ejemplo, el
sujeto 1 posee tres valores diferentes, por lo tanto, sus rangos son 1, 2 y 3. Pero el sujeto
3 posee valores de 1, 1 y 2, por lo tanto, el rango de los dos primeros valores
corresponde a la suma del orden dividido en dos ((1 + 2)/2 = 1,5).

230
Capítulo 15. Comparación de tres o más grupos
________________________________________________________________________

 Paso 2:
Calcular la suma de rangos de cada grupo (∑Rx):

 Paso 3:
Se consideran los casos con las mismas puntuaciones en cada sujeto como empates y el
número de casos como valor t. Por ejemplo, en la tabla anterior el caso 3 posee dos
puntuaciones de 1,5 por lo tanto, el valor t de 1,5 puntos en ese caso es de 2. Los rangos
que aparecen solo una vez en cada sujeto reciben un valor t de 1.

La suma de t3 es igual a (8+8) + (11*1) lo que equivale a 27.

 Paso 4:
Calcular el valor de Friedman (X2r) con la fórmula 96 si no hay empates y con la 97 si
existen rangos empatados:

231
Fernando Maureira Cid
________________________________________________________________________

(fórmula 96)

N = número total de casos


k = número de mediciones
∑R2 = suma de rangos de cada medición al cuadrado

(fórmula 97)

N = número total de casos


k = número de mediciones
∑R2 = suma de rangos de cada mediciones al cuadrado
t = número de empates de cada sujeto

Con el ejemplo 15.2 reemplazamos en la fórmula 97:

X2r = (12*342) – 3*52*3*(3+1)2 = 4104 – (3*25)*(3*16) = 4104 – (75*48) = 4104 - 3600


(5*3)*(3+1) + 5*3 – 27 (15*4) + (15-27) 60 + (-12) 60 + (-6)
(3–1) 2 2

= 504 = 9,33
54

El valor X2r fue de 9,33 ahora se debe encontrar el valor crítico de X2 (Anexo 8), donde
debemos ubicar los gl y un nivel de confianza de 0,05.

Con 2 gl y un α=0,05 el valor de X2 es de 5,991. Ahora debemos seguir la regla de


decisión:

232
Capítulo 15. Comparación de tres o más grupos
________________________________________________________________________

 Si el valor X2 calculado es menor al valor X2 de la tabla se debe aceptar la H0.


 Si el valor X2 calculado es igual o mayor al valor X2 de la tabla se debe rechazar la
H 0.

Como X2 = 9,33 > 6,40 se debe rechazar H0 y podemos decir que existen diferencias entre
las diversas mediciones.
Por lo anterior, es que el profesor puede concluir que la destreza técnica en la ejecución
de la voltereta en estudiante de primer año medio mejoró entre los meses de marzo,
julio y octubre.

COMPARACIONES MÚLTIPLES

Cuando obtenemos una diferencia significativa en la prueba de Friedman es necesario


determinar entre que par de grupos existen dichas diferencias.

 Paso 1:
Calcular la diferencia de las sumas de los rangos entre cada medición.

∑R1 – ∑R2 = 6,0 – 9,0 = -3,0 = 3,0


∑R1 – ∑R3 = 6,0 – 15,0 = -9,0 = 9,0
∑R2 – ∑R3 = 9,0 – 15,0 = -6,0 = 6,0

 Paso 2:
Calcular el valor crítico de la diferencia entre cada par de grupos con la siguiente
fórmula:

(fórmula 98)

Zα/k(k-1) = valor Z para el número de comparaciones correspondiente.


N = Total de casos de todos los grupos
k = número de mediciones

Valores críticos de Z para el número de comparaciones múltiples

233
Fernando Maureira Cid
________________________________________________________________________

Ahora con el ejemplo 15.2 reemplazamos en la fórmula 98 con un Z para tres


comparaciones:

 Si el valor de las diferencias calculadas es menor al valor crítico se acepta H0.


 Si el valor de las diferencias calculadas es igual o mayor al valor crítico se rechaza
H 0.

Como se puede observar la medición 1 y 2 no presentan diferencias significativas (3,0 <


7,569) de igual forma que la medición 2 y 3 (6,0 < 7,569). En cambio sí hay diferencias
entre la medición 1 y 3 (9,0 > 7,569). Por lo tanto, es posible asumir que existen cambios
entre la medición realizada en marzo y la realizada en octubre.

15.3 PRUEBA Q DE COCHRAN tres o más grupos de rangos relacionados


con variable dependiente dicotómica y
Nivel de medición: determinar si las diferencias son estadís-
Nominal ticamente significativas (no se debe al
azar). La variable dependiente debe ser
Esta prueba se utiliza para comparar de nivel nominal.

Ejemplo 15.3
Un entrenador evaluó si un grupo de asistentes a un club deportivo seguía asistiendo a
los entrenamientos pese a la extensión del programa. Las mediciones se realizaron la
cuarta, la octava y la decimosegunda semana. Los niveles se clasificaron en 0=no asiste y
1=asiste. Ahora se desea conocer si existen diferencias entre las tres mediciones.

234
Capítulo 15. Comparación de tres o más grupos
________________________________________________________________________

 Paso 1:
Contar los aciertos por sujeto y elevarlos al cuadrado (L2). Contar los aciertos por
medición y elevarlos al cuadrado (G2).

 Paso 2:
Calcular el valor Q con la siguiente fórmula:

Q= (k – 1 *[k∑G2 – (∑G 2] (fórmula 99)


k∑L – ∑L2

L = número de aciertos por sujeto


G = número de aciertos por medición
k = número de mediciones

Con los datos del ejemplo 15.3 reemplazamos en la fórmula 99:

Q = (3 – 1)*[(3*126) – (18)2] = 2*(378 – 324) = 2*54 = 108 = 9


(3*18) – 42 54 – 42 12 12

El valor Q fue de 9, ahora se debe encontrar el valor crítico de X2 (Anexo 8), donde
debemos ubicar los gl (k – 1) y un nivel de confianza de 0,05.

235
Fernando Maureira Cid
________________________________________________________________________

Con 2 gl y un α=0,05 el valor de X2 es de 5,991. Ahora debemos seguir la regla de


decisión:

 Si el valor Q calculado es menor al valor X2 de la tabla se debe aceptar la H0.


 Si el valor Q calculado es igual o mayor al valor X2 de la tabla se debe rechazar la
H 0.

Como X2= 9 > 5,991 se debe rechazar H0 y podemos decir que existen diferencias entre
las diversas mediciones.
Por lo anterior, es que el entrenador puede concluir que los asistentes a un
entrenamiento de larga duración disminuyen a medida que se progresa en la programa,
es decir, existen muchos más participantes al comienzo del programa que a la
decimosegunda semana.

15.4 PRUEBA DE KRUSKAL-WALLIS


EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Pruebas no paramétricas
 Cuadro de diálogo antiguo
 K muestras independientes

Figura 15.1 Prueba Kruskal-Wallis en el menú del SPSS 22.0.

236
Capítulo 15. Comparación de tres o más grupos
________________________________________________________________________

En la figura 15.2 se observa el cuadro de la izquierda aparece la lista de nuestras


variables. Tomamos la variable dependiente y la llevamos al cuadro superior derecho.
Luego tomamos la variable independiente (la variable de agrupación, en este caso
cursos) y la llevamos al cuadro medio derecho (variable de agrupación). Por defecto
aparece marcada la prueba de Kruskal-Wallis.

Figura 15.2 Pantalla de Prueba para varias muestras independientes en SPSS 22.0.

Luego en la pantalla de la figura 15.2 presionamos definir rangos y colocamos las dos
etiquetas extremas de las categorías (en este caso categoría 1 y 4).
Hecho esto presionamos Continuar para volver a la pantalla de prueba para k muestras
independientes y presionamos Aceptar.

Figura 15.3 Pantalla para definir grupos en varias muestras independientes en SPSS
22.0.

La hoja de cálculos del programa nos entrega las dos tablas siguientes:

237
Fernando Maureira Cid
________________________________________________________________________

Tabla 15.1 Rangos de la prueba de Kruskal-Wallis.

Tabla 15.2 Estadísticos de la prueba de Kruskal-Wallis.

En la tabla 15.1 se observa el número de sujetos por grupo y la media de rangos de cada
grupo.
En la tabla 15.2 se muestra el valor en la distribución de Chi-cuadrado que se obtiene a
partir del estadístico de Kruskal-Wallis, los grados de libertad (n – 1, por lo tanto 3 – 1 =
2) y la Sig. o valor p.

Ahora el investigador debe contrastar el valor X2 calculado con el valor crítico de X2


(Anexo 8) obteniendo: 0,380 < 5,991
También debe contrastar el valor p calculado (p=0,537) siendo p>0,05 se debe aceptar la
hipótesis nula que plantea la igualdad de medias entre los grupos.

NOTA:

Cuando la prueba de Kruskal-Wallis entrega diferencia entre los grupos, es necesario


realizar pruebas de U de Mann-Whitney entre cada par de grupos para determinar
entre quienes existen diferencias significativas. Sin embargo, resulta necesario realizar la
corrección de Bonferroni para controlar la tasa de error (posibilidad de cometer el error
de tipo I) por la suma de comparaciones de dos grupos. Esto se realiza dividiendo el
nivel de confianza por el número de comparaciones (si son tres grupos serán necesarias
tres comparaciones de pares, por lo tanto, el valor de 0,05 se divide en tres obteniendo
un valor de sig. de 0,017) y estableciendo este límite como el nivel crítico de aceptación
o rechazo de la H0 al comparar cada par de grupos.

238
Capítulo 15. Comparación de tres o más grupos
________________________________________________________________________

15.5 PRUEBA DE FRIEDMAN


EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Pruebas no paramétricas
 Cuadro de diálogo antiguo
 K muestras relacionadas

Figura 15.4 Prueba de Friedman en el menú del SPSS 22.0.

Figura 15.5 Pantalla prueba para varias muestras relacionadas en SPSS 22.0.

239
Fernando Maureira Cid
________________________________________________________________________

En el cuadro de la figura 15.5 aparece un rectángulo a la izquierda donde se encuentra


la lista de nuestras variables. Tomamos las mediciones que deseamos comparar y las
llevamos al cuadro superior derecho. Por defecto aparece marcada la prueba de
Friedman. Luego presionamos Aceptar.

La hoja de cálculos del programa nos entrega las dos tablas siguientes:

Tabla 15.3 Rangos de la prueba de Friedman.

Tabla 15.4 Estadísticos de la prueba de Friedman.

En la tabla 15.3 se observa la media de rangos de cada grupo.


En la tabla 15.4 se observa el número de sujetos de la muestra, el valor en la distribución
de Chi-cuadrado que se obtiene a partir del estadístico de Friedman, los grados de
libertad (n – 1, por lo tanto 3 – 1 = 2) y la Sig. o valor p.
Ahora el investigador debe contrastar el valor X2 calculado con el valor crítico de X2
(Anexo 8) obteniendo: 7,611 > 5,991
También debe contrastar el valor p calculado (p=0,022) siendo p<0,05 se debe rechazar la
hipótesis nula que plantea la igualdad de medias entre las medidas.

NOTA:

Cuando la prueba de Friedman entrega diferencia entre los grupos, es necesario realizar
pruebas de U de Mann-Whitney entre cada par de grupos para determinar entre
quienes existen diferencias significativas, de igual forma que en la prueba de Kruskal-
Wallis (utilizando la corrección de Bonferroni).

240
Capítulo 15. Comparación de tres o más grupos
________________________________________________________________________

15.10 PRUEBA Q DE COCHRAN


EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Pruebas no paramétricas
 Cuadro de diálogo antiguo
 K muestras relacionadas

En el cuadro de la figura 15.6 aparece un rectángulo a la izquierda donde se encuentra


la lista de nuestras variables. Tomamos las mediciones que deseamos comparar
relacionar y la llevamos al cuadro superior derecho. Marcamos Q de Cochran y luego
presionamos Aceptar.

Figura 15.6 Pantalla prueba para varias muestras relacionadas en SPSS 22.0.

La hoja de cálculos del programa nos entrega las dos tablas siguientes:

Tabla 15.5 Frecuencias de la prueba Q de Cochran.

En la tabla 15.5 se observa la cantidad de respuestas negativas y positivas frente a una


pregunta en las mediciones 1, 2 y 3.

241
Fernando Maureira Cid
________________________________________________________________________

Tabla 15.6 Estadísticos de la prueba Q de Cochran.

En la tabla 15.6 se observa el número de sujetos, el valor de la prueba Q de Cochran, los


grados de libertad (número de grupos menos uno) y la Sig. o valor p.
Ahora el investigador debe contrastar el valor Q calculado con el valor crítico de X2
(Anexo 8) obteniendo: 941,333 > 5,991
También debe contrastar el valor p calculado (p=0,000) siendo p<0,05 se debe rechazar la
hipótesis nula que plantea la igualdad de medias entre las mediciones.

NOTA:

Cuando la prueba Q de Cochran entrega diferencia entre los grupos, es necesario


realizar pruebas de U de Mann-Whitney entre cada par de grupos para determinar
entre quienes existen diferencias significativas, de igual forma que en la prueba de
Kruskal-Wallis y Friedman.

242
Capítulo 16. Asociación de variables
________________________________________________________________________

________________________________________________________________________

16.1 COEFICIENTE DE diciones es menor a 30 y no se cumple el


CORRELACIÓN DE SPEARMAN supuesto de normalidad o los datos son
DE RANGOS ORDENADOS de tipo categóricos (al menos una de las
variables debe ser de nivel ordinal).
Nivel de medición: Esta prueba es equivalente a la co-
Ordinal rrelación de Pearson en estadística para-
métrica.
La prueba de correlación de Spear- Para llevar a cabo esta prueba debe-
man se utiliza para determinar si existe mos establecer las siguientes hipótesis:
una relación lineal entre dos variables y si
dicha relación es estadísticamente signi- H1= Existe asociación o relación entre las
ficativa (no se debe al azar). Este análisis variables X e Y.
es el más utilizado cuando es necesario H0= No existe asociación o relación entre
asociar dos variables y el número de me- las variables X e Y.

Ejemplo 16.1
Un investigador evaluó los niveles de estrés y la asistencia a un programa de actividad
física de un grupo de trabajadores de una empresa. Las variables se clasificaron en:

Estrés Asistencia al programa de act. física


1= Bajo 1= Casi nunca
2= Medio 2= Ocasionalmente
3= Alto 3= Regularmente
4= Casi siempre

Los resultados fueron los siguientes:

243
Fernando Maureira Cid
________________________________________________________________________

Ahora el investigador quiere saber si existe relación significativa entre los niveles de
estrés y la asistencia al programa, es decir, si los trabajadores que más asisten al
programa de actividad física son los mismos que tienen menores niveles de estrés. Para
ello establece las siguientes hipótesis:

H1= Existe relación entre los niveles de estrés y la asistencia al programa de actividad
física.
H0= No existe relación entre los niveles de estrés y la asistencia al programa de
actividad física.

 Paso 1:
Asignar un rango a cada puntaje obtenido tal como se explicó en la prueba U de Mann-
Whitney.

a) Variable estrés

.
a) Variable asistencia al programa de act. física

..

244
Capítulo 16. Asociación de variables
________________________________________________________________________

 Paso 2:
Calcular la diferencia de rangos de Rx y Ry y luego elevar esas diferencias al cuadrado.

.
 Paso 3:
Se consideran los casos con las mismas puntuaciones como empates y el número de
casos como valor t. Por ejemplo, en la tabla anterior hay 5 casos que obtuvieron una
puntuación de 2 puntos en la variable X por lo tanto el valor t de 2 puntos es 5.

 Paso 4:
Calcular la correlación de Spearman (rs) con la fórmula 100 cuando no hay rangos
empatados y la fórmula 101 cuando si lo hay:

(fórmula 100)

N = número de sujetos
D2 = diferencia entre los rangos de X e Y elevados al cuadrado
..

245
Fernando Maureira Cid
________________________________________________________________________

(fórmula 101)

N = número de sujetos
D2 = diferencia entre los rangos de X e Y elevados al cuadrado
T = suma de las diferencias de t3 menos t

Ahora con el ejemplo 16.1 reemplazamos en la fórmula 101

El valor rs fue de -0,749 ahora se debe encontrar el valor crítico de Spearman (Anexo
14), donde debemos ubicar el número de casos (N) y un nivel de confianza de 0,05.

Con un N= 0 y un α=0,05 el valor rs= 0,648. Ahora debemos seguir la regla de decisión:

 Si el valor rs calculado es menor al valor rs de la tabla se debe aceptar la H0.


 Si el valor rs calculado es igual o mayor al valor rs de la tabla se debe rechazar la
H 0.

246
Capítulo 16. Asociación de variables
________________________________________________________________________

Como rs = -0,790 > 0,648 se debe rechazar H0 y podemos decir que existe relación lineal
entre las diversas mediciones.
Por lo anterior, es que el investigador puede concluir que existe relación entre los
niveles de estrés y la asistencia a un programa de actividad física. Además la correlación
es alta y negativa (-0,790), es decir, que a más práctica física menores niveles de estrés.

16.2 COEFICIENTE DE que se categorizan como ausencia-pre-


CORRELACIÓN DE PHI sencia del atributo (por ejemplo, emba-
razo). Las dos variables que se desean
asociar deben tener datos de tipo
Nivel de medición:
nominales.
Nominal
Esta prueba es equivalente a una
correlación de Pearson pero de tipo bi-
La prueba de correlación de Phi o naria. Para llevar a cabo esta prueba de-
prueba de correlación de Mathews se bemos establecer las siguientes hipótesis:
utiliza para determinar si existe una rela-
ción lineal entre dos variables binarias y H1= Existe asociación o relación entre las
si dicha relación es estadísticamente sig- variables X e Y.
nificativa (no se debe al azar). Este análi- H0= No existe asociación o relación entre
sis es necesario para asociar dos variables las variables X e Y.

Ejemplo 16.2
Un investigador evaluó la práctica de algún deporte de padres e hijos obteniendo los
siguientes resultados:

Ahora el investigador desea saber si existe alguna relación entre la práctica deportiva de
los padres y la práctica deportiva de sus hijos, es decir, si los hijos de padres que
realizan algún deporte también lo realizan en forma regular.

247
Fernando Maureira Cid
________________________________________________________________________

 Paso 1:
Organizar una tabla de contingencia donde en la columnas se representan los grupos y
en las fila las categorías. Luego sumar los totales marginales por columnas y filas.

A, B, C y D son las frecuencias observadas

 Paso 2:
Calcular la correlación de Phi (rø) con la siguiente fórmula:

(fórmula 102)

Con el ejemplo 16.2 reemplazamos en la fórmula 102:

 Paso 3:
La correlación de Phi está relacionada con la prueba X2 de 2x2, por lo tanto, es necesario
calcularla con la fórmula 87.

X2 = 20*[((8*7) – (3*2)) – (20/2)]2 = 20*[(56 – 6) – 10]2 = 20*[50 – 10]2 = 20 * 402


(8+3)*(2+7)*(8+2)*(3+7) 11*9*10*10 9900 9900

= 20 * 1600 = 32000 = 3,23


9900 9900

El valor X2 fue de 3,23 ahora se debe encontrar el valor crítico de X2 (Anexo 8), donde
debemos ubicar siempre 1 gl y un nivel de confianza de 0,05.
Con los datos del ejemplo 16.2 el valor X2 de la tabla es 3,841.

248
Capítulo 16. Asociación de variables
________________________________________________________________________

Ahora debemos seguir la regla de decisión:

 Si el valor X2 calculado es menor al valor X2 de la tabla se debe aceptar la H0.


 Si el valor X2 calculado es igual o mayor al valor X2 de la tabla se debe rechazar la
H 0.

Como X2= 3,23 < 3,841 por lo tanto se debe aceptar H0 y podemos decir que no existe
relación entre los grupos.
Por lo anterior, es que el investigador puede concluir que la práctica de actividad física
de los hijos no está influenciada por la práctica de actividad física de los padres.

En caso que el estadístico X2 permita rechazar la H0, el valor Phi entrega el tipo de
correlación (positiva o negativa) y la fuerza de la asociación (baja, media o alta).

16.3 CORRELACIÓN DE SPEARMAN


EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Correlaciones
 Bivariadas

En la figura 16.1 se observa el cuadro de la izquierda aparece la lista de nuestras


variables. Tomamos las variables que deseamos correlacionar y las llevamos al cuadro
superior derecho. Marcamos Spearman y luego presionamos Aceptar.

249
Fernando Maureira Cid
________________________________________________________________________

Figura 16.1 Correlación de Spearman en el menú del SPSS 22.0.

Figura 16.2 Pantalla correlaciones bivariadas en SPSS 22.0.

La hoja de cálculos del programa nos entrega una tabla como la 16.1 donde se observa la
correlación de Spearman, la Sig. o valor p y el número de sujetos de la muestra.
La correlación de Spearman se interpreta de igual forma que Pearson.
También se debe contrastar el valor p calculado (p=0,000) siendo p<0,05 se debe
rechazar la hipótesis nula que plantea que no existe relación lineal entre las variables.

250
Capítulo 16. Asociación de variables
________________________________________________________________________

Tabla 16.1 Correlación Rho de Spearman.

16.4 CORRELACIÓN DE PHI


EN SPSS

En el paquete estadístico SPSS vamos en el menú a:

 Analizar
 Estadísticos descriptivos
 Tablas cruzadas

Figura 16.3 Correlación de Phi en el menú del SPSS 22.0.

251
Fernando Maureira Cid
________________________________________________________________________

En el cuadro de la figura 16.4 aparece un rectángulo a la izquierda donde se encuentra


la lista de nuestras variables. Tomamos las dos variables dicotómicas que deseamos
relacionar y llevamos una al cuadro superior derecho y la otra al cuadro medio derecho
(no importa cual vaya en cual cuadro).

Figura 16.4 Pantalla de tablas cruzadas en el SPSS 22.0.

Luego en la figura 16.4 presionamos estadísticos y en el cuadro nominal presionamos Phi


y V de Cramer. Hecho esto presionamos Continuar para volver a la pantalla de tablas
cruzadas y presionamos Aceptar.

La hoja de cálculos del programa nos entrega las tablas 16.2 y 16.3. En la primera se
observa la cantidad de respuestas SI y No de la variable 1 y la variable 2.
En la tabla 16.3 se observa el coeficiente de correlación de Phi, el coeficiente de
correlación V de Cramer que corresponde a una pequeña modificación del coeficiente
Phi y la Sig. o valor p.

252
Capítulo 16. Asociación de variables
________________________________________________________________________

Tabla 16.2 tabulación cruzada de las variables.

Tabla 16.3 Medidas simétricas de la prueba Phi.

La correlación de Phi puede tomar valores entre 0 y 1 midiendo la fuerza de asociación


de las variables. El coeficiente Phi se interpreta de igual forma que Pearson y Spearman.
También debe contrastar el valor p calculado (p=0,024) siendo p<0,05 se debe rechazar la
hipótesis nula que plantea que no existe relación lineal entre las variables.

253
Fernando Maureira Cid
________________________________________________________________________

254
Capítulo 16. Asociación de variables
________________________________________________________________________

Compostela, B. (2010). Breve historia de la Morales, P. (2012). Tamaños necesarios de


estadística y el azar. Madrid: Univer- la muestra ¿Cuántos sujetos
sidad de Mayores de Experiencia necesitamos? Disponible en:
Recíproca. http://www.upcomillas.es/personal/
peter/investigación/Tama%F1o
De la Torre, O. (2012). Estadística II: esta- Muestra.pdf [consultado el 30 de
dística inferencial paramétrica, no para- abril de 2014].
métrica y multivariante. Mexico DF:
Universidad Michoacana de San Orellana, L. (2001). Estadística descriptiva.
Nicolás Hidalgo. Disponible en:
http://www.hacienda.go.cr/cifh/
Gorgas, J., Cardiel, N. & Zamorano, J. sidovih/cursos/material_de_apoyo-
(2011). Estadística básica para f-ccifh/1materialapoyocursoscifh/
estudiantes de ciencias. Madrid: 4estad%C3%ADsticabasica/estadisti
Universidad Complutense de Cadescrptiva-lillianaorellana.pdf
Madrid. [consultado el 3 de abril de 2014].

Gutiérrez, S. (1983). Evolución y conteni- Pérez, H. (2008). Estadística para las


do de la estadística del siglo XX. ciencias sociales, del comporta-miento y
Estadística Española, 101, 7-28. la salud. México DF: Cengage
Learning.
Juárez, F., Villatorio, J. & López, E. (2002).
Apuntes de estadística inferencial. Ruiz, M. (2004). Manual de estadística.
México DF: Instituto Nacional de Madrid: eumed-net.
Psiquiatría Ramón de la Fuente.
SPSS (2002). Guía para el análisis de datos.
Maureira, F. & Flores, E. (2012). Manual de Disponible en: http://www.listinet.
investigación científica para estudiantes com/bibliografía-comuna/Cdu311-
de educación física. Madrid: Editorial F36A.pdf [Consultado el 3 de abril
Académica Española. de 2014].

Mendenhall, W., Beaver, R. & Beaver, B. Stiegler, S. (1986). The history of statistics.
(2010). Introducción a la probabi-lidad Harvard University Press.
y estadística. México DF: Cengage
Learning.

255
Fernando Maureira Cid
________________________________________________________________________

256
Capítulo 16. Asociación de variables
________________________________________________________________________

257
Fernando Maureira Cid
________________________________________________________________________

258
Capítulo 16. Asociación de variables
________________________________________________________________________

ANEXO 1
Probabilidades acumuladas de la distribución normal estándar

Z 0,00 0,01 0,02 0,03 0,04 0,05


-3,5 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002
-3,4 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003
-3,3 0,0005 0,0005 0,0005 0,0004 0,0004 0,0004
-3,2 0,0007 0,0007 0,0006 0,0006 0,0006 0,0006
-3,1 0,0010 0,0009 0,0009 0,0009 0,0008 0,0008
-3,0 0,0013 0,0013 0,0013 0,0012 0,0012 0,0011
-2,9 0,0019 0,0018 0,0018 0,0017 0,0016 0,0016
-2,8 0,0026 0,0025 0,0024 0,0023 0,0023 0,0022
-2,7 0,0035 0,0034 0,0033 0,0032 0,0031 0,0030
-2,6 0,0047 0,0045 0,0044 0,0043 0,0041 0,0040
-2,5 0,0062 0,0060 0,0059 0,0057 0,0055 0,0054
-2,4 0,0082 0,0080 0,0078 0,0075 0,0073 0,0071
-2,3 0,0107 0,0104 0,0102 0,0099 0,0096 0,0094
-2,2 0,0139 0,0136 0,0132 0,0129 0,0125 0,0122
-2,1 0,0179 0,0174 0,0170 0,0166 0,0162 0,0158
-2,0 0,0228 0,0222 0,0217 0,0212 0,0207 0,0202
-1,9 0,0287 0,0281 0,0274 0,0268 0,0262 0,0256
-1,8 0,0359 0,0351 0,0344 0,0336 0,0329 0,0322
-1,7 0,0446 0,0436 0,0427 0,0418 0,0409 0,0401
-1,6 0,0548 0,0537 0,0526 0,0516 0,0505 0,0495
-1,5 0,0668 0,0655 0,0643 0,0630 0,0618 0,0606
-1,4 0,0808 0,0793 0,0778 0,0764 0,0749 0,0735
-1,3 0,0968 0,0951 0,0934 0,0918 0,0901 0,0885
-1,2 0,1151 0,1131 0,1112 0,1093 0,1075 0,1056
-1,1 0,1357 0,1335 0,1314 0,1292 0,1271 0,1251
-1,0 0,1587 0,1562 0,1539 0,1515 0,1492 0,1469
-0,9 0,1841 0,1814 0,1788 0,1762 0,1736 0,1711
-0,8 0,2119 0,2090 0,2061 0,2033 0,2005 0,1977
-0,7 0,2420 0,2389 0,2358 0,2327 0,2296 0,2266
-0,6 0,2743 0,2709 0,2676 0,2643 0,2611 0,2578
-0,5 0,3085 0,3050 0,3015 0,2981 0,2946 0,2912
-0,4 0,3446 0,3409 0,3372 0,3336 0,3300 0,3264
-0,3 0,3821 0,3783 0,3745 0,3707 0,3669 0,3632
-0,2 0,4207 0,4168 0,4129 0,4090 0,4052 0,4013
-0,1 0,4602 0,4562 0,4522 0,4483 0,4443 0,4404
0,0 0,5000 0,4960 0,4920 0,4880 0,4840 0,4801
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368

259
Fernando Maureira Cid
________________________________________________________________________

Probabilidades acumuladas de la distribución normal estándar (continuación)

Z 0,00 0,01 0,02 0,03 0,04 0,05


0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997
3,5 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998

260
Capítulo 16. Asociación de variables
________________________________________________________________________

ANEXO 2
Tabla de valores críticos de la distribución t de Student

gl 0,05 0,025 0,01 0,005 gl 0,05 0,025 0,01 0,005


1 6,31 12,71 31,82 63,66 21 1,72 2,08 2,52 2,83
2 2,92 4,30 6,96 9,92 22 1,71 2,07 2,51 2,82
3 2,35 3,18 4,54 5,84 23 1,71 2,07 2,50 2,81
4 2,13 2,78 3,75 4,60 24 1,71 2,06 2,49 2,80
5 2,01 2,57 3,36 4,03 25 1,70 2,06 2,49 2,79
6 1,94 2,45 3,14 3,71 26 1,70 2,06 2,48 2,78
7 1,89 2,36 3,00 2,50 27 1,70 2,05 2,47 2,77
8 1,85 2,31 2,90 3,36 28 1,70 2,05 2,47 2,76
9 1,83 2,26 2,82 3,25 29 1,70 2,05 2,46 2,76
10 1,81 2,23 2,76 3,17 30 1,70 2,04 2,46 2,75
11 1,80 2,20 2,72 3,11 31 1,70 2,04 2,45 2,74
12 1,78 2,18 2,68 3,05 32 1,69 2,04 2,45 2,74
13 1,77 2,16 2,65 3,01 33 1,69 2,03 2,44 2,73
14 1,76 2,14 2,62 2,98 34 1,69 2,03 2,44 2,73
15 1,75 2,13 2,60 2,95 35 1,69 2,03 2,44 2,72
16 1,74 2,12 2,58 2,92 36 1,69 2,03 2,43 2,72
17 1,74 2,11 2,57 2,90 37 1,69 2,03 2,43 2,72
18 1,73 2,10 2,55 2,88 38 1,69 2,02 2,43 2,71
19 1,73 2,09 2,54 2,86 39 1,68 2,02 2,43 2,71
20 1,72 2,09 2,53 2,85 40 1,68 2,02 2,42 2,70

261
Fernando Maureira Cid
________________________________________________________________________

ANEXO 3
Tabla de valores críticos de la prueba KS para una muestra

n 0,05 0,02 0,01 n 0,05 0,02 0,01


1 0,97500 0,99000 0,99500 27 0,25438 0,28438 0,25438
2 0,84189 0,90000 0,92929 28 0,24993 0,27942 0,29971
3 0,70760 0,78456 0,82900 29 0,24571 0,27471 0,29466
4 0,62394 0,68887 0,73424 30 0,24170 0,27023 0,28986
5 0,56328 0,62718 0,66853 31 0,23788 0,26596 0,28529
6 0,51926 0,57741 0,61661 32 0,23424 0,26189 0,28094
7 0,48342 0,53844 0,57581 33 0,23076 0,25801 0,27577
8 0,45427 0,50654 0,54179 34 0,22743 0,25429 0,27271
9 0,43001 0,47960 0,51332 35 0,22425 0,25073 0,26897
10 0,40925 0,45562 0,48893 36 0,22119 0,24732 0,26532
11 0,39122 0,43670 0,46770 37 0,21826 0,24404 0,26180
12 0,37543 0,41918 0,44905 38 0,21544 0,24089 0,25843
13 0,36143 0,40362 0,43247 39 0,21273 0,23785 0,25518
14 0,34890 0,38970 0,41762 40 0,21012 0,23494 0,25205
15 0,33750 0,37713 0,40420 41 0,20760 0,23213 0,24904
16 0,32733 0,36571 0,39201 42 0,20517 0,22941 0,24613
17 0,31796 0,35528 0,38086 43 0,20283 0,22679 0,24332
18 0,30936 0,34569 0,37062 44 0,20056 0,22426 0,24060
19 0,30143 0,33685 0,30143 45 0,19837 0,22181 0,23798
20 0,29408 0,32866 0,35241 46 0,19625 0,21944 0,23544
21 0,28724 0,32104 0,34426 47 0,19420 0,21715 0,23298
22 0,28087 0,31394 0,33666 48 0,19221 0,21493 0,23059
23 0,27491 0,30728 0,32954 49 0,19028 0,21281 0,22832
24 0,26931 0,30104 0,32286 50 0,18841 0,21068 0,22604
25 0,26404 0,29518 0,31657 >50 1,36 1,52 1,63
26 0,25908 0,28962 0,30963 √n √n √n

262
Capítulo 16. Asociación de variables
________________________________________________________________________

ANEXO 4
Coeficientes ain para el contraste de Shapiro-Wilks

n 1 2 3 4 5 6 7 8 9
2 0,7071 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
3 0,7071 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
4 0,6872 0,1677 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
5 0,6646 0,2413 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
6 0,6431 0,2806 0,0875 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
7 0,6233 0,3031 0,1401 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
8 0,6052 0,3164 0,1743 0,0561 0,0000 0,0000 0,0000 0,0000 0,0000
9 0,5888 0,3244 0,1976 0,0947 0,0000 0,0000 0,0000 0,0000 0,0000
10 0,5739 0,3291 0,2141 0,1224 0,0399 0,0000 0,0000 0,0000 0,0000
11 0,5601 0,3315 0,2260 0,1429 0,0695 0,0000 0,0000 0,0000 0,0000
12 0,5475 0,3325 0,2347 0,1586 0,0922 0,0303 0,0000 0,0000 0,0000
13 0,5359 0,3325 0,2412 0,1707 0,1099 0,0539 0,0000 0,0000 0,0000
14 0,5251 0,3318 0,2495 0,1802 0,1240 0,0727 0,0240 0,0000 0,0000
15 0,5150 0,3306 0,2495 0,1878 0,1353 0,0880 0,0433 0,0000 0,0000
16 0,5056 0,3229 0,2521 0,1988 0,1447 0,1005 0,0593 0,0196 0,0000
17 0,4968 0,3273 0,2540 0,1988 0,1524 0,1109 0,0725 0,0359 0,0000
18 0,4886 0,3253 0,2553 0,2027 0,1587 0,1197 0,0837 0,0496 0,0163
19 0,4808 0,3232 0,2561 0,2059 0,1641 0,1271 0,0932 0,0612 0,0303
20 0,4734 0,3211 0,2565 0,2085 0,1686 0,1334 0,1013 0,0711 0,0422
21 0,4643 0,3185 0,2578 0,2119 0,1736 0,1339 0,1092 0,0804 0,0530
22 0,4590 0,3156 0,2571 0,2131 0,1764 0,1443 0,1150 0,0878 0,0618
23 0,4542 0,3126 0,2563 0,2139 0,1787 0,1480 0,1201 0,0941 0,0696
24 0,4493 0,3098 0,2554 0,2145 0,1807 0,1512 0,1245 0,0997 0,0764
25 0,4450 0,3069 0,2543 0,2148 0,1822 0,1539 0,1283 0,1046 0,0823
26 0,4407 0,3043 0,2533 0,2151 0,1836 0,1563 0,1316 0,1089 0,0876
27 0,4366 0,3018 0,2522 0,2152 0,1848 0,1584 0,1346 0,1128 0,0923
28 0,4328 0,2992 0,2510 0,2151 0,1857 0,1601 0,1372 0,1162 0,0965
29 0,4291 0,2968 0,2499 0,2150 0,1864 0,1616 0,1395 0,1192 0,1002
30 0,4254 0,2944 0,2487 0,2148 0,1870 0,1630 0,1415 0,1219 0,1036
31 0,4220 0,2921 0,2475 0,2145 0,1874 0,1641 0,1433 0,1243 0,1066
32 0,4118 0,2898 0,2463 0,2141 0,1878 0,1651 0,1449 0,1265 0,1093
33 0,4156 0,2876 0,2451 0,2137 0,1880 0,1660 0,1463 0,1284 0,1118
34 0,4127 0,2854 0,2439 0,2132 0,1882 0,1667 0,1475 0,1301 0,1140
35 0,4096 0,2834 0,2427 0,2127 0,1883 0,1673 0,1487 0,1317 0,1160
36 0,4068 0,2813 0,2415 0,2121 0,1883 0,1678 0,1496 0,1331 0,1179
37 0,4040 0,2794 0,2403 0,2116 0,1883 0,1683 0,1505 0,1344 0,1196
38 0,4015 0,2774 0,2391 0,2110 0,1881 0,1686 0,1513 0,1356 0,1211
39 0,3989 0,2755 0,2380 0,2104 0,1880 0,1689 0,1520 0,1366 0,1225
40 0,3964 0,2737 0,2368 0,2098 0,1878 0,1691 0,1526 0,1376 0,1237

263
Fernando Maureira Cid
________________________________________________________________________

Coeficientes ain para el contraste de Shapiro-Wilks (continuación)

n 10 11 12 13 14 15 16 17 18
2 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
3 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
4 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
5 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
6 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
7 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
8 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
9 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
10 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
11 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
12 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
13 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
14 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
15 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
16 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
17 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
18 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
19 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
20 0,0140 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
21 0,0263 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
22 0,0368 0,0122 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
23 0,0459 0,0228 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
24 0,0539 0,0321 0,0107 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
25 0,0610 0,0403 0,0200 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
26 0,0672 0,0476 0,0284 0,0094 0,0000 0,0000 0,0000 0,0000 0,0000
27 0,0728 0,0540 0,0358 0,0178 0,0000 0,0000 0,0000 0,0000 0,0000
28 0,0778 0,0598 0,0424 0,0253 0,0084 0,0000 0,0000 0,0000 0,0000
29 0,0822 0,0650 0,0483 0,0320 0,0159 0,0000 0,0000 0,0000 0,0000
30 0,0862 0,0697 0,0537 0,0381 0,0227 0,0076 0,0000 0,0000 0,0000
31 0,0899 0,0739 0,0585 0,0435 0,0289 0,0144 0,0000 0,0000 0,0000
32 0,0931 0,0777 0,0629 0,0485 0,0344 0,0206 0,0068 0,0000 0,0000
33 0,0961 0,0812 0,0669 0,0530 0,0395 0,0262 0,0187 0,0000 0,0000
34 0,0988 0,0844 0,0706 0,0572 0,0441 0,0314 0,0187 0,0062 0,0000
35 0,1013 0,0873 0,0739 0,0610 0,0484 0,0361 0,0239 0,0119 0,0000
36 0,1036 0,0900 0,0770 0,0645 0,0523 0,0404 0,0287 0,0172 0,0057
37 0,1056 0,0924 0,0798 0,0677 0,0559 0,0444 0,0331 0,0220 0,0110
38 0,1075 0,0947 0,0824 0,0706 0,0592 0,0481 0,0372 0,0264 0,0158
39 0,1092 0,0967 0,0848 0,0733 0,0622 0,0515 0,0409 0,0305 0,0203
40 0,1108 0,0986 0,0870 0,0759 0,0651 0,0546 0,0444 0,0343 0,0244

264
Capítulo 16. Asociación de variables
________________________________________________________________________

Coeficientes ain para el contraste de Shapiro-Wilks (continuación)

n 1 2 3 4 5 6 7 8 9
41 0,3940 0,2719 0,2357 0,2091 0,1876 0,1693 0,1531 0,1384 0,1249
42 0,3917 0,2701 0,2345 0,2085 0,1874 0,1694 0,1535 0,1392 0,1259
43 0,3894 0,2684 0,2334 0,2078 0,1871 0,1695 0,1539 0,1398 0,1269
44 0,3872 0,2667 0,2323 0,2072 0,1868 0,1695 0,1542 0,1405 0,1278
45 0,3850 0,2651 0,2313 0,2065 0,1865 0,1695 0,1545 0,1410 0,1286
46 0,3830 0,2635 0,2302 0,2058 0,1862 0,1695 0,1548 0,1415 0,1293
47 0,3808 0,2620 0,2291 0,2052 0,1859 0,1695 0,1550 0,1420 0,1300
48 0,3789 0,2604 0,2281 0,2045 0,1855 0,1693 0,1551 0,1423 0,1306
49 0,3770 0,2589 0,2271 0,2038 0,1851 0,1692 0,1553 0,1472 0,1312
50 0,3751 0,2574 0,2260 0,2032 0,1847 0,1691 0,1554 0,1430 0,1317

n 10 11 12 13 14 15 16 17 18
41 0,1123 0,1004 0,0891 0,0782 0,0677 0,0575 0,0476 0,0379 0,0283
42 0,1136 0,1020 0,0909 0,0804 0,0701 0,0602 0,0506 0,0411 0,0318
43 0,1149 0,1035 0,0927 0,0824 0,0724 0,0628 0,0534 0,0442 0,0352
44 0,1160 0,1049 0,0943 0,0842 0,0745 0,0651 0,0560 0,0471 0,0383
45 0,1170 0,1062 0,0959 0,0860 0,0765 0,0673 0,0584 0,0497 0,0412
46 0,1180 0,1073 0,0972 0,0876 0,0783 0,0694 0,0607 0,0522 0,0439
47 0,1189 0,1085 0,0986 0,0892 0,0801 0,0713 0,0628 0,0546 0,0465
48 0,1197 0,1095 0,0998 0,0906 0,0817 0,0731 0,0648 0,0568 0,0489
49 0,1205 0,1105 0,1010 0,0919 0,0832 0,0748 0,0667 0,0588 0,0511
50 0,1212 0,1113 0,1020 0,0932 0,0846 0,0764 0,0685 0,0608 0,0532

265
Fernando Maureira Cid
________________________________________________________________________

ANEXO 5
Tabla de valores críticos de la prueba de Shapiro-Wilks

n 0,05 0,02 0,01 n 0,05 0,02 0,01


1 - - - 26 0,920 0,904 0,891
2 - - - 27 0,923 0,906 0,894
3 0,767 0,756 0,753 28 0,924 0,908 0,896
4 0,748 0,707 0,687 29 0,926 0,910 0,898
5 0,762 0,715 0,686 30 0,927 0,912 0,900
6 0,788 0,743 0,713 31 0,929 0,914 0,902
7 0,803 0,760 0,730 32 0,930 0,915 0,904
8 0,818 0,778 0,749 33 0,931 0,917 0,906
9 0,829 0,791 0,764 34 0,933 0,919 0,908
10 0,842 0,806 0,781 35 0,934 0,920 0,910
11 0,850 0,817 0,792 36 0,935 0,922 0,912
12 0,859 0,828 0,805 37 0,936 0,924 0,914
13 0,866 0,837 0,814 38 0,938 0,925 0,916
14 0,874 0,846 0,825 39 0,939 0,927 0,917
15 0,881 0,855 0,835 40 0,940 0,928 0,919
16 0,887 0,863 0,844 41 0,941 0,929 0,920
17 0,892 0,869 0,851 42 0,942 0,930 0,922
18 0,897 0,874 0,858 43 0,943 0,932 0,923
19 0,901 0,879 0,863 44 0,944 0,933 0,924
20 0,905 0,884 0,868 45 0,945 0,934 0,926
21 0,908 0,888 0,873 46 0,945 0,935 0,927
22 0,911 0,892 0,878 47 0,946 0,936 0,928
23 0,914 0,895 0,881 48 0,941 0,937 0,929
24 0,916 0,898 0,884 49 0,947 0,937 0,929
25 0,918 0,901 0,888 50 0,947 0,938 0,930

266
Capítulo 16. Asociación de variables
________________________________________________________________________

ANEXO 6
Tabla de valores críticos de la distribución F de Fisher (α= , 5

gl 1 2 3 4 5 6 7 8 9
1 161,446 199,499 215,707 224,583 230,160 233,988 236,767 238,884 240,543
2 18,513 19,000 19,164 19,247 19,296 19,329 19,353 19,371 19,385
3 19,128 9,552 9,277 9,117 9,013 8,941 8,887 8,845 8,812
4 7,709 6,944 6,591 6,388 6,256 6,163 6,094 6,041 5,999
5 6,608 5,786 5,409 5,192 5,050 4,950 4,876 4,818 4,772
6 5,987 5,143 4,757 4,534 4,387 4,284 4,207 4,147 4,099
7 5,591 4,737 4,347 4,120 3,972 3,866 3,787 3,726 3,677
8 5,318 4,459 4,066 3,838 3,688 3,581 3,500 3,438 3,388
9 5,117 4,256 3,863 3,633 3,482 3,374 3,293 3,230 3,179
10 4,965 4,103 3,708 3,478 3,326 3,217 3,135 3,072 3,020
11 4,844 3,982 3,587 3,357 3,204 3,095 3,012 2,948 2,896
12 4,747 3,885 3,490 3,259 3,106 2,996 2,913 2,849 2,796
13 4,667 3,805 3,411 3,179 3,025 2,915 2,832 2,767 2,714
14 4,600 3,739 3,344 3,112 2,958 2,848 2,764 2,699 2,646
15 4,543 3,682 3,287 3,056 2,901 2,790 2,707 2,641 2,588
16 4,494 3,634 3,239 3,007 2,852 2,741 2,657 2,591 2,538
17 4,451 3,592 3,197 2,965 2,810 2,699 2,614 2,548 2,494
18 4,414 3,555 3,160 2,928 2,773 2,661 2,577 2,510 2,456
19 4,381 3,522 3,127 2,895 2,740 2,628 2,544 2,477 2,423
20 4,351 3,493 3,098 2,866 2,711 2,599 2,514 2,447 2,423
21 4,325 3,467 3,072 2,840 2,685 2,573 2,488 2,420 2,366
22 4,301 3,443 3,049 2,817 2,661 2,549 2,464 2,397 2,342
23 4,279 3,422 3,028 2,796 2,640 2,528 2,442 2,375 2,320
24 4,260 3,403 3,009 2,776 2,621 2,508 2,423 2,355 2,300
25 4,242 3,385 2,991 2,759 2,603 2,490 2,405 2,337 2,282
26 4,225 3,369 2,975 2,743 2,587 2,474 2,388 2,321 2,265
27 4,210 3,354 2,960 2,728 2,572 2,459 2,373 2,305 2,250
28 4,196 3,340 2,947 2,714 2,558 2,445 2,359 2,291 2,236
29 4,183 3,328 2,934 2,701 2,545 2,432 2,346 2,278 2,223
30 4,171 3,316 2,922 2,690 2,534 2,421 2,334 2,266 2,211
40 4,085 3,232 2,839 2,606 2,449 2,336 2,249 2,180 2,124
50 4,034 3,183 2,790 2,557 2,400 2,286 2,199 2,130 2,073
60 4,002 3,150 2,758 2,525 2,368 2,254 2,167 2,097 2,040
70 3,978 3,128 2,736 2,503 2,346 2,231 2,143 2,074 2,017
80 3,960 3,111 2,719 2,486 2,329 2,214 2,126 2,056 1,999
90 3,947 3,098 2,706 2,473 2,316 2,201 2,113 2,043 1,986
100 3,936 3,087 2,696 2,463 2,305 2,191 2,103 2,032 1,975
200 3,888 3,041 2,650 2,417 2,259 2,144 2,056 1,985 1,927
500 3,860 3,014 2,623 2,390 2,232 2,117 2,028 1,957 1,899

267
Fernando Maureira Cid
________________________________________________________________________

Tabla de valores críticos de la distribución F de Fisher (α= , 5 continuación

gl 10 15 20 30 40 50 100 200 500


1 241,882 245,949 248,016 250,096 251,144 251,774 253,043 253,676 254,062
2 19,396 19,429 19,446 19,463 19,471 19,476 19,486 19,491 19,494
3 8,785 8,703 8,660 8,617 8,594 8,581 8,554 8,540 8,532
4 5,964 5,858 5,803 5.746 5,717 5,699 5,664 5,646 5,635
5 4,735 4,619 4,558 4,496 4,464 4,444 4,405 4,385 4,373
6 4,060 3,938 3,874 3,808 3,774 3,754 3,712 3,690 3,678
7 3,637 3,511 3,445 3,376 3,340 3,319 3,275 3,252 3,239
8 3,347 3,218 3,150 3,079 3,043 3,020 2,975 2,951 2,937
9 3,137 3,006 2,936 2,864 2,826 2,803 2,756 2,731 2,717
10 2,978 2,845 2,774 2,700 2,661 2,637 2,588 2,563 2,548
11 2,854 2,719 2,646 2,570 2,531 2,507 2,457 2,431 2,415
12 2,753 2,617 2,544 2,466 2,426 2,401 2,350 2,323 2,307
13 2,671 2,533 2,459 2,380 2,339 2,314 2,261 2,234 2,218
14 2,602 2,463 2,388 2,308 2,266 2,241 2,187 2,159 2,142
15 2,544 2,403 2,328 2,247 2,204 2,178 2,123 2,095 2,078
16 2,494 2,352 2,276 2,194 2,151 2,124 2,068 2,039 2,022
17 2,450 2,308 2,230 2,148 2,104 2,077 2,020 1,991 1,973
18 2,412 2,269 2,191 2,107 2,063 2,035 1,978 1,948 1,929
19 2,378 2,234 2,155 2,071 2,026 1,999 1,940 1,910 1,891
20 2,348 2,203 2,124 2,039 1,994 1,966 1,907 1,875 1,856
21 2,321 2,176 2,096 2,010 1,965 1,936 1,876 1,845 1,825
22 2,297 2,151 2,071 1,984 1,938 1,909 1,849 1,817 1,797
23 2,275 2,128 2,048 1,961 1,914 1,885 1,823 1,791 1,771
24 2,255 2,108 2,027 1,939 1,892 1,863 1,800 1,768 1,747
25 2,236 2,089 2,007 1,919 1,872 1,842 1,779 1,746 1,725
26 2,220 2,072 1,990 1,901 1,853 1,823 1,760 1,726 1,705
27 2,204 2,056 1,974 1,884 1,836 1,806 1,742 1,708 1,686
28 2,190 2,041 1,959 1,869 1,820 1,790 1,725 1,691 1,669
29 2,177 2,027 1,945 1,854 1,806 1,775 1,710 1,675 1,653
30 2,165 2,015 1,932 1,841 1,792 1,761 1,695 1,660 1,637
40 2,077 1,924 1.839 1,744 1,693 1,660 1,589 1,551 1,526
50 2,026 1,895 1,784 1,687 1,634 1,599 1,525 1,484 1,457
60 1,993 1,836 1,748 1,649 1,594 1,559 1,481 1,438 1,409
70 1,969 1,812 1.722 1,622 1,566 1,530 1,450 1,404 1,374
80 1,951 1,793 1,703 1,602 1,545 1,508 1,426 1,379 1,347
90 1,938 1,779 1,688 1,586 1,528 1,491 1,407 1,358 1,326
100 1,927 1,768 1,676 1,573 1,515 1,477 1,392 1,342 1,308
200 1,878 1,717 1,623 1,516 1,455 1,415 1,321 1,263 1,221
500 1,850 1,686 1,592 1,482 1,419 1,376 1,275 1,210 1,159

268
Capítulo 16. Asociación de variables
________________________________________________________________________

Tabla de valores críticos de la distribución F de Fisher (α= , 1

gl 1 2 3 4 5 6 7 8
1 4052,185 4999,340 5403,534 5624,257 5763,955 5858,950 5928,334 5980,954
2 98,502 99,000 99,164 99,251 99,302 99,331 99,357 99,375
3 34,116 30,816 29,457 28,710 28,237 27,911 27,671 27,489
4 21,198 18,000 16,694 15,977 15,522 15,207 14,976 14,799
5 16,258 13,274 12,060 11,392 10,967 10,672 10,456 10,289
6 13,745 10,925 9,780 9,148 8,746 8,466 8,260 8,102
7 12,246 9,547 8,451 7,847 7,460 7,191 6,993 6,840
8 11,259 8,649 7,591 7,006 6,632 6,371 6,178 6,029
9 10,562 8,022 6,992 6,422 6,057 5,802 5,613 5,467
10 10,044 7,559 6,552 5,994 5,636 5,386 5,200 5,057
11 9,646 7,206 6,217 5,668 5,316 5,069 4,886 4,744
12 9,330 6,927 5,953 5,412 5,064 4,821 4,640 4,499
13 9,074 6,701 5,739 5,205 4,862 4,620 4,441 4,302
14 8,862 6,515 5,564 5,035 4,695 4,456 4.278 4,140
15 8,683 6,359 5,417 4,893 4,556 4,318 4.142 4,004
16 8,531 6,226 5,292 4,773 4,437 4,202 4,026 3,890
17 8,400 6,112 5,185 4,669 4,336 4,101 3,927 3,791
18 8,285 6,013 5,092 4,579 4,248 4,015 3,841 3,705
19 8,185 5,926 5,010 4,500 4,171 3,939 3,765 3,631
20 8,096 5,849 4,938 4,431 4,103 3,871 3,699 3,564
21 8,017 5,780 4,874 4,369 4,042 3,812 3,640 3,506
22 7,945 5,719 4,817 4,313 3,988 3,758 3,587 3,453
23 7,881 5,664 4,765 4,264 3,939 3,710 3,539 3,406
24 7,823 5,614 4,718 4,218 3,895 3,667 3,496 3,363
25 7,770 5,568 4,675 4,177 3,855 3,627 3,457 3,324
26 7,721 5,526 4,637 4,140 3,818 3,591 3,421 3,288
27 7,677 5,488 4,601 4,106 3,785 3,558 3,388 3,256
28 7,636 5,453 4,568 4,074 3,754 3,528 3,358 3,226
29 7,598 5,420 4,538 4,045 3,725 3,499 3,330 3,198
30 7,562 5,390 4,510 4,018 3,699 3,473 3,305 3,173
40 7,314 5,178 4,313 3,818 3,514 3,291 3,124 2,993
50 7,171 5,057 4,199 3,720 3,408 3,186 3,020 2,890
60 7,077 4,977 4,126 3,649 3,339 3,119 2,953 2,823
70 7,011 4,922 4,074 3,600 3,291 3,071 2,906 2,777
80 6,963 4,881 4,036 3,563 3,255 3,036 2,871 2,742
90 6,925 4,849 4,007 3,535 3,228 3,009 2,845 2,715
100 6,895 4,824 3,984 3,513 3,206 2,988 2,823 2,694
200 6,763 4,713 3,881 3,414 3,110 2,893 2,730 2,601
500 6,686 4,648 3,821 3,357 3,054 2,838 2,675 2,547

269
Fernando Maureira Cid
________________________________________________________________________

Tabla de valores críticos de la distribución F de Fisher (α= , 1 continuación

gl 9 10 15 20 40 50 100
1 6022,397 6055,925 6156,974 6208,662 6286,427 6302,260 6333,925
2 99,397 99,397 99,433 99,448 99,477 99,477 99,491
3 27,345 27,228 26,872 26,690 26,411 26,354 26,241
4 14,659 14,546 14,198 14,019 13,745 13,690 13,577
5 10,158 10,051 9,722 9,553 9,291 9,238 9,130
6 7,976 7,874 7,559 7,396 7,143 7,091 6,987
7 6,719 6,620 6,314 6,155 5,908 5,858 5,755
8 5,911 5,814 5,515 5,359 5,116 5,065 4,963
9 5,351 5,257 4,962 4,808 4,567 4,517 4,415
10 4,942 4,849 4,558 4,405 4,165 4,115 4,014
11 4,632 4,539 4,251 4,099 3,860 3,810 3,708
12 4,388 4,296 4,010 3,858 3,619 3,569 3,467
13 4,191 4,100 3,815 3,665 3,425 3,375 3,272
14 4,030 3,939 3,656 3,505 3,256 3,215 3,112
15 3,895 3,805 3,522 3,372 3,132 3,081 2,977
16 3,780 3,691 3,409 3,259 3,018 2,967 2,863
17 3,682 3,593 3,312 3,162 2,920 2,869 2,764
18 3,597 3,508 3,227 3,077 2,835 2,784 2,678
19 3,523 3,434 3,153 3,003 2,761 2,709 2,602
20 3,457 3,368 3,088 2,938 2,695 2,643 2,535
21 3,398 3,310 3,030 2,880 2,636 2,584 2,476
22 3,346 3,258 2,978 2,827 2,583 2,531 2,422
23 3,299 3,211 2,931 2,780 2,536 2,483 2,373
24 3,256 3.168 2,889 2,738 2,492 2,440 2,329
25 3,217 3,129 2,850 2,699 2,453 2,400 2,289
26 3,182 3,094 2,815 2,664 2,417 2,364 2,252
27 3,149 3,062 2,783 2,632 2,384 2,330 2,218
28 3,120 3,032 2,753 2,602 2,354 2,300 2,187
29 3,092 3,005 2,726 2,574 2,325 2,271 2,158
30 3,067 2,979 2,700 2,549 2,299 2,245 2,131
40 2,888 2,801 2,522 2,369 2,114 2,058 1,938
50 2,785 2,698 2,419 2,265 2,007 1,949 1,825
60 2,718 2,632 2,352 2,198 1,936 1,877 1,749
70 2,672 2,585 2,306 2,150 1,886 1,826 1,695
80 2,637 2,551 2,271 2,115 1,849 1,788 1,655
90 2,611 2,524 2,244 2,088 1.820 1,759 1.623
100 2,590 2,503 2,223 2,067 1,797 1,735 1,598
200 2,497 2,411 2,129 1,971 1,694 1,629 1,481
500 2,443 2,356 2,075 1,915 1,633 1,566 1,408

270
Capítulo 16. Asociación de variables
________________________________________________________________________

ANEXO 7
Tabla de valores críticos para la prueba de homogeneidad de
varianzas de Cochran (α= , 5

N° de grupos
gl 2 3 4 5 6 7
1 0,9985 0,9969 0,9065 0,8412 0,7808 0,7271
2 0,9750 0,8709 0,7679 0,6838 0,6161 0,5612
3 0,9392 0,7977 0,6841 0,5981 0,5321 0,4800
4 0,9057 0,7457 0,6278 0,5441 0,4803 0,4307
5 0,8772 0,7071 0,4447 0,5895 0,5065 0,3974
6 0,8534 0,6771 0,5598 0,4783 0,4184 0,3726
7 0,8332 0,6530 0,5365 0,4564 0,3980 0,3535
8 0,8159 0,6333 0,5175 0,4387 0,3817 0,3384
9 0,8010 0,6167 0,5017 0,4241 0,3682 0,3259
16 0,7341 0,5466 0,4366 0,3645 0,3135 0,2756
36 0,6602 0,4748 0,3720 0,3066 0,2612 0,2278
144 0,5813 0,4031 0,3093 0,2513 0,2119 0,1833

N° de grupos
gl 8 9 10 15 20
1 0,6798 0,6385 0,6020 0,4709 0,3894
2 0,5157 0,4775 0,4450 0,3346 0,2705
3 0,4377 0,4027 0,3733 0,2758 0,2205
4 0,3910 0,3584 0,3311 0,2419 0,1921
5 0,3595 0,3286 0,3029 0,2195 0,1735
6 0,3362 0,3067 0,2823 0,2034 0,1602
7 0,3185 0,2901 0,2666 0,1911 0,1501
8 0,3043 0,2768 0,2541 0,1815 0,1422
9 0,2926 0,2659 0,2439 0,1736 0,1357
16 0,2462 0,2226 0,2032 0,1429 0,1108
36 0,2022 0,1820 0,1655 0,1144 0,0879
144 0,1616 0,1446 0,1308 0,0889 0,0675

271
Fernando Maureira Cid
________________________________________________________________________

ANEXO 8
Tabla de valores críticos de la distribución X2

gl 0,05 0,025 0,01 gl 0,05 0,025 0,01


1 3,841 5,023 6,635 27 40,113 43,194 46,962
2 5,991 7,377 9,210 28 41,337 44,460 48,278
3 7,815 9,348 11,345 29 42,557 45,772 49,587
4 9,488 11,143 13,277 30 43,773 46,979 50,892
5 10,070 12,832 15,086 31 44,985 48,231 52,191
6 12,591 14,449 16,811 32 46,194 49,480 53,485
7 14,067 16,012 18,475 33 47,399 50,725 54,775
8 15,507 17,534 20,090 34 48,602 51,966 56,060
9 16,919 19,022 21,666 35 49,801 53,203 57,342
10 18,307 20,483 23,209 36 50,998 54,437 58,619
11 19,675 21,920 24,725 37 52,192 55,668 58,892
12 21,026 23,336 26,217 38 53,383 56,895 61,162
13 22,362 24,735 27,688 39 54,572 58,120 62,428
14 23,684 26,118 29,141 40 55,758 59,341 63,690
15 24,995 27,488 30,577 45 61,656 65,410 69,956
16 26,296 28,845 31,999 50 67,504 71,420 76,153
17 27,587 30,191 33,408 55 73,311 77,380 82,292
18 28,869 31,526 34,805 60 79,082 83,297 88,374
19 30,143 32,852 36,190 70 90,531 95,023 100,425
20 31,410 34,169 37,566 80 101,879 106,628 112,328
21 32,670 35,478 38,932 90 113,145 118,135 124,116
22 33,924 36,780 40,289 100 124,342 129,561 135,806
23 35,172 38,075 41,638 140 168,613 174,647 181,840
24 36,415 39,364 42,979 200 233,994 241,057 249,445
25 37,652 40,646 44,314 300 341,395 349,874 359,906
26 38,885 41,923 45,641 500 553,126 563,851 576,493

272
Capítulo 16. Asociación de variables
________________________________________________________________________

ANEXO 9
Tabla de valores críticos para la prueba Q (Tukey-Snedecor α= , 5

gl 2 3 4 5 6 7 8 9
1 17,97 26,98 32,82 37,08 40,41 43,12 45,40 47,36
2 6,08 8,28 9,80 10,89 11,73 12,43 13,03 13,54
3 4,50 5,91 6,83 7,51 8,04 8,47 8,85 9,18
4 3,93 5,04 5,76 6,29 6,70 7,06 7,35 7,60
5 3,64 4,60 5,22 5,67 5,93 6,38 6,58 6,80
6 3,46 4,34 4,90 5,31 5,63 5,89 6,12 6,32
7 3,34 4,16 4,68 5,06 5,35 5,59 5,82 5,99
8 3,26 4,04 4,53 4,89 5,17 5,40 5,60 5,77
9 3,20 3,95 4,42 4,76 5,02 5,24 5,43 5,60
10 3,15 3,88 4,33 4,66 4,91 5,12 5,30 5,46
11 3,11 3,82 4,26 4,58 4,82 5,03 5,20 5,35
12 3,08 3,77 4,20 4,51 4,75 4,95 5,12 5,27
13 3,06 3,73 4,15 4,46 4,69 4,88 5,05 5,19
14 3,03 3,70 4,11 4,41 4,64 4,83 4,99 5,13
15 3,01 3,67 4,08 4,37 4,59 4,78 4,94 5,08
16 3,00 3,65 4,05 4,34 4,56 4,74 4,90 5,03
17 2,98 3,62 4,02 4,31 4,52 4,70 4,86 4,99
18 2,97 3,61 4,00 4,28 4,49 4,67 4,83 4,96
19 2,96 3,59 3,98 4,26 4,47 4,64 4,79 4,92
20 2,95 3,58 3,96 4,24 4,45 4,62 4,77 4,90
24 2,92 3,53 3,90 4,17 4,37 4,54 4,68 4,81
30 2,89 3,48 3,84 4,11 4,30 4,46 4,60 4,72
40 2,86 3,44 3,79 4,04 4,23 4,39 4,52 4,63
60 2,83 3,40 3,74 3,98 4,16 4,31 4,44 4,55
120 2,80 3,36 3,69 3,92 4,10 4,24 4,36 4,47
∞ 2,77 3,32 3,63 3,86 4,03 4,17 4,29 4,39

273
Fernando Maureira Cid
________________________________________________________________________

ANEXO 10
Tabla de valores críticos del coeficiente de correlación de Pearson

n 0,05 0,01 n 0,05 0,01


1 - - 24 0,404 0,515
2 - - 25 0,396 0,505
3 0,997 1,000 26 0,388 0,496
4 0,950 0,990 27 0,381 0,487
5 0,878 0,959 28 0,374 0,479
6 0,811 0,917 29 0,367 0,479
7 0,755 0,874 30 0,361 0,463
8 0,707 0,834 32 0,349 0,449
9 0,666 0,798 34 0,339 0,436
10 0,632 0,765 36 0,329 0,424
11 0,602 0,735 38 0,320 0,413
12 0,576 0,708 40 0,312 0,402
13 0,553 0,684 42 0,304 0,393
14 0,532 0,661 44 0,297 0,384
15 0,514 0,641 46 0,291 0,376
16 0,497 0,623 48 0,285 0,368
17 0,482 0,606 50 0,279 0,361
18 0,468 0,590 60 0,254 0,330
19 0,456 0,575 70 0,235 0,305
20 0,444 0,561 80 0,220 0,386
21 0,433 0,549 90 0,207 0,270
22 0,423 0,537 100 0,197 0,256
23 0,413 0,526

274
Capítulo 16. Asociación de variables
________________________________________________________________________

ANEXO 11
Tabla de valores críticos de la prueba U de Mann-Whitney

n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
1 - - - - - - - - - - - - - - - - - - -
- - - - - - - - - - - - - - - - - - -
2 - - - - - - - 0 0 0 0 0 0 0 0 0 0 0 0
- - - - - - - - - - - - - - - - - - -
3 - - - - 0 1 1 2 2 3 3 4 4 5 5 6 6 7 7
- - - - - - - - 0 0 0 1 1 1 2 2 2 2 3
4 - - - 0 1 2 3 4 4 5 6 7 8 9 10 11 11 12 13
- - - - - 0 0 1 1 2 2 3 3 4 5 5 6 6 7
5 - - 0 1 2 3 5 6 7 8 9 11 12 13 14 15 17 18 19
- - - - 0 1 2 3 3 4 5 6 7 7 8 9 10 11 12
6 - - 1 2 3 5 6 8 10 11 13 14 16 17 19 21 22 24 25
- - - 0 1 2 3 4 5 6 7 9 10 11 12 13 15 16 17
7 - - 1 3 5 6 8 10 12 14 16 18 29 22 24 26 28 30 32
- - - 0 2 3 4 6 7 9 10 12 13 15 16 18 19 21 22
8 - 0 2 4 6 8 10 13 15 17 19 22 24 26 29 31 34 36 38
- - - 1 3 4 6 8 9 11 13 15 17 18 20 22 24 26 28
9 - 0 2 4 7 19 12 14 16 18 23 26 28 31 34 37 39 42 45
- - 0 1 3 5 7 9 11 13 16 18 20 22 24 27 29 31 33
10 - 0 3 5 8 11 14 17 20 23 26 29 33 36 39 42 45 48 52
- - 0 2 4 5 9 11 13 16 18 21 24 26 29 31 34 37 39
11 - 0 3 6 9 13 16 19 23 26 30 33 37 40 44 47 51 55 58
- - 0 2 5 7 10 13 16 18 21 24 27 30 33 36 39 42 45
12 - 0 4 7 11 14 18 22 26 29 33 37 41 45 49 53 57 61 65
- - 1 3 6 9 12 15 18 21 24 27 31 34 37 41 44 47 51
13 - 0 4 8 12 15 20 24 28 33 37 41 45 50 54 59 63 67 72
- - 1 3 7 10 13 17 20 24 27 31 34 38 42 45 49 53 57
14 - 0 5 9 13 17 22 26 31 36 40 45 50 55 59 64 67 74 78
- - 1 4 7 11 15 18 22 26 30 34 38 42 46 50 54 58 63
15 - 0 5 10 14 19 24 29 34 39 44 49 54 59 64 70 75 80 85
- - 2 5 8 12 16 20 24 29 33 37 42 46 51 55 60 64 69
16 - 0 6 11 15 21 26 31 37 42 47 53 59 64 70 75 81 86 92
- - 2 5 9 13 18 22 27 31 46 41 45 50 55 60 65 70 74
17 - 0 6 11 17 22 28 34 39 45 51 57 63 67 75 81 87 93 99
- - 2 6 10 15 19 24 29 34 39 44 49 54 60 65 70 75 81
18 - 0 7 12 18 24 30 36 42 48 55 61 67 74 80 86 93 99 106
- - 2 6 11 16 21 26 31 37 42 47 53 58 64 70 75 81 87
19 - 0 7 13 19 25 32 38 45 52 58 65 72 78 85 92 99 106 113
- - 3 7 12 17 22 28 33 39 45 51 57 63 69 74 81 87 93
Los valores de la ° línea para cada n corresponde a un α=0,05

275
Fernando Maureira Cid
________________________________________________________________________
Los valores de la 2° línea para cada n corresponde a un α=0,0

ANEXO 12
Tabla de valores críticos de la prueba de rangos de Wilcoxon

n 0,05 0,01
1 - -
2 - -
3 - -
4 - -
5 - -
6 1 -
7 2 -
8 4 0
9 6 2
10 8 3
11 11 5
12 14 7
13 17 10
14 21 13
15 25 16
16 30 19
17 35 23
18 40 28
19 46 32
20 52 37
21 59 43
22 66 49
23 73 55
24 81 61
25 90 68

276
Capítulo 16. Asociación de variables
________________________________________________________________________

ANEXO 13
Tabla de valores críticos de la prueba de varianza unifactorial de Kruskal-Wallis

n1 n2 n3 n4 n5 0,05 0,01 n1 n2 n3 n4 n5 0,05 0,01


2 1 1 - - 6 4 1 4,95 7,11
2 2 1 - - 6 4 2 5,34 7,34
2 2 2 - - 6 4 3 5,61 7,50
3 1 1 - - 6 4 4 5,69 7,80
3 2 1 - - 6 5 1 4,99 7,18
3 2 2 4,71 - 6 5 4 5,66 7,94
3 3 2 5,14 - 6 5 5 5,73 8,03
3 3 3 5,36 - 6 6 1 4,95 7,12
4 1 1 - - 6 6 2 5,41 7,47
4 2 1 - - 6 6 3 5,63 7,73
4 2 2 5,33 - 6 6 4 5,72 8,00
4 3 1 5,21 - 6 6 5 5,77 8,12
4 3 2 5,44 6,44 6 6 6 5,80 8,22
4 3 3 5,73 6,75 7 7 7 5,82 8,38
4 4 1 4,96 6,67 8 8 8 5,81 8,47
4 4 2 5,45 7,04 2 1 1 1 - -
4 4 3 5,59 7,14 2 2 1 1 - -
4 4 4 5,69 7,65 2 2 2 1 5,68 -
5 1 1 - - 2 2 2 2 6,17 6,67
5 2 1 5,00 - 3 1 1 1 - -
5 2 2 5,16 6,53 3 2 1 1 - -
5 3 1 4,96 - 3 2 2 1 5,83 -
5 3 2 5,25 6,91 3 2 2 2 5,33 7,13
5 3 3 5,65 7,08 3 3 1 1 6,33 -
5 4 1 4,99 6,96 3 3 2 1 6,24 7,20
5 4 2 5,27 7,21 3 3 2 2 6,53 7,67
5 4 3 5,63 7,45 3 3 3 1 6,60 7,40
5 4 4 5,62 7,76 3 3 3 2 6,73 8,11
5 5 1 5,13 7,31 3 3 3 3 7,00 8,54
5 5 2 5,34 7,39 4 1 1 1 - -
5 5 3 5,71 7,58 4 2 1 1 5,83 -
5 5 4 5,64 7,82 4 2 2 1 6,13 7,00
5 5 5 5,78 8,00 4 2 2 2 6,55 7,39
6 1 1 - - 4 3 1 1 6,18 7,07
6 2 1 4,82 - 4 3 2 1 6,31 7,46
6 2 2 5,35 6,98 4 3 2 2 6,62 7,87
6 3 1 4,86 - 4 3 3 1 6,55 7,76
6 3 2 5,35 6,97 4 3 3 2 6,80 8,33
6 3 3 5,62 7,41 4 3 3 3 6,98 8,66

277
Fernando Maureira Cid
________________________________________________________________________

Tabla de valores críticos de la prueba de varianza de Kruskal-Wallis (continuación)

n1 n2 n3 n4 n5 0,05 0,01 n1 n2 n3 n4 n5 0,05 0,01


4 4 1 1 5,95 7,91 3 1 1 1 1 - -
4 4 2 1 6,39 7,89 3 2 1 1 1 6,58 -
4 4 2 2 6,73 8,35 3 2 2 1 1 6,80 7,60
4 4 3 1 6,64 8,23 3 2 2 2 1 7,31 8,13
4 4 3 2 6,87 8,62 3 2 2 2 2 7,68 8,68
4 4 3 3 7,04 8,88 3 3 1 1 1 7,11 -
4 4 4 1 6,73 8,59 3 3 2 1 1 7,20 8,07
4 4 4 2 6,96 8,87 3 3 2 2 1 7,59 8,58
4 4 4 3 7,14 9,08 3 3 2 2 2 7,91 9,12
4 4 4 4 7,24 9,29 3 3 3 1 1 7,58 8,42
2 1 1 1 1 - - 3 3 3 2 1 7,76 9,05
2 2 1 1 1 - - 3 3 3 2 2 8,04 9,51
2 2 2 1 1 6,75 - 3 3 3 3 1 8,00 9,45
2 2 2 2 1 7,13 7,53 3 3 3 3 2 8,20 9,88
2 2 2 2 2 7,42 8,29 3 3 3 3 3 8,33 10,20

278
Capítulo 16. Asociación de variables
________________________________________________________________________

ANEXO 14
Tabla de valores críticos del coeficiente de correlación de Spearman

n 0,05 0,01 n 0,05 0,01


1 - - 29 0,368 0,475
2 - - 30 0,362 0,467
3 - - 31 0,356 0,459
4 - - 32 0,350 0,452
5 1,000 - 33 0,345 0,446
6 0,886 1,000 34 0,340 0,39
7 0,786 0,929 35 0,335 0,435
8 0,738 0,881 36 0,330 0,427
9 0,700 0,833 37 0,325 0,421
10 0,648 0,794 38 0,321 0,415
11 0,618 0,755 39 0,317 0,410
12 0,587 0,727 40 0,313 0,405
13 0,560 0,703 41 0,309 0,400
14 0,538 0,679 42 0,305 0,395
15 0,521 0,654 43 0,301 0,391
16 0,503 0,635 44 0,298 0,386
17 0,488 0,618 45 0,294 0,382
18 0,472 0,600 46 0,291 0,378
19 0,460 0,584 47 0,288 0,374
20 0,447 0,570 48 0,285 0,370
21 0,435 0,556 49 0,282 0,366
22 0,425 0,544 50 0,279 0,363
23 0,415 0,532 60 0,255 0,351
24 0,406 0,521 70 0,235 0,307
25 0,398 0,511 80 0,220 0,287
26 0,390 0,501 90 0,207 0,271
27 0,382 0,492 100 0,197 0,257
28 0,375 0,483

279
Fernando Maureira Cid
________________________________________________________________________

280

También podría gustarte