Está en la página 1de 15

Unidad 4

1 //Escenario
Escenario27
Lectura fundamental
Fundamental

Análisisde
Etapas inferenciales:
un plan de comunicación
las pruebas
estratégica
paramétricas

Contenido

1 Correlación de Pearson

2 Pruebas t de diferencia de medias: t relacionadas y t independientes

3 Análisis de varianza a un factor Anova

Palabras clave: instrumento de medición, correlación, variable independiente.


Introducción
En el siguiente apartado se hará referencia a métodos de análisis de datos desde la estadística
inferencial, de acuerdo con Ross (2007) “la parte de la estadística relacionada con la extracción
de conclusiones a partir de los datos se conoce como estadística inferencial” (p. 4), la estadística
inferencial hace uso de procedimientos inductivos para generar comprensiones, conclusiones y
deducciones de los grupos poblacionales en estudio a partir de la selección de una muestra, de
manera que los análisis generados desde esta rama de la estadística tienen un carácter ampliativo.
Dicho de otra forma, los análisis inferenciales que se verán a continuación permitirán hacer
predicciones, pronósticos o correlaciones de una población tomando como referencia una serie de
datos obtenidos de una muestra.

Los tipos de análisis inferenciales que se abordaran en esta lectura hacen referencia a las pruebas
paramétricas, el concepto paramétrico en estadística implica que existe un conocimiento acerca
de la distribución de los datos de una población que en la mayoría de los casos están agrupados en
intervalos. A continuación, se brindarán las especificaciones y algunos ejemplos correspondientes a
la Correlación de Pearson y regresión lineal, la Pruebas de diferencia de medias (t relacionadas y t
independientes) y el Análisis de varianza a un factor (Anova).

Es importante aclarar que los ejercicios y fórmulas que se exponen a continuación, pueden
ser desarrollados por software como SPSS accediendo a la página de IBM SPSS Modeler en
la sección: SPSS Modeler demo 1: Access data o en el siguiente enlace https://www.ibm.com/
products/spss-modeler/demos donde encontrará tutoriales acerca del manejo de este y la
posibilidad de descargar un demo.

1. Correlación de Pearson
Es un tipo de análisis estadístico de corte inferencial que sirve como su nombre lo indica para
establecer grados de correlación entre dos variables cuantitativas y continuas, las variables cuantitativas
son aquellas que se pueden representar en valores numéricos, por ejemplo, talla, peso, edad, salario,
coeficiente de inteligencia, entre otras. El coeficiente de correlación de Pearson es útil para el análisis
de datos de estudios cuyo alcance es correlacional y cuyas hipótesis de trabajo van encaminadas en
este sentido, es decir hipótesis de trabajo que plantean la correlación entre dos variables.

POLITÉCNICO GRANCOLOMBIANO 2
Hay que tener en cuenta que, por más evidente que pueda parecer una correlación entre dos variables, es
importante someterlas a un tipo de análisis estadístico que valide dicha relación. En palabras de Sampieri
et ál. (2014) “es una prueba estadística para analizar la relación entre dos variables medidas en un nivel por
intervalos o de razón. Se le conoce también como “coeficiente producto-momento” (p. 304).

La ruta para desarrollar ejercicios acerca de la correlación de Pearson mediante el programa


SPSS podrá encontrarla en la página IBM Knowledge Center, como correlaciones bivariadas o en
el siguiente enlace:https://www.ibm.com/support/knowledgecenter/es/SSLVMB_sub/statistics_
mainhelp_ddita/spss/base/idh_corr.html

El siguiente ejemplo permitirá reconocer cómo se da una correlación entre variables, inicialmente
se supone que un investigador ha planteado dos hipótesis, una de trabajo y una nula, las cuales se
exponen a continuación.

• Ho “las variables A y B están correlacionadas”.

• H1 “las variables A y B no están correlacionadas”.

La recolección de datos generada mediante un instrumento de medición arroja los datos que se
exponen en la siguiente tabla.

Tabla 1. Ejemplo datos Pearson 1

A B
0 95
1 93
2 90
3 89
4 88
5 85
6 89
7 75
8 70
9 65

Fuente: elaboración propia

POLITÉCNICO GRANCOLOMBIANO 3
Si la información de la tabla anterior se consolida en una figura de tipo “XY” se observa de la siguiente
forma, en la cual se puede apreciar que entre más aumenta la A, la variable B tiende a disminuir, a este
efecto se le denomina tendencia e implica la existencia de una relación entre las variables, en este
caso una correlación perfecta negativa.

96
94
Inteligencia

92
90
88
86
84
0 2 4 6 8 10
Horas de estudio

Figura 1. Correlación perfecta negativa


Fuente: elaboración propia

Si por el contrario, se trabajar con la siguiente lista de datos, la relación entre las dos variables es
perfecta positiva, pues las dos variables aumentan en consonancia.

Tabla 2. Ejemplo datos Pearson 2

A B
0 45
1 46
2 47
3 48
4 49
5 50
6 51
7 52
8 53
9 54
Fuente: elaboración propia

POLITÉCNICO GRANCOLOMBIANO 4
56
54
52
Variable B
50
48
46
44

0 2 4 6 8 10
Variable A

Figura 2. Correlación perfecta positiva


Fuente: elaboración propia

En psicología es muy difícil que dos variables se correlacionen de manera perfecta y lineal, ya que
las condiciones humanas están llenas de condiciones de aleatoriedad, si por ejemplo se quisiera
correlacionar la variable inteligencia con el número de horas semanales de estudio de un grupo
de estudiantes, se podrían encontrar con gráficos de este tipo, en el cual la inteligencia aumenta
de acuerdo con las horas de estudio, pero no de manera perfecta ni lineal. Lo cual se denomina
correlación positiva.

Tabla 3. Ejemplo datos Pearson 3

A B
0 56
1 48
2 40
3 50
4 60
5 100
6 80
7 92
8 102
9 100

Fuente: elaboración propia

POLITÉCNICO GRANCOLOMBIANO 5
120
100

Inteligencia
80
60
40
20
0
0 2 4 6 8 10
Horas de estudio

Figura 3. Correlación perfecta positiva


Fuente: elaboración propia

Ahora, se analizan dos variables que no tienen ningún tipo de correlación, por ejemplo, estatura
e inteligencia, los datos y los gráficas de dispersión se darían de esta forma, lo cual indicaría una
correlación nula entre las dos variables.

Tabla 4. Ejemplo datos Pearson 4

Estatura Inteligencia

120 56
154 48
136 40
112 50
111 60
145 100
121 80
122 92
150 102
100 100

Fuente: elaboración propia

POLITÉCNICO GRANCOLOMBIANO 6
120
100
Inteligencia

80
60
40
20
0
0 50 100 150 200
Estatura

Figura 4. Correlación nula


Fuente: elaboración propia

A renglón seguido se revisa la fórmula correspondiente al coeficiente de correlación de Pearson,


que es la siguiente, y se calcula como la covarianza dividida en el producto de las desviaciones
típicas de las dos variables.

sXY
r= s s
X Y

El coeficiente de correlación de Pearson se interpreta teniendo en cuenta que su resultado se da en


que los valores oscilan entre 0 y 1. Entre más cerca de 1 mayor será la correlación, y menor cuanto
más cerca de cero, así mismo, si el índice de correlación puntúa por debajo cero existe una tendencia
a la correlación negativa y si está por encima de cero existirá una tendencia hacia las correlaciones
positivas, por ultimo si el valor es 0 se podría hablar de la independencia de variables.

POLITÉCNICO GRANCOLOMBIANO 7
2. Pruebas t de diferencia de medias: t relacionadas y t independientes
Es una prueba de carácter estadístico que nos permite observar si dos grupos tienen diferencias
significativas respecto al cálculo de sus medias en determinada variable. Este tipo de prueba es útil
cuando el planteamiento de la hipótesis de trabajo del investigador plantea diferencias entre dos
grupos mientras que la hipótesis nula plantea que los grupos no difieren. El proceso de esta prueba
se realiza sobre una variable independiente, si se quiere analizar distintas de estas variables en un
solo estudio se realizará un a prueba t por cada variable. Las pruebas t se trabajan con muestras
relacionadas con esta fórmula.

Y para muestras independientes con esta fórmula.

La ruta para desarrollar ejercicios acerca de la prueba t para muestras independientes mediante el
programa SPSS podrá encontrarla en la página IBM Knowledge Center, en la sección de Prueba
T para muestras independientes o en el siguiente enlace:
https://www.ibm.com/support/knowledgecenter/es/SSLVMB_sub/statistics_mainhelp_ddita/
spss/base/idh_ttin.html

Las pruebas t son útiles para estudios que contemplan diseños de corte experimental, en los
cuales se puede hacer una comparación de los resultados de una preprueba con los de una
posprueba, así mismo, se utilizan en el caso de comparación de las mediciones de resultados
de grupos control y grupos experimentales. Revisemos los pasos para desarrollar la prueba t
mediante un ejemplo de un investigador que quiere medir y comparar el desempeño verbal que
tienen los estudiantes de ingeniería y psicología en una escala de inteligencia.

POLITÉCNICO GRANCOLOMBIANO 8
Las muestras seleccionadas para este ejercicio son independientes pues son dos grupos son distintos,
si se hablara del mismo grupo, pero se quisiera comparar los resultados de un diseño pretest o postest
se hablaría de muestras relacionadas. Según Argota y Argota (2018), “en la actualidad, el uso de
pruebas estadísticas representa una herramienta fundamental para la toma de decisiones. La prueba
t-Student es una de las más utilizadas para la comparación de dos muestras en diferentes escenarios
de interés (p. 145).

Inicialmente es necesario tener las hipótesis planteadas (de trabajo y nula).

• Ho: los estudiantes de psicología tienen mejor desempeño verbal que los estudiantes de ingeniería.

• Hn: los estudiantes de psicología no tienen mejor desempeño verbal que los estudiantes de
ingeniería.

Tras la realización de la prueba de desempeño verbal se identificaron los siguientes resultados en una
escala de 20 puntos.
Tabla 5. Ejemplo datos prueba t

Psicología Ingeniería
15 13
15 11
20 10
14 14
13 12
12 15
16 10
Fuente: elaboración propia.

Los resultados que se exponen en la figura dan cuenta de una media más alta de los resultados de los
estudiantes de psicología, sin embargo, la figura por sí misma no constituye un criterio estadístico
de significancia, motivo por el cual se ampliará el análisis con la prueba T, al igual que los análisis
estadísticos que hemos revisado hasta el momento, el valor de la prueba t puede estimarse por medio
de los programas estadísticos (en el material de apoyo de este Escenario podrá encontrar vínculos
para acceder a tutoriales de estos análisis).

POLITÉCNICO GRANCOLOMBIANO 9
25

20

15
Psicología
10 Ingeniería
5

0
1 2 3 4 5 6 7

Figura 5. Comparación de medias


Fuente: elaboración propia.

Un análisis estadístico mediante Excel, por ejemplo, arrojaría la siguiente tabla, de acuerdo con los
datos expuestos en la situación que se viene exponiendo, en donde el valor t arroja un resultado
inferior al estadístico t por lo que la hipótesis inicial del investigador se validaría al comprobar
estadísticamente que los estudiantes de psicología tuvieron superioridad en la media dada a partir de
los resultados de la aplicación del test.

Tabla 6. Prueba t para dos muestras suponiendo varianzas desiguales

Psicología Ingeniería
Media 17,14285714 12,14285714
Varianza 3,80952381 3,80952381
Observaciones 7 7
Diferencia hipotética de las medias 0
Grados de libertad 12
Estadístico t 4,792572378
P(T< = t) una cola 0,000219526
Valor crítico de t (una cola) 1,782287556
P(T< = t) dos colas 0,000439053
Valor crítico de t (dos colas) 2,17881283

Fuente: elaboración propia

POLITÉCNICO GRANCOLOMBIANO 10
Como se puede apreciar, en la primera fila de la tabla se encuentran las medias de las dos muestras,
que para el caso de psicología fue más alta, posteriormente en la segunda fila esta la varianza de las
dos muestras que para este caso fueron iguales, lo que indica que hubo una dispersión de los datos
similar en las dos muestras, a continuación se encuentran las observaciones realizadas, es decir el
número de sujetos con los que se trabajó en cada una de las muestras. De los valores estadísticos que
se tienen en cuenta a continuación es importante reconocer P (T< = t) dos colas que se mide con un
parámetro de 0.05, si es menor que este valor, como en el caso propuesto, se podría afirmar que la
diferencia estadística entre los dos grupos es significativa.

3. Análisis de varianza a un factor Anova


Es una herramienta estadística que permite identificar si hay diferencias significativas entre las medias
de tres o más grupos, tomando como referencia el análisis de la varianza de los mismos, es decir
el análisis busca diferencias significativas de la varianza de las medias intragrupo vs. las diferencias
significativas de las medias de las varianzas a nivel inter grupal.

Se denomina Anova por sus siglas en inglés (Analysis of Variance), según Rubio y Berlanga (2012),
“es una prueba estadística desarrollada para realizar simultáneamente la comparación de las medias
de más de dos poblaciones. A la asunción de Normalidad debe añadirse la de la homogeneidad de las
varianzas de las poblaciones a comparar” (p. 88).

La ruta para desarrollar ejercicios acerca de Anova mediante el programa SPSS podrá encontrarla
en la página IBM en la sección de Análisis de Varianza (Anova) o en el siguiente enlace:
https://www.ibm.com/support/knowledgecenter/es/SS4QC9/com.ibm.solutions.wa_an_
overview.2.0.0.doc/analysis_of_variance_(anova).html

Algunos ejemplos de las situaciones investigativas que se pueden abordar mediante el Anova son
las siguientes.

• Un grupo de pacientes institucionalizados está recibiendo tres tipos de tratamiento distintos:


uno farmacológico, uno alternativo y uno nutricional, se quiere saber cuál tiene mejores efectos.

• Se quiere saber si existen diferencias estadísticas significativas en el resultado de los Ecaes de


estudiantes de distintas universidades del país.

• Evaluar la efectividad de distintos tipos de metodologías para aprender un segundo idioma.

POLITÉCNICO GRANCOLOMBIANO 11
Se habla de un factor porque a partir de una variable independiente se analizan distintos niveles,
en los ejemplos anteriores podemos identificar que las variables independientes son, por ejemplo,
el tratamiento de los pacientes y los niveles serían los distintos tipos que existen. Las hipótesis
que se manejan en este tipo de análisis se dan en este sentido:

• hipótesis nula, H0: las medias de los grupos son iguales. μ1 = μ2.

• Hipótesis alternativa, H1: alguna de las medias es distinta. μi ≠ μj.

Al igual que en la prueba t el nivel de significancia elegido para la Anova es usualmente alfa = 5%
o 0,05. Y se interpreta de la siguiente manera.

• Cuando el valor estadístico de la Anova es inferior al alfa (0.05) se rechaza la hipótesis nula y se
valida la alternativa, lo que significa que hay menos de dos medias grupales distintas entre sí.

• En caso contrario se infiere que no existen diferencias significativas entre los grupos evaluados.

Si por ejemplo un investigador desea confirmar la hipótesis de que las medias del siguiente
grupo de datos correspondientes a tres tipos de tratamiento son iguales, utilizando un nivel de
significancia de 0.05 se encontraría lo siguiente.

Tabla 6. Ejemplo datos ANOVA

Tratamiento 1 Tratamiento 2 Tratamiento 3


8 3 3
6 2 4
10 4 5
9 3 4
Fuente: elaboración propia

En donde se plantean las siguientes hipótesis:

• H0: M1=M2=M3.

• H1: M1≠M2≠M3.

POLITÉCNICO GRANCOLOMBIANO 12
De acuerdo con el análisis de varianza realizado se identificarían los resultados de la siguiente tabla
(el análisis de varianza se realiza a partir de programas informáticos como SPSS o Microsoft Excel)
en la cual se pueden encontrar el número de muestras, la sumatoria de los resultados, la media de los
resultados de cada grupo donde todos los valores difieren y, por último, la varianza de los resultados
de cada grupo donde se observan diferencias de un grupo respecto a los otros dos.

Tabla 7. Resultados, análisis de varianza

RESUMEN
Grupos Cuenta Suma Promedio Varianza
Tratam. 1 4 33 8,25 2,91666667
Tratam. 2 4 12 3 0,66666667
Tratam. 3 4 16 4 0,66666667

Fuente: elaboración propia

El análisis estadístico de los programas informáticos también arroja la siguiente información


correspondiente al análisis de varianza de la cual se va a inferir si la diferencia de las medias es
significativa o no.

Tabla 8. Diferencia de las medidas

Origen de las Suma de Grados de Promedio de los Valor crítico


F Probabilidad
variaciones cuadrados libertad cuadrados para F
Entre grupos 62,16666667 2 31,08333333 21,9 0,000346093 4,25649473
Dentro de
12,75 9 1,416666667
los grupos
Total 74,91666667 11
Fuente: elaboración propia

Para interpretar esta tabla es necesario reconocer que el valor estadístico de contraste es el valor
“p” o probabilidad, lo cual quiere decir que es el valor que se compara con el nivel de significancia de
referencia que, para el caso de Anova, es 0.05, de lo cual se puede decir que las medias de los grupos
son diferentes estadísticamente de una manera significativa o que alguna de las medias es distinta, es
decir se rechaza la hipótesis nula y se valida la alternativa.

POLITÉCNICO GRANCOLOMBIANO 13
Referencias
Argota, G., y Argota, H. (2018). Aplicación de la prueba t-Student para la competencia técnica
y trazabilidad analítica: ejemplo de estudio. Revista Campus, 23(26), 145–150. https://doi.
org/10.24265/campus.2018.v23n26.04

Ross, S. M. (2007). Introducción a la estadística. Barcelona, España: Reverté.

Rubio, M. J., y Berlanga, V. (2012). Cómo aplicar las pruebas paramétricas bivariadas t de Student y
ANOVA en SPSS. Caso práctico. Reire, 5(2).

Sampieri, R., Hernández, C. y Baptista, P. (2014). Metodología de la investigación. Ciudad de México,


México: SD Interamericana Editores.

POLITÉCNICO GRANCOLOMBIANO 14
INFORMACIÓN TÉCNICA

Módulo: Métodos Cuantitativos en Ciencias Sociales


Unidad 4: Análisis inferencial: las pruebas paramétricas y las
pruebas no paramétricas
Escenario 7: Análisis inferencial, las pruebas paramétricas

Autor: Héctor Alfredo Ramírez

Asesor Pedagógico: Alexandra Bolaños


Diseñador Gráfico: Cristofer Sánchez Sepúlveda
Asistente: Laura Delgado

Este material pertenece al Politécnico Grancolombiano.


Prohibida su reproducción total o parcial.

POLITÉCNICO GRANCOLOMBIANO 15

También podría gustarte