Está en la página 1de 19

Estadística aplicada a la investigación social II

UNIDAD 3: PRUEBAS ESTADÍSTICAS DE CORRELACIÓN E


INDEPENDENCIA ENTRE VARIABLES
Autor: José Luis Sandoval Dávila

Introducción

Por medio de las pruebas estadísticas para la comprobación de hipótesis se pretende


encontrar la relación causal entre las variables, así como su fuerza, magnitud y sentido.

Las pruebas estadísticas ofrecen evidencias para determinar la fuerza de la relación. Para
ello se considera el tipo de variables por nivel de medición en virtud de que existen pruebas
específicas para cada uno de ellos.

En esta unidad se presentan pruebas de correlación para variables numéricas y no


numéricas, así como para variables nominales y ordinales, con las que el investigador
adquirirá los elementos y criterios básicos para la comprobación de sus hipótesis de trabajo.

Temario

1. Conceptos
2. Prueba de correlación Q de Kendall
3. Prueba de correlación R de Pearson
4. Prueba de independencia entre variables Ji Cuadrada
5. Prueba de correlación C de Pearson

Unidad 3 / Pág. 1
Estadística aplicada a la investigación social II

1. CONCEPTOS

Objetivo del tema


Identificar los conceptos básicos sobre las pruebas de correlación de variables, a partir
de su repaso general, como antecedente para los procedimientos que se explicarán en
los siguientes temas.

Fundamentalmente, toda investigación busca explicar el comportamiento de los fenómenos


en función de la relación entre variables. Teórica o empíricamente, el investigador supone
cuáles son la posibles causas que originan que una variable determine la fuerza de relación
entre dos o más de ellas; sin embargo, esas suposiciones deberán sustentarlas mediante la
aplicación de diversas pruebas estadísticas que le permitan confirmar o desechar las
hipótesis que se ha planteado para su proceso de investigación.

En este apartado se incluyen las pruebas estadísticas básicas para la comprobación de


hipótesis de relación entre variables, las que permitirán argumentar, a partir de los datos
observados, cuál es la magnitud de la fuerza de asociación que presentan las variables en
estudio. Estas pruebas indicarán, según sea el caso, si dos variables mantienen la relación
de dependencia y en qué magnitud, para que el investigador tenga elementos para llegar a
conclusiones que le permitirán orientar la toma de decisiones.

Conceptos

Es menester que el lector se involucre con algunos términos que se presentarán a lo largo
de las siguientes líneas, sugiriéndole asistirse por otras fuentes para finalmente formarse el
mejor concepto de los elementos empleados en el proceso para la comprobación o
contrastación de hipótesis estadísticas.

Unidad 3 / Pág. 2
Estadística aplicada a la investigación social II

Figura 1. Conceptos básicos

Unidad 3 / Pág. 3
Estadística aplicada a la investigación social II

2. PRUEBA DE CORRELACIÓN Q DE KENDALL

Objetivo del tema


Reconocer el procedimiento para realizar la prueba Q de Kendall, a partir del análisis de
su fórmula, para medir la correlación entre dos variables.

En ciencias sociales es frecuente que el investigador diseñe sus instrumentos para la


recolección de datos, considerando sólo dos características de las variables como: "SÍ" y
"NO", "De Acuerdo" y "En desacuerdo", "Hombre" y "Mujer". Este tipo de respuestas es el
factor más elemental de estudio; sin embargo, no por elemental carece de importancia; ya
que existen diversas pruebas estadísticas que permiten encontrar las evidencias que
justifican el comportamiento de dos variables. Recuerde que las variables en ciencias
sociales son medidas en diversas escalas o niveles, según su naturaleza.

La prueba Q de Kendall, permite medir la correlación entre dos variables nominales con dos
categorías cada una de ellas, como el sexo: "Masculino" y "Femenino", o como las
respuestas a la pregunta de ¿Se encuentra satisfecho con los programas de capacitación de
su empresa? Cuyas respuestas son: "Sí" y "No".

Es una prueba sencilla, muchos investigadores y especialistas la consideran como débil y sin
importancia; claro que existen pruebas estadísticas de mayor complejidad para variables
nominales; sin embargo, es un indicador que permite, con un nivel alto de confianza,
observar el comportamiento entre ese tipo de variables, ofreciendo elementos sobre la
fuerza en que están interactuando.

Con esta prueba se obtiene el coeficiente Q, el cual parte de la observación de las


frecuencias observadas conjuntas entre dos variables nominales de dos categorías. El
coeficiente Q tiene un rango de variación de cero a uno, en valor absoluto. Los valores
extremos que se pueden obtener al realizar el cálculo correspondiente indican lo siguiente:
si el coeficiente es igual a cero, significa que entre las dos variables en estudio, no existe
relación alguna. Si el coeficiente es igual a uno, entonces se concluye que las variables se
encuentran totalmente relacionadas entre sí, lo que significa que una depende totalmente de
la otra. No obstante, en la práctica y sobre todo en ciencias sociales, esos valores extremos
son materialmente imposibles de presentarse.

Ejemplo: En una organización se pretende conocer el impacto que ha tenido el rendimiento


de los empleados en los programas de capacitación con su desempeño en el trabajo. La
variable rendimiento está clasificada en "Rendimiento eficaz" y "Rendimiento ineficaz". El
desempeño en el trabajo está medido como "Buen desempeño" y "No buen desempeño".
Supóngase al realizar los cálculos del coeficiente Q de Kendall tenemos un valor de Q = 0.7
lo que indica que las variables no están totalmente relacionadas, pero sí existe cierta
dependencia entre ellas. La conclusión en este caso es que el grado de asociación alcanza el

Unidad 3 / Pág. 4
Estadística aplicada a la investigación social II

70% de los casos observados, lo que en otras palabras refiere que el desempeño en el
trabajo mantiene relación del 70% con el rendimiento en los programas de capacitación.

El coeficiente Q de Kendall se calcula con el siguiente estadístico:

AD - BC

Q = -------------------------- (1)

AD + BC

Donde los coeficientes A, B, C y D son las frecuencias conjuntas observadas en la tabla de


contingencia o matriz de doble entrada:

Ejemplo: con los datos de la siguiente tabla, se requiere probar la hipótesis nula de que la
afectividad de los trabajadores no influye en la relación con sus compañeros de trabajo.

Unidad 3 / Pág. 5
Estadística aplicada a la investigación social II

Hipótesis estadística:

Ho: Q=0
H1: Q=0

Interprete a Q = O como la inexistencia de relación entre las variables analizadas, lo que


significa que se espera que la afectividad de los trabajadores es independiente de las
relaciones en el trabajo.

La regla de decisión será:

1. Aceptar Ho, si el coeficiente Q a calcular es menor a 0.8


2. No aceptar Ho si el coeficiente Q es mayor o igual a 0.8

Esto significa que el criterio empleado para determinar si la afectividad influye en las
relaciones en el trabajo, es que por lo menos en el 80% de los datos observados se confirme
el supuesto del investigador, esto es, que no sea aceptada la hipótesis nula. Recuerde que la
intención de plantear la hipótesis nula es rechazarla y su sentido es contrario a la hipótesis
de trabajo.

Al calcular el coeficiente Q con los datos de la tabla encontramos que su valor es Q = 0.36
que al compararlo en la regla de decisión nos lleva a la tomar la decisión estadística
correspondiente:

Decisión estadística: Aceptar Ho.

Conclusión: Los datos utilizados para la prueba pretenden confirmar que la afectividad de los
trabajadores en independiente, o tiene poca relación o influencia en las relaciones de estos
con sus compañeros; ya que se observó, que sólo 36 de cada 100 sí presentan relación
alguna (36%) entre ambas variables. Seguramente que las relaciones personales están
influidas, por lo menos a partir de los datos de la muestra tomada para la investigación, por
otras variables como el liderazgo, la motivación, entre otras.

Unidad 3 / Pág. 6
Estadística aplicada a la investigación social II

3. PRUEBA DE CORRELACIÓN R DE PEARSON

Objetivo del tema


Identificar el procedimiento de la prueba R de Pearson, a partir de su explicación general,
para analizar el impacto y asociación entre variables.

Como ha sido referido anteriormente, las variables de mayor presencia o incidencia en las
ciencias sociales son de carácter no numérico, característica que hace la diferencia con las
demás disciplinas o áreas del conocimiento. Actualmente, nos encontramos en la etapa de
adecuación a los nuevos ritmos y exigencia de los mercados tanto nacionales como
internacionales, sea cual fuere su ámbito o contexto de acción: social, económico, cultural,
etc.; para cambiar el paradigma de que sólo en la investigación social se trabaja con datos
no numéricos, de allí la discrepancia, también actual, entre investigadores y profesionales de
la estadística aplicada a las ciencias sociales.

La tendencia actual es que los fenómenos cualitativos sean medidos escalarmente desde el
diseño de la investigación, con la ventaja de tener mayor libertad o movilidad para la
medición de las variables y su relación entre ellas. Uno de los recursos de mayor
confiabilidad para medir qué tanto impacta el comportamiento de una variable con aquellas
con quienes interactúa, es el coeficiente de correlación de Pearson, mismo que también mide
el grado de asociación entre variables, pero en este caso sólo escalares, categoría en que
clasificamos a las variables de nivel intervalar y racional.

Este coeficiente de correlación Pearson se mueve también alrededor del intervalo de 0 a 1.


Si el coeficiente toma el valor de 1 se dice que la correlación es perfecta, pero si toma el
valor cero se identifica como correlación nula.

Cabe mencionar que este coeficiente es utilizado sólo con datos numéricos no agrupados por
intervalos, o lo que llamamos lista de datos.

Unidad 3 / Pág. 7
Estadística aplicada a la investigación social II

El estadístico de prueba para el coeficiente de correlación de Pearson es el siguiente:

(2)

En esta prueba, la hipótesis nula apunta también, como el caso del coeficiente Q de Kendall,
a confirmar la inexistencia de correlación entre las variables numéricas consideradas para el
análisis.

Ejemplo: Los siguientes datos corresponden a las horas semanales que un grupo de 10
mujeres que trabajan desde su casa, dedican a su negocio personal y los ingresos promedio
obtenidos.

Unidad 3 / Pág. 8
Estadística aplicada a la investigación social II

Madre 1 2 3 4 5 6 7 8 9 10
Horas 12 10 8 6 9 12 15 11 20 6
Ingreso 2400 1700 1900 1200 2200 1800 3000 2400 3800 1000

Se requiere probar la hipótesis de trabajo de que los ingresos de las personas que trabajan
desde su casa, están determinados por las horas que le dedican al negocio personal.

En este ejemplo se desea conocer el nivel de correlación entre dos variables numéricas
escalares con datos no agrupados, por lo tanto la hipótesis estadística será la siguiente:

Hipótesis nula H0: rp = O

Hipótesis alternativa H1: rp = O

El estadístico de prueba a utilizar es el coeficiente de correlación de Pearson, estructurando


la regla de decisión como sigue:

1. Aceptar Ho si el valor de rp < 0.8 >


2. No aceptar Ho si el valore de rp ≥ 0.8

Al sustituir los datos requeridos por el estadístico de prueba y realizar las operaciones
respectivas, se obtiene que el coeficiente de correlación es:

rp = 0.93

Al comparar este resultado en la regla de decisión, la hipótesis nula no se acepta, lo que


indica, por la magnitud del valor obtenido, que existe una correlación muy alta entre las
horas de trabajo semanales y el ingreso promedio de las mujeres que laboran desde su
hogar.

Unidad 3 / Pág. 9
Estadística aplicada a la investigación social II

4. PRUEBA DE INDEPENDENCIA ENTRE VARIABLES JI


CUADRADA

Objetivo del tema


Examinar el procedimiento de Ji Cuadrada, a partir de su caracterización y ejemplos,
para medir el grado de independencia entre variables.

Entre otras aplicaciones, la prueba Ji cuadrada (X2) pretende evidenciar, para la relación
entre variables nominales u ordinales, qué tan dependientes o independientes son una de la
otra, o qué tanto una explica el comportamiento de la otra, por medio de la comparación de
la distribución de las frecuencias empíricamente obtenidas en el proceso de recolección de
datos, con la distribución de las frecuencias que teóricamente se esperaba por categoría de
incidencia.

Un ejemplo de una distribución de frecuencias observadas se presenta en una tabla de


contingencia como la siguiente y a partir de ella se realiza la prueba.

Rendimiento en el trabajo
Estado civil Total
Bajo Medio Alto
Soltero 82 76 20 178
Casado 75 27 53 155
Total 157 103 73 333

El estadístico utilizado para esta prueba es:

(3)

Donde:

Fo = frecuencia observada en la incidencia entre dos categorías de las variables.


Fe = frecuencia esperada por la tabla de contingencia entre esas dos categorías.

La prueba consiste en comparar el valor calculado de X2 con el obtenido a partir de la tabla


de la distribución X2 que se presenta en el anexo al final de este documento. Para accesar
a esa tabla deberá determinarse el nivel de significación o el nivel de confianza con el que se
desea hacer la prueba y los grados de libertad de la distribución, obtenidos de la siguiente
manera:

Unidad 3 / Pág. 10
Estadística aplicada a la investigación social II

Grados de libertad = (total de renglones - 1) (total de columnas - 1).

La tabla de contingencia que se presenta en este apartado tiene 2 renglones y 3 columnas,


por lo tanto tiene (2 - 1) (3 - 1) = (1) (2) = 2 grados de libertad.

Para la obtención del valor de X2 calculado, la tabla de contingencia presenta las frecuencias
observadas. Las frecuencias esperadas se calculan con la siguiente expresión:

(Total de frecuencias del renglón) (Total de frecuencias de la columna)


Fe = ------------------------------------------------------------------------------------- (4)
(Suma total de frecuencias marginales de la tabla)

En la tabla del ejemplo, la frecuencia observada en la primera celda es 82, que son el total
de personas casadas con bajo rendimiento en el trabajo. Si se desea obtener la frecuencia
esperada en esa celda, utilicemos la fórmula anterior y obtendremos:

(178) (157)
Fe = ------------------- = 83.92
(333)

Significa que para evidenciar que las variables son independientes, la tabla de contingencia
esperaba que del total de personas tomadas para la prueba, 83.92 fueran casadas con bajo
rendimiento en el trabajo. Nótese que en éste caso la diferencia entre la frecuencia
observada (82) y la esperada (83.92) es mínima. Por razones prácticas siga el criterio de
redondear sus resultados al entero más cercano, en este caso la frecuencia esperada
obtenida se redondea a 4.

En la siguiente tabla se presentan entre paréntesis las frecuencias esperadas o teóricas,


para su comparación con las frecuencias observadas o empíricas:

Rendimiento en el trabajo
Estado civil Total
Bajo Medio Alto
Soltero 82 (84) 76 (55) 20 (39) 178
Casado 75 (73) 27 (48) 53 (34) 155
Total 157 103 73 333

La prueba X2 compara la distribución de esas frecuencias observadas y esperadas por cada


celda, y dependiendo qué tan grande se presente la diferencia, saca las conclusiones de si
ésta es significativa para determinar si las variables puestas a prueba son independientes o
no.

Si la diferencia no es notablemente grande, la conclusión es que las variables relacionadas


son independientes y una no explica a la otra, lo que en el ejemplo significaría que el
rendimiento en el trabajo no depende del estado civil de los empleados, sino que serán otras
causas las que lo determinen. Si por el contrario, las diferencias mencionadas sí son
significativamente grandes, la conclusión es que sí existe dependencia entre las variables en

Unidad 3 / Pág. 11
Estadística aplicada a la investigación social II

estudio, lo que indicaría en el ejemplo que el estado civil determina o influye en el


rendimiento laboral.

Analice las diferencias indicadas y responda: ¿Cuál es su conclusión? Continúe con el estudio
de los detalles de la prueba y compare su conclusión, suerte.

Aunque esta prueba permite tomar más oportunamente decisiones; se recomienda que en
los primeros ejercicios se actúe con cautela, ya que para determinar si la diferencia entre
dos valores es grande o pequeña, dependerá de diversos factores como el contexto y las
unidades de medición, entre otros.

Por ejemplo: la diferencia de un minuto entre iniciar una sesión de trabajo antes o después
de la hora fijada, tal vez no tenga ninguna trascendencia y se apreciaría como mínima o
despreciable. Pero si ese minuto de diferencia se contextualiza en el suministro de oxígeno a
un paciente hospitalario, puede ser fatal.

Continuando con la presentación y realización de nuestra prueba X2, obsérvese la siguiente


gráfica, en ella se indica la región de aceptación de la hipótesis nula Ho, la región de no
aceptación, también referida como nivel de significación α (alfa), en este caso de 0.05 ó 5%.

La regla de decisión de esta prueba se plantea a partir de indicar cuál es el valor de X2 que
determinará la frontera entre la región de aceptación y la región de rechazo. Este valor es
llamado X2 teórica y se obtiene de la tabla del anexo, considerando los grados de libertad y
el nivel de significación con que se realizará la contrastación de la hipótesis nula. El valor de
la X2 que se calcula con los datos de la tabla de contingencia, se compara con el de la X2
teórica. Si el valor calculado es menor al valor teórico, entonces se acepta la hipótesis nula
(Ho), lo que indica que las variables son independientes; pero si el valor calculado es mayor
al valor teórico, entonces está cayendo en la zona de no aceptación, por lo que la hipótesis
nula (Ho), no es aceptada, refiriendo entonces que las variables no son independientes, esto
es que una explica el comportamiento de la otra.

Regla de decisión de la prueba X2

1. Aceptar Ho si: X2 calculada < X2 teórica


2. No aceptar Ho si: X2 calculada ≥ X2 teórica

Unidad 3 / Pág. 12
Estadística aplicada a la investigación social II

Para concluir la prueba en nuestro ejemplo, calculemos el valor de los datos de la tabla de
contingencia, siguiendo la fórmula:

Celda Frec. observada Frec. esperada (Fo-Fe) (Fo-Fe)2 (Fo-Fe)2/Fe


1 82 84 -2 4 0.05
2 76 55 21 441 8.023
20 39 -19 361 9.264
75 73 2 40.055 27
48 -21 441 9.196 53
34 19 361 10.62
Suma 37.19

Con los dos grados de libertad de la tabla de contingencia y si deseamos realizar la prueba
con el 5% de nivel de significación ó 95% de confianza, como se facilite más, hay que
revisar la tabla 2 del anexo y en la primera columna localice 2 grados de libertad y busque la
intersección con la columna 0.05, allí encontrará que el valor de la X2 teórica = 5.991.

Al comparar ambos valores (X2 calculada = 37.19 y X2 teórica = 5.991) en la regla de


decisión, se rechaza la hipótesis nula (Ho), concluyendo que las variables no son
independientes, lo que se interpreta afirmando que el rendimiento en el trabajo sí mantiene
relación con el estado civil de los empleados. ¿Confirmó su decisión anterior?

Unidad 3 / Pág. 13
Estadística aplicada a la investigación social II

5. PRUEBA DE CORRELACIÓN C DE PEARSON

Objetivo del tema


Analizar el procedimiento de la prueba C de Pearson, a partir de su fórmula y algún
ejemplo concreto, para emplearla en el análisis de variables de más de dos categorías.

En ciencias sociales es común que la investigación requiera de realizar pruebas de


correlación entre variables nominales de más de dos categorías, al menos una de ellas. En
este caso podrá disponer de un estadístico sencillo que se apoya en el principio del
coeficiente X2.

El coeficiente C de Pearson es una herramienta que permite medir el nivel de correlación


entre dos variables nominales con más de dos categorías como estado civil: soltero, casado,
divorciado; como por ejemplo en la pregunta siguiente: ¿está usted de acuerdo en trabajar
en fines de semana? Cuyas respuestas son: de acuerdo, ni de acuerdo ni en desacuerdo, en
desacuerdo.

El estadístico de prueba es el siguiente:

(5)

Para obtener el valor del coeficiente C de Pearson, deberá calcularse el valor de X2 a partir
de los datos de la tabla que relaciona las variables.

Si este estadístico es igual a cero (C = O) se dice que las variables no están correlacionadas
o son independientes. Entre más cercano se encuentre el coeficiente de cero mayor será la
tendencia a que las variables comparadas no guarden relación entre sí. En la medida que el
coeficiente vaya aumentando su valor, las variables estarán más correlacionadas. En otras
palabras, una de ellas explicará el comportamiento de la otra. El máximo valor que puede
tomar el coeficiente C estará cercano a la unidad, indicando la existencia de un alto nivel de
asociación entre las variables.

Dado que es una prueba de correlación, la hipótesis nula se plantea en los siguientes
términos:

Unidad 3 / Pág. 14
Estadística aplicada a la investigación social II

Hipótesis nula Ho: C=0


Hipótesis alternativa H1: C≠ 0

La regla de decisión dependerá del interés y exigencia del investigador o de la investigación,


recordando que el valor máximo podrá estar muy cercano a la unidad.

Ejemplo: Se desea conocer si la disposición de los trabajadores para laborar en fin de


semana depende de su estado civil, o qué tanto influye éste en la decisión de participar en
esos días de descanso. Los datos se presentan en la tabla siguiente:

¿Está dispuesto a trabajar en fin de semana?


Estado civil Total
No Tal vez Sí
Casado 15 11 18 44
Soltero 24 21 17 62
Total 39 32 35 106

En este caso plantearemos la regla de decisión que evidencie, en caso de ser aceptada la
hipótesis nula Ho, un alto nivel de correlación entre esas dos variables nominales.

Regla de decisión:

1. Aceptar Ho si C < 0.9


2. No aceptar Ho si e C ≥ 0.9

Significa que en caso de ser aceptada la hipótesis nula (Ho), la decisión de menos del 90%
de los trabajadores entrevistados en su disposición por trabajar en fin de semana se
encuentra influida por su estado civil.

Para obtener el coeficiente C de Pearson, estadístico de esta prueba, primero se encuentran


las frecuencias esperadas según lo tratado anteriormente, obsérvelas entre paréntesis en la
tabla que a continuación se presenta:

¿Está dispuesto a trabajar en fin de semana?


Estado civil Total
No Tal vez Sí
Casado 15 (16) 11 (13) 18 (15) 44
Soltero 24 (23) 21 (19) 17 (20) 62
Total 39 32 35 106

El valor de X2 calculada se obtiene en la siguiente tabla:

Celda Frec. observada Frec. esperada (Fo-Fe) (Fo-Fe)2 (Fo-Fe)2/Fe


1 15 16 -1 1 0.06
2 11 13 -2 4 0.31
3 18 15 3 9 0.6
4 24 23 1 1 0.04
5 21 19 2 4 0.21
6 17 20 -3 9 0.45
X2 Calculada 1.67

Unidad 3 / Pág. 15
Estadística aplicada a la investigación social II

Substituyendo en el estadístico de prueba se obtiene:

(6)

Comparando el valor del coeficiente C de Pearson se toma la decisión de aceptar la hipótesis


nula (Ho) significando que existe correlación muy baja entre la disposición de trabajar en fin
de semana y su estado civil, por lo que se deberán buscar otras variables que permitan
determinar las causas por las que los empleados están dispuestos a laboral en días de
descanso.

Resumen
En esta, la última unidad del curso, se estudiaron diversas pruebas estadísticas para el
análisis de la relación entre variables. Todos los procedimientos explicados son útiles para
los procesos de investigación social, en particular para validar el planteamiento de las
hipótesis de trabajo.

Las pruebas analizadas fueron:

• Q de Kendall: para dos variables nominales en dos categorías.


• R de Pearson: para variables de nivel intervalar y racional y datos numéricos no
agrupados por intervalos.
• Ji Cuadrada: que mide la independencia entre dos variables nominales u ordinales.
• C de Pearson: para variables nominales de más de dos categorías.

Con este apartado se concluye el curso de Estadística aplicada a la investigación social II,
pero recuerda que lo que has aprendido te será útil en muchas de tus siguientes
asignaturas, en particular con los temas de metodología y práctica del Trabajo Social.

Recuerda que este material es el fundamento básico para realizar tus


actividades de aprendizaje, pero en caso de que necesites profundizar en
alguna de las explicaciones puedes acudir a documentos adicionales, por
ejemplo los que se enlistan al final de este archivo, los que te sugiera el
asesor o los que tú puedas encontrar por tu cuenta.

Unidad 3 / Pág. 16
Estadística aplicada a la investigación social II

Glosario
Coeficiente de correlación
Es un valor cuantitativo de la relación entre dos o más variables. Puede variar desde -1.00
hasta 1.00. No existe relación entre las variables cuando el coeficiente es de 0.00 (Ramón,
s.f.).

Correlación entre variables


Técnica estadística usada para determinar la relación entre dos o más variables. La
correlación puede ser de al menos dos variables o de una variable dependiente y dos o más
variables independientes, denominada correlación múltiple (Ramón, s.f.).

Independencia estadística
Dos variables son estadísticamente independientes cuando el comportamiento estadístico de
una de ellas no se ve afectado por los valores que toma la otra (Universidad de Valencia,
s.f.).

Pruebas paramétricas
Se utilizan para datos numéricos (escalas de intervalos o razones) y, por lo general, están
basadas en las propiedades de la distribución normal para la variable dependiente (EcuRed,
s.f.).

Pruebas no paramétricas
Se utilizan con variables nominales y ordinales, no asumen un tipo particular de distribución,
se aceptan distribuciones normales, la exigencia en cuanto al tamaño de la muestra es
menor que en el caso de las paramétricas (EcuRed, s.f.).

Fuentes de información
• Castillo, R. (1985). Los modelos reexperimentales como una metodología de apoyo a
los normalistas en ejercicio para que realicen investigación causal. México: ENEP
Aragón-UNAM.
• EcuRed (s.f.). Pruebas estadísticas. Disponible en
http://www.ecured.cu/index.php/Pruebas_estad%C3%ADsticas. Consultado:
27/10/2015.
• Glass, G. V. (1986). Métodos estadísticos aplicados a las ciencias sociales. México:
Prentice Hall.
• Holguín, F. (1981). Estadística descriptiva aplicada a las ciencias sociales. México:
Facultad de Ciencias Políticas y Sociales-UNAM.
• Kerlinger, F. N. (1975). Investigación del comportamiento. Técnicas y metodología.
México: Interamericana.
• Leach, C. (1982). Fundamentos de estadística; enfoque no paramétrico para ciencias
sociales. México: Limusa.
• Levin, J. (1992). Fundamentos de estadística en la investigación social. México:
Harla.

Unidad 3 / Pág. 17
Estadística aplicada a la investigación social II

• Mateo Rivas, M. J. (1989). Estadística en investigación social: ejercicios resueltos.


Madrid: Paraninfo.
• Ramón, G. (s.f.). Correlación entre variables. Apuntes de clase del curso Seminario
Investigativo VI. Disponible en
http://viref.udea.edu.co/contenido/menu_alterno/apuntes/ac36-correlacion-
variables.pdf. Consultado: 27/10/2015.
• Rodríguez Osuna, J. (1991). Métodos de muestreo. Madrid: Centro de Investigaciones
Sociológicas.
• Universidad de Valencia (s.f.). Independencia estadística. Disponible en
https://www.uv.es/ceaces/base/descriptiva/independencia.htm. Consultado:
27/10/2015.

Unidad 3 / Pág. 18
Estadística aplicada a la investigación social II

ANEXO
Tabla de distribución X2

g= grados de libertad p= área a la derecha


El valor x de la tabla cumple que para X es ji-cuadrada con g grados de libertad P
(X>x)=p

g 0.001 0.025 0.05 0.1 0.25 0.5 0.75 0.9 0.95 0.975 0.999
1 10.827 5.024 3.841 2.706 1.323 0.455 0.102 0.016 0.004 0.001 0
2 13.815 7.378 5.991 4.605 2.773 1.386 0.575 0.211 0.103 0.051 0.002
3 16.266 9.348 7.815 6.251 4.108 2.366 1.213 0.584 0.352 0.216 0.024
4 18.466 11.143 9.488 7.779 5.385 3.357 1.923 1.064 0.711 0.484 0.091
5 20.515 12.832 11.07 9.236 6.626 4.351 2.675 1.61 1.145 0.831 0.21
6 22.457 14.449 12.592 10.645 7.841 5.348 3.455 2.204 1.635 1.237 0.381
7 24.321 16.013 14.067 12.017 9.037 6.346 4.255 2.833 2.167 1.69 0.599
8 26.124 17.535 15.507 13.362 10.219 7.344 5.071 3.49 2.733 2.18 0.857
9 27.877 19.023 16.919 14.684 11.389 8.343 5.899 4.168 3.325 2.7 1.152
10 29.588 20.483 18.307 15.987 12.549 9.342 6.737 4.865 3.94 3.247 1.479
11 31.264 21.92 19.675 17.275 13.701 10.341 7.584 5.578 4.575 3.816 1.834
12 32.909 23.337 21.026 18.549 14.845 11.34 8.438 6.304 5.226 4.404 2.214
13 34.527 24.736 22.362 19.812 15.984 12.34 9.299 7.041 5.892 5.009 2.617
14 36.124 26.119 23.685 21.064 17.117 13.339 10.165 7.79 6.571 5.629 3.041
15 37.698 27.488 24.996 22.307 18.245 14.339 11.037 8.547 7.261 6.262 3.483
16 39.252 28.845 26.296 23.542 19.369 15.338 11.912 9.312 7.962 6.908 3.942
17 40.791 30.191 27.587 24.769 20.489 16.338 12.792 10.085 8.672 7.564 4.416
18 42.312 31.526 28.869 25.989 21.605 17.338 13.675 10.865 9.39 8.231 4.905
19 43.819 32.852 30.144 27.204 22.718 18.338 14.562 11.651 10.117 8.907 5.407
20 45.314 34.17 31.41 28.412 23.828 19.337 15.452 12.443 10.851 9.591 5.921
21 46.796 35.479 32.671 29.615 24.935 20.337 16.344 13.24 11.591 10.283 6.447
22 48.268 36.781 33.924 30.813 26.039 21.337 17.24 14.401 12.338 10.982 6.983
23 49.728 38.076 35.172 32.007 27.141 22.337 18.137 14.848 13.091 11.689 7.529
24 51.179 39.364 36.415 33.196 28.241 23.337 19.037 15.659 13.848 12.401 8.085
25 52.619 40.646 37.652 34.382 29.339 24.337 19.939 16.473 14.611 13.12 8.649
26 54.051 41.923 38.885 35.563 30.435 25.336 20.843 17.292 15.379 13.844 9.222
27 55.475 43.195 40.113 36.741 31.528 26.336 21.749 18.114 16.151 14.573 9.803
28 56.892 44.461 41.337 37.916 32.62 27.336 22.657 18.939 16.928 15.308 10.391
29 58.301 45.722 42.557 39.087 33.711 28.336 23.567 19.768 17.708 16.047 10.986
30 59.702 46.979 43.773 40.256 34.8 29.336 24.478 20.599 18.493 16.791 11.588
35 66.619 53.203 49.802 46.059 40.223 34.336 29.054 24.797 22.465 20.569 14.688
40 73.403 59.342 55.758 51.805 45.616 39.335 33.66 29.051 26.509 24.433 17.917
45 80.078 65.41 61.656 57.505 50.985 44.335 38.291 33.35 30.612 28.366 21.251
50 86.66 71.42 67.505 63.167 56.334 49.335 42.942 37.689 34.764 32.357 24.674
55 93.167 77.38 73.311 68.796 61.665 54.335 52.294 46.459 43.188 40.482 31.738
60 99.608 83.298 79.082 74.397 66.981 59.335 52.294 46.459 43.188 40.482 31.738
65 105.988 89.177 84.821 79.973 72.285 64.335 56.99 50.883 47.45 44.603 35.362
70 112.317 95.023 90.531 85.527 77.577 69.334 61.698 55.329 51.739 48.758 39.036
75 118.599 100.839 96.217 91.061 82.858 74.334 66.417 59.795 56.054 52.942 42.757
80 124.839 106.629 101.879 96.578 88.13 79.334 71.145 64.278 60.391 57.153 46.52
85 131.043 112.393 107.522 102.079 93.394 84.334 75.881 68.777 64.749 61.389 50.32
90 137.208 118.136 113.145 107.565 98.65 89.334 80.625 73.291 69.126 65.647 54.156
95 143.343 123.858 118.752 113.038 103.899 94.334 85.376 77.818 73.52 69.925 58.022
100 149.449 129.561 124.342 118.498 109.141 99.334 90.133 82.358 77.929 74.222 61.918

Unidad 3 / Pág. 19

También podría gustarte