Está en la página 1de 266

Esta investigación, arbitrada por pares académicos, se privilegia con

el aval de la institución propietaria de los derechos correspondientes.

Ia edición, julio del año 2005

Ia reimpresión, junio del año


2012

©2005-2012 UNIVERSIDAD NACIONAL AUTÓNOMA DE


MÉXICO FACULTAD DE ESTUDIOS SUPERIORES ZARAGOZA

©2005-2012
Por características tipográficas y de diseño
editorial

MIGUEL ÁNGEL PORRÚA, librero-editor

Derechos reservados conforme a


la ley

ISBN 970-701-587-X

Queda prohibida la reproducción parcial o total, directa o indirecta del


contenido de la presente obra, sin contar previamente con la
autorización por escrito de los editores, en términos de la Ley Federal del
Derecho de Autor y, en su caso, de los tratados internacionales
aplicables.
A Osiris, Alan y Astrid, por lo que representan para mí. A

Javier y Monse, por ser lo más importante en mi vida.

En la realización de este libro participó un grupo de


personas con aportaciones que fueron valiosas para el
buen término de este proyecto: Cinthia Cruz del Castillo,
Angélica Romero Palencia, Gerardo Benjamín, Tonatiuh
Villanueva Orozco, Blanca Inés Vargas Núñez y Claudia
López Becerra.
También queremos agradecer a Argentina López
Becerra por ayudar a transcribir estos apuntes

MIRNA Y SOFÍA
Prólogo
La investigación en psicología es fundamental para el entendimiento del

comportamiento humano y para el desarrollo de programas e intervenciones


efectivas. Adicionalmente, la investigación representa un proceso complejo en el
que los fenómenos o constructos a investigar son multidimensionales,
multicausales y multideterminados. Hacer justicia a los eventos y problemáticas
estudiadas y asegurar la validez y confiabilidad de los hallazgos requiere de una
sofisticación conceptual y técnica profunda y sistemática. De hecho, es necesario
que diferentes investigadores indaguen distintos aspectos de un mismo problema,
obteniéndose así resultados que contribuyen a explicar el fenómeno de manera
integral.

La obtención de hallazgos contundentes y replicables implica una


conceptualización teórica sólidamente fundamentada y la realización de una serie
de pasos metodológicos y estadísticos sistematizados -protocolo científico- que
permitan sopesar la congruencia de los resultados con la realidad y su grado de
generalización. Como uno de estos pasos, el análisis estadístico de los datos,
implica la selección de pruebas estadísticas contingentes con el nivel de medición,
consistentes con el método planteado y aplicados e interpretados por el
investigador de manera apropiada.
Para los psicólogos que consumen investigación para sus intervenciones,
realizan investigaciones o están en formación, la tarea de elegir la prueba
estadística adecuada, requiere de apoyo didáctico. En este sentido, el que ese sea el
objetivo principal de este libro es un evento afortunado, lo cual sólo es superado
por el hecho de que su utilidad se multiplique al ser un texto planteado en
términos didácticos, sencillos y precisos, que les permita discernir la lógica
inherente a la estadística en general y a cada prueba en particular.
Con el propósito de arribar a un utensilio concreto, aplicable, práctico, claro y
útil, las autoras del texto desarrollan paso a paso las diferentes pruebas
estadísticas necesarias a la investigación psicológica, acompañadas de su manejo
minucioso a través del paquete estadístico para las ciencias sociales (SPSS),
acompañados de la forma correcta de interpretación de los resultados. Los
elementos de la obra hacen de ella una consulta indispensable, a partir de un
material básico y comprensible. Colateralmente, el libro ofrece la aplicación de la
estadística a partir de ejemplos relacionados a los problemas sociales del país.
Como punto final, además de recomendar ampliamente el uso de la obra, felicito a
las autoras y al programa PAPIME de la UNAM que a través del financiamiento del
proyecto EN314903 hizo este trabajo posible.

ROLANDO DÍAZ LOVING


Introducción
La curiosidad del ser humano por saber ¿por qué? y ¿para qué? de las

relaciones interpersonales, y cómo ocurren éstas en diferentes contextos -pareja,


familia, amigos, trabajo, escuela, etcétera- ha generado infinidad de explicaciones y
descripciones en tomo al tema. Algunas de estas explicaciones surgen de la vida
cotidiana y se asumen como hechos verdaderos, sin ser cuestionados; por ejemplo,
la aseveración de que las mujeres son emocionalmente débiles. Esta es una
afirmación compartida por muchos, sin embargo, carece de evidencia empírica y
sustento teórico que la respalde, elementos que marcan la diferencia entre las
aseveraciones populares y aquellas que están sustentadas teóricamente y que son
medidas rigurosamente.

En el ejemplo anterior surgen preguntas como, ¿todas las mujeres?, ¿las que
caen dentro de un rango de edad determinado?, ¿las solteras, casadas, viudas,
divorciadas o que viven en unión libre?, ¿las que tienen determinado nivel de
escolaridad?, ¿las que trabajan o las que son amas de casa?... De una afirmación
aparentemente simple emanan una serie de interrogantes, lo que conduce a uno de
los puntos centrales de la investigación: el objetivo que se quiere alcanzar, esto es,
para delimitar lo que se va a investigar es necesario tener claridad en el propósito
de la investigación.
En este escenario, la estadística es una herramienta que emplea el in-
vestigador para describir sus datos y para tomar decisiones. El tipo de prueba
estadística a usar dependerá del objetivo de la investigación, de su diseño, del
tamaño de la muestra y de sus hipótesis.
De esta forma, la estadística es una colección de hechos numéricos que
permiten hacer inferencias de una muestra a una población. Se clasifica en
descriptiva e inferential. La estadística inferencial a su vez se clasifica en no
paramétrica y paramétrica.

13
Así, la estadística es una herramienta imprescindible del psicólogo,
sobre todo cuando realiza investigación. Su aplicación en el campo de la
psicología no es nueva, tal como lo señala Downie y Heat (1973) quienes
refieren que en la década de 1880 Cattell se relacionó con estadísticos
europeos, evento que influyó en la aplicación de los métodos estadísticos
en el ámbito de la psicología.
De igual forma, tampoco es de sorprender la complejidad que re-
presenta comprender y aplicar las pruebas estadísticas a situaciones
específicas de investigación. Es el caso que al incursionar en el área de la
investigación surja una serie de interrogantes con relación a, ¿qué prueba
es la más adecuada para lo que se está investigando?, ¿el tipo de medición
elegido será el apropiado para la prueba elegida?, ¿el modelo estadístico
seleccionado: paramétrico o no paramétrico es congruente con el tamaño
de la muestra y con el tipo de medición empleado?
En fin, pueden ser muchas las dudas, y cuando se toman decisiones
inapropiadas los resultados y conclusiones derivados de esa investigación
pueden ser falsos, además de que se tiene el riesgo de cometer el error
estadístico tipo 1 (Alfa) o el error estadístico tipo 2 (Beta) los cuales se
describirán en este texto.
Precisamente este manuscrito tiene la intención de proporcionar a los
estudiantes y profesionales de la psicología un texto que incluya los ele-
mentos básicos de la estadística, descritos de una manera sencilla y apo-
yados con ejercicios, algunos de ellos, derivados de la investigación de la
psicología en México, tratando de evitar explicaciones complicadas, por lo
que las fórmulas que se presentan, así como el desarrollo de las mismas,
tienen como propósito que el lector conozca las operaciones que subya-
cen a cada una de éstas con la intención de que comprenda la lógica
mediante la cual se obtienen.
Al presente, por cuestiones prácticas es poco probable que el trata-
miento de los datos, derivados de una investigación, se realice en forma
manual -sobre todo cuando las muestras son grandes- lo que conduce a
utilizar el paquete estadístico SPSS que permite en poco tiempo obtener

Sofía Rivera Aragón


14 Mirna García Méndez
resultados precisos. Sin embargo, si las instrucciones dadas al SPSS fueron
erróneas, los resultados se verán alterados lo que conlleva a interpretacio-
nes equivocadas.
Con la intención de disminuir estos errores, después del desarrollo de
las fórmulas inherentes a los estadísticos incluidos en el libro, se exponen
ejercicios paso a paso de las pruebas estadísticas, a través del Statistical
Package for the Social Science (SPSS: paquete estadístico aplicado a las
ciencias sociales). En ambos casos -fórmulas desarrolladas y SPSS- cada
ejercicio concluye con la interpretación de los resultados.1
Con base en lo aquí expuesto, el libro inicia con la exposición de los ni-
veles de medición por considerarse fundamentales en la toma de decisiones
referentes a los pasos que proceden en la investigación. Posteriormente se
aborda lo relacionado con la estadística descriptiva en el capítulo 2, estadís-
tica que nos permite hacer una descripción de los hallazgos empíricos. En
este capítulo se hace énfasis en el tipo de distribución, medidas de tenden-
cia central y de variabilidad, a través de una serie de ejemplos que tienen
como objetivo facilitar la comprensión de los elementos expuestos.
En el capítulo 3 se expone lo que compete a la estadística inferen-
cial, la cual nos permite además de describir los datos encontrados, realizar
generalizaciones a partir de los hallazgos reportados en una muestra a una
población en términos de probabilidad. En esta parte del texto se presentan
los principios que sustentan a los dos grandes modelos estadísticos
derivados de la estadística inferencial: la estadística no para- métrica y la
estadística paramétrica.
Los capítulos 4 y 5 abordan de manera específica algunas de las
pruebas no paramétricas y paramétricas más empleadas por el investigador
social. En estos dos capítulos, la explicación de las pruebas es acompañada
por ejemplos que permitan una mejor comprensión de las mismas.

1Debido al uso de este sofware (SPSS), varias de las tablas reportadas en los diferentes
capítulos de este libro aparecerán en inglés.

Introducción 15
Como parte final pero no por ello menos importante, cabe destacar que el
contenido de este libro se basa en los apuntes de la cátedra sobre estadística,
dictada por la doctora Sofía Rivera Aragón, en el doctorado de psicología de la
Facultad de Psicología de la Universidad Nacional Autónoma de México. Es
conveniente denotar que para su publicación se contó con la autorización y
coautoría de la doctora Rivera Aragón.
Medición
Del o los objetivos de investigación derivan las fases subsiguientes del
proceso de investigación. Una de estas fases se refiere al tipo de medición
empleada para evaluar una o más variables de estudio, componente que tiene
una relación directa con la estadística empleada en el tratamiento de los
datos.
De esta manera la medición consiste en reglas que asignan símbolos a
objetos, de tal forma que a) representan numéricamente cantidades o
atributos, o b) definen si los objetos caen en las mismas o en diferentes
categorías con respecto a un atributo de medición. En esta definición, las
reglas se refieren a que la asignación de números sea explícita; y los atributos
denotan que la medición implica características particulares del objeto, esto
es, los objetos per se no pueden medirse, se miden sus atributos (Nunnally y
Bernestein, 1995). Nunnally y Bernestein, indican que los números
representan cantidades en escalas de medición, lo que significa que la
cuantificación implica qué tanto de un atributo está presente en un objeto.
En la literatura se mencionan cuatro niveles de medición, aunque en
psicología generalmente se emplean tres: nominal, ordinal e intervalar, los que
se describen a continuación.

Escalas de medición

Nominal

Es el nivel más bajo de medición de una variable en el que se le asignan


números a los objetos, personas o características que se deseen evaluar,
las cuales no pueden ordenarse o sumarse. Precisamente a todos los miem-
bros de un conjunto se les asigna el mismo valor numérico, e.g. al preguntarles a
100 ciudadanos del Distrito Federal, ¿para usted la infidelidad es positiva o
negativa? Se está empleando una medida nominal al registrar la frecuencia de las
respuestas, dándole el valor de 1 a la infidelidad positiva y el valor de 2 a la
infidelidad negativa, lo que se muestra en la tabla 1.

TABLA 1
OPINIÓN DE LOS CIUDADANOS DEL DISTRITO FEDERAL SOBRE LA INFIDELIDAD

Infidelidad Frecuencia
1 40
2 60

Esta medición coloca los casos dentro de categorías o conjuntos, y se cuenta la


frecuencia de ocurrencia, sin asignar el mismo valor a dos categorías, e.g. sexo, no
se puede clasificar a la misma persona como hombre y mujer.

Ordinal

Requiere que los objetos de un conjunto de variables puedan ser ordenados por
rangos respecto a una característica o propiedad. Los valores numéricos asignados
a los objetos ordenados se llaman valores de rango. En esta medición los números
no indican cantidades absolutas ni tampoco que los intervalos entre los números
sean iguales, por lo que marca la organización de los rangos pero no señala la
magnitud de las diferencias entre éstos, e.g. las etapas del desarrollo humano:

Niñez
Adolescencia
Adultez
Vejez

Sofía Rivera Aragón


20 Mirna García Méndez
Otro ejemplo es el ciclo de vida de la pareja de acercamiento-alejamiento
(Díaz-Loving, 1999):

1. Extraño/desconocido
2. Conocido
3. Amistad
4. Atracción
5. Pasión
6. Romance
7. Compromiso
8. Mantenimiento
9. Conflicto
10. Alejamiento
11. Desamor
12. Separación
13. Olvido

Como se puede observar en ambos ejemplos, no existe una distancia exacta


entre cada una de las etapas y tampoco se sabe con exactitud cuándo termina una
e inicia la siguiente.

Intercalar

Esta medición posee las características de las escalas nominales y ordinales, de


manera particular las de rango. Las distancias numéricamente iguales de los
intervalos representan distancias iguales en la propiedad de la variable que se
mide. En este nivel de medición se incluyen las escalas tipo Likert, e.g. la
clasificación de la inteligencia a través de la escala WAIS (Barragán, Benavides,
Brugman y Lucio, 1988) presentada en la tabla 2.
Tal como se observa en la tabla 2, existe la misma distancia entre los
diferentes niveles de medición de la inteligencia, lo que indica una distribución
igual de los intervalos de medición.

Medlción 21
TABLA 2
CLASIFICACIÓN DE LA INTELIGENCIA EN ADULTOS

Coeficiente intelectual Clasificación

130 o más Muy superior


120-129 Superior
110-119 Normal brillante
90-109 Normal
80-89 Subnormal
70-79 Limítrofe
50-69 Deficiente mental superficial
30-49 Deficiente mental medio
29 o menos Deficiente mental profundo

De razón

Es el nivel más alto de medición de una variable. Es una medida poco empleada en
la psicología, por ende, no se hablará más de él.
Con base en lo expuesto, a continuación se presenta un ejemplo que involucra
tres de los cuatro niveles de medición: nomina], de rangos e intervalar.

Ejemplo
En una investigación que tiene por objetivo conocer la relación entre la
satisfacción marital, la escolaridad y el sexo. El sexo (hombres y mujeres) es una
variable nominal en la que a los hombres (H) se les asigna el valor numérico de 1 y
a las mujeres (M) se les asigna el valor numérico
2. El nivel de escolaridad (primaria, secundaria, preparatoria, licenciatura y
posgrado) es una variable ordinal que va de menor a mayor escolaridad, ordenada
de la siguiente manera:

Primaria 1
Secundaria 2
Preparatoria 3
Licenciatura 4
Posgrado 5

Sofía Rivera Aragón


22  Mirna García Méndez
TABLA 3
REPRESENTACIÓN DE LOS DIFERENTES NIVELES DE MEDICIÓN

Clasificación Definición Función Propiedad Estadística Ejemplo


empleada

Nominal Categoriza Nombra Igualdad No Estado civil:


una variable. categorías. paramétrica. solteros, ca-
sados, unión
libre, viudos,
divorciados:
sexo: hombres y
mujeres.

Ordinal Ordena una Jerarquiza las >o< No Escolaridad:


variable. categorías (mayor o paramétrica primarla, se-
menor) cundarla, pre-
paratoria.
Intervalo Conoce la Cuantifica una Cero Paramétrica. Inteligencia:
distancia entre variable. Relativo. limítrofe, nor-
intervalos. mal, nomal
brillante, su-
perior.
Razón Conoce la Cuantifica una Cero Paramétrica. Las medidas de
proporción variable. absoluto. distancia:
entre las va- metro, decá-
riables. metro, hectó-
metro y
kilómetro.

La satisfacción marital se medirá con el IMSM integrado por 47 enunciados


positivos, con intervalos de respuesta del 1 al 5 (Cortés, Reyes, Díaz-Loving, Rivera
y Monjaraz, 1994).

Me gusta mucho = 5 Me
gusta = 4
Ni me gusta, ni me disgusta = 3 Me
disgusta = 2 Me disgusta mucho = 1

Medición 23
Por sus características, este inventario evaluará la satisfacción marital de
manera intervalar, debido a que medirá las distancias o intervalos del constructo
de interés.
Las variables nominal (sexo) y ordinal (escolaridad) son generalmente
denominadas variables sociodemográficas o de clasificación por el investigador.
Ahora bien, si la satisfacción marital se mide preguntándoles a las personas si
están o no satisfechas con su relación de pareja, la respuesta será dicotómica Sí o
No, convirtiéndose la medición en nominal. Los resultados que se obtendrán serán
frecuencias en relación con el número de hombres y mujeres que están satisfechos
o insatisfechos maritalmente. Este ejemplo denota que el tipo de medición utili-
zada, estará en función de los objetivos que pretenda alcanzar el investigador.
De esta manera, se observa que cada una de las escalas de medición tiene
características y funciones específicas, las que se presentan en la tabla 3.
Estadística descriptiva
La estadística descriptiva permite conocer la distribución de los datos a partir de
la cuantificación de los atributos de una categoría o variable. De acuerdo con
Nunnally (1995) no necesariamente incluye la generalización.
Sus funciones son:

a) Conocer el tipo de distribución.


b) Representación gráfica.
c) Obtener medidas de tendencia central (toma de decisiones).
d) Calcular medidas de variabilidad.

Conocer el tipo de distribución


1. Frecuencia absoluta (f)
2. Frecuencia relativa (fr %)
3. Frecuencia ajustada (fa %)
4. Frecuencia acumulada (fa)

La frecuencia absoluta describe objetos, la relativa los ordena en porcentajes,


la ajustada recalcula las frecuencias absolutas y relativas, eliminando datos con
base en valores perdidos o missing, y la acumulada los ordena de mayor a menor o
viceversa.
Estas frecuencias se obtienen en el programa estadístico SPSS en cualquiera de
sus versiones. Después de haber elaborado una base de datos e insertado los datos
en bruto, se le pide al SPSS las frecuencias de la variable de estudio y despliega los
cuatro tipos de frecuencia en una tabla.

27
Para comprender la lógica de las operaciones involucradas en la
distribución de frecuencias, se expondrá un ejemplo a partir del cual se
explicará la forma en la cual se obtiene cada una de las frecuencias.

Ejemplo
Se encuesto con un cuestionario abierto a una muestra de 300 personas,
hombres y mujeres, sobre el significado del funcionamiento familiar. Una vez
que se obtuvieron los datos se procedió a su organización, lo que se hizo
mediante una distribución de frecuencias, tal como se observa en la tabla 4.

TABLA 4
TOTAL DE HOMBRES Y MUJERES QUE OPINARON SOBRE EL SIGNIFICADO DEL
FUNCIONAMIENTO FAMILIAR

Sexo f

Hombres 144
Mujeres 156
Total 300

Esta tabla muestra el total de hombres y mujeres que participaron en la


investigación, sin embargo, para identificar la preferencia de hombres y
mujeres por uno u otro de los significados del funcionamiento familiar, se
obtuvieron las frecuencias absolutas de ocurrencia de respuesta por sexo.
Estos resultados se presentan en la tabla 5.
En la tabla 5 se enuncian las frecuencias absolutas (f) de ocurrencia de
respuesta de la categoría de análisis sexo: hombres (H) y mujeres (M), en
cada uno de los significados generales de funcionamiento familiar. En
este ejemplo la muestra no tiene una distribución igual en cuanto al nú-
mero de H y M incluidos, por lo que para comparar a los dos grupos aun

Sofía Rivera Aragón


28 Mirna García Méndez
TABLA 5

FRECUENCIAS DEL SIGNIFICADO DE FUNCIONAMIENTO FAMILIAR EN HOMBRES Y


MUJERES

Hombres Mujeres
Significados generales f f
Organización y estructura 25 20
Emocional-valorativa 44 66
Afectivo-funcional 53 54
Funcional 16 13
Afectiva 6 3
total 144 156

cuando existen diferencias en su tamaño se emplea la frecuencia relativa (fr %).


La frecuencia relativa (fr %) se refiere a la ocurrencia de los niveles de una
categoría -en este ejemplo (H y M)- por cada 100 casos. Su cálculo se obtiene al
multiplicar cualquier proporción dada por 100 (Levin y Levin, 2002).

Siguiendo con el ejemplo de los significados generales del funcionamiento


familiar, para obtener la frecuencia relativa de los H que respondieron el
cuestionario, se multiplica 100 por 144 y el resultado se divide entre 300 que es el
total de personas que participaron en la investigación, y se extrae la fr que es de 48
por ciento.

La tabla 6 presenta que del total de la muestra, el 48 por ciento son hombres y
el 52 por ciento son mujeres.

Estadística descriptiva 29
TABLA 6
FRECUENCIAS ABSOLUTA Y RELATIVA DE LA CATEGORÍA SEXO

Sexo f fr (%)

Hombres 144 48.0

Mujeres 156 52.0


Total 300 100

Con respecto a las respuestas de la muestra en relación con los significados


del funcionamiento familiar, éstas varían tal como se observa en la tabla 5 por lo
que también se aplica la frecuencia relativa al igual que en la categoría de sexo. Los
datos se presentan en la tabla 7.

TABLA 7

FRECUENCIAS ABSOLUTA Y RELATIVA DEL SIGNIFICADO DE FUNCIONAMIENTO

FAMILIAR EN HOMBRES Y MUJERES

Hombres Mujeres
f fr(%) f r(%)

Organización y estructura 25 17.4 20 12.8


Emocional-valorativa 44 30.6 66 42.3
Afectivo-funcional 53 36.8 54 34.6
Funcional 16 11.1 13 8.3
Afectiva 6 4.2 3 1.9
Total 144 100 156 100

La frecuencia ajustada recalcula la frecuencia absoluta quitando datos o con


base en elementos perdidos que generalmente se computan con cero (en el SPSS
aparecen como missing). Estos elementos perdidos se refieren a los enunciados o
preguntas que la muestra no respondió. Con base en el ejemplo del significado del
funcionamiento familiar en H y M, la tabla 8 presenta las frecuencias absolutas,
las relativas y las ajustadas.

Sofía Rivera Aragón


30       Mirna
García Méndez
TABLA 8

FRECUENCIAS ABSOLUTA, RELATIVA Y AJUSTADA DEL SIGNIFICADO DE


FUNCIONAMIENTO FAMILIAR EN HOMBRES Y MUJERES

Significados generales Hombres Mujeres


f fr (%) fa (%) f fr (%) fa (%)

Organización y estructura 25 17.4 17.4 20 12.8 20


Emocional-valorativa 44 30.6 30.6 66 42.3 86
Afectivo-funcional 53 36.8 36.8 54 34.6 140
Funcional 16 11.1 11.1 13 8.3 153
Afectiva 6 4.2 4.2 3 1.9 156
Total 144 100 100 156 100

En esta tabla la fr y fa (%) son iguales debido a que no hubo valores perdidos.
Con fines de ejemplificar la fa (%) la tabla 9 muestra las frecuencias del estado civil
de la muestra.

Tabla 9
FRECUENCIAS DEL ESTADO CIVIL DE HOMBRES Y MUJERES

Estado civil f fr(%) fa (%)

Casado 120 40.0 40.3


Soltero 151 50.3 50.7
Unión libre 13 4.3 4.4
Divorciado 8 2.7 2.7
Separado 3 1.0 1.0
Viudo 3 1.0 1.0
Total 298 99.3 100.0
Valores perdidos 2 .7
(missing) 0
Total 300 100.0

Estadística descriptiva 31
La frecuencia acumulada (la) ordena los puntajes del total de casos de una
categoría. Se obtiene al sumar la frecuencia de un puntaje dado a la frecuencia de
la categoría debajo de ella. Al resultado de esta operación, se suma en forma
acumulativa el puntaje de la categoría debajo de ella, y así sucesivamente hasta
tener incluidos el total de los casos. Siguiendo el ejercicio de los significados de
funcionamiento familiar, la tabla 10 presenta las frecuencias absolutas, relativas,
ajustadas y acumuladas por hombres y mujeres.

TABLA 10

FRECUENCIAS ABSOLUTAS, RELATIVAS, AJUSTADAS Y ACUMULADAS DE HOMBRES Y

MUJERES CON RELACIÓN AL SIGNIFICADO DEL FUNCIONAMIENTO FAMILIAR

Significados Hombres Mujeres


generales
f fr (%) fa (%) fa f fr(%) fa (%) fa
Organización
y estructura 25 17.4 17.4 17.4 20 12.8 12.8 12.8
Emocional-valorativa 44 30.6 30.6 47.9 66 42.3 42.3 55.1
Afectivo-funcional 53 36.8 36.8 84.7 54 34.6 34.6 89.7
Funcional 16 11.1 11.1 95.8 13 8.3 8.3 98.1
Afectiva 6 4.2 4.2 100.0 3 1.9 1.9 100.0
total 144 100 100 156 100 100

Ejercicio SPSS

Para obtener los cuatro tipos de frecuencia en SPSS de las 300 personas, se realizan
los siguientes pasos:
Paso 1. En la base de datos se coloca el cursor en Analyze, se presiona el
botón izquierdo del mouse.
Paso 2. Al presionar Analyze, aparece un menú en el que se coloca el cursor
en Descriptive Statistics, se presiona con el botón izquierdo del mouse y aparece
otro menú, se coloca el cursor en Frequencies y una vez más se presiona con el
botón izquierdo del mouse.

Sofía Rivera Aragón


32 Mirna García Méndez
Paso 3. Al presionar Frequencies, se abre un menú que contiene las
variables de la investigación, se marca con el botón izquierdo del mouse la
variable siggene (significados generales del funcionamiento familiar).

Estadística descriptiva 33
Paso 4. Una vez señalada la variable siggene, se coloca el cursor en el
icono que está entre las variables de estudio y variable(s), se presiona el bo-
tón izquierdo del mouse, de esta operación siggene aparece en el cuadro de
variable(s).

Paso 5. Se coloca el cursor en el icono de OK, se presiona el botón iz-


quierdo del mouse obteniéndose los cuatro tipos de frecuencias, en donde:
frequency es frecuencia absoluta, percent es frecuencia relativa, valid percent
es frecuencia ajustada y cumulative percent es frecuencia acumulada.

Sofía Rivera Aragón


34 Mima García Méndez
SIGNIFICADOS GENERALES

Valia Cumulative
Frequency Percent Percent Percent
Valid organización
y estructura 45 15.0 15.0 15.0
emocional-valorativa 110 36.7 36.7 51.7
afectivo-funcional 107 35.7 35.7 87.3
funcional 29 9.7 9.7 97.0
afectiva 9 3.0 3.0 100.0
Total 300 100.0 100.0

Estos resultados indican que los significados de funcionamiento familiar con


mayor ocurrencia de respuesta fueron el emocional-valorativo y el afectivo-
funcional.2
Una vez descritos los cuatro tipos de frecuencias, se proseguirá con la
distribución de frecuencias agrupadas, las que se emplean para incluir las
frecuencias absolutas en intervalos de clase (Levin y Levin, 2002; Downie y Heat,
1973). Estos intervalos de clase son comúnmente empleados cuando la
distribución de frecuencia es tan amplia que resulta poco práctica. Es el caso del
ejemplo de la tabla 11 que presenta una distribución de frecuencias por edad en
una muestra de
351 personas, que varía de 21 a 60 años.
La tabla 11 indica que se tiene una persona de 21 años, dos personas de 22
años, 13 personas de 23 años y así sucesivamente.
Con el propósito de que los datos tengan una presentación sencilla y clara, se
obtienen los intervalos de clase que para este caso es de cinco, tal como se observa
en la tabla 12. La decisión del tamaño del intervalo es responsabilidad del
investigador, quien generalmente parte de su base de datos y de los objetivos de su
investigación.

2Con fines didácticos se presentarán las tablas del SPSS, aunque éstas no se reportan en

una investigación, se abstraen los datos que el investigador desea resaltar y se muestran en
otro formato.

Estadística descriptiva 35
TABLA 11
DISTRIBUCIÓN DE EDAD POR FRECUENCIAS EN HOMBRES Y MUJERES.

Edad f Edad f Edad f Edad f

21 1 31 15 41 8 51 2
22 2 32 18 42 1 52 5
1
23 13 33 16 43 7 53 6
24 13 34 13 44 7 54 1
25 11 35 16 45 4 55 2
26 17 36 9 46 7 56 0
27 11 37 18 47 4 57 2
28 13 38 14 48 3 58 0
29 19 39 15 49 8 59 0
30 15 40 13 50 8 60 4
Total 351

TABLA 12
DISTRIBUCIÓN DE EDAD POR INTERVALOS EN HOMBRES Y MUJERES

Intervalo de clase f
56-60 6

51-55 16
46-50 30
41-45 37
36-40 69
31-35 78
26-30 75
21-25 40
Total 351

A su vez los intervalos de clase tienen un límite inferior y un límite superior


(véase tabla 13).
Como se observa en la tabla 13, el límite inferior del intervalo de edad 21-25 es
20.5 y su límite superior es 25.5, que también es el límite inferior del intervalo 26-
50, esto es, el límite superior de cada uno de los intervalos se convierte en el límite
inferior del intervalo subsiguiente.

Sofía Rivera Aragón


36 Mirna García Méndez
TABLA 13

LÍMITES SUPERIOR E INFERIOR DE LOS INTERVALOS DE EDAD EN UNA


MUESTRA DE 351 SUJETOS

Limits inferior Intervalo de clase Límite superior

55.5 56-60 60.5


50.5 51-55 55.5
45.5 46-50 50.5
40.5 41-45 45.5
35.5 36-40 40.5
30.5 31-35 35.5
25.5 26-30 30.5
20.5 21-25 25.5

Representación gráfica

Los resultados que se obtienen de la investigación se pueden representar en tablas


o gráficas, pero nunca se deberán emplear ambas alternativas para presentar los
mismos datos; por ejemplo, si la escolaridad de la muestra se presenta en tablas,
ya no se utilizará la figura, porque ello implica repetir la información. Hay
investigadores que se inclinan por el uso de figuras debido a que atraen la atención
visual del observador.
Una de las características de las gráficas consiste en que se basan en una
recta numérica (véase gráfica 1).

GRÁFICA 1
REPRESENTACIÓN DE LA RECTA NUMÉRICA

Estadístico descriptiva 37
Las gráficas que se utilizan con mayor regularidad son:

1. Barras
2. Pastel
3. Histograma
4. Ojivas
5. Polígonos de frecuencia

Las gráficas de barras y pastel se aplican únicamente a variables nominales y


ordinales; mientras que los histogramas, ojivas y polígonos de frecuencia se
emplean en variables ordinales, intervalares y de razón.

Gráfica de barra

En esta figura no hay continuidad en las barras cuando se emplea en datos


nominales, razón por la que están separadas. La gráfica 2 muestra el grado de
escolaridad de los 300 sujetos a los que se les aplicó el cuestionario abierto del
significado de funcionamiento familiar. Los números que aparecen al interior de
cada una de las barras son opcionales, se incluyen si el investigador quiere indicar
el número de sujetos que corresponde a cada nivel educativo. Así el número 22 que
aparece en la barra de primaria, indica que de la muestra total de 300 personas,
22 de ellas tienen educación primaria.
La gráfica 3 presenta las cinco categorías que resultaron de la aplicación del
cuestionario abierto del significado de funcionamiento familiar (organización y
estructura, emocional-valorativa, afectivo-funcional, funcional y afectiva) así como
la distribución de la muestra en cada categoría.
La diferencia entre las gráficas 2 y 3, es que en la gráfica 2 cada barra muestra
el número exacto de sujetos ubicados en cada grado escolar, mientras que en la
gráfica 3 se observa de manera general la distribución de la muestra en las cinco
categorías de funcionamiento familiar. La elección de una u otra figura está en
función de lo que el investigador quiera resaltar de sus resultados.

Sofía Rivera Aragón


38  Mirna García Méndez
GRÁFICA 2

NIVEL DE ESCOLARIDAD 

GRÁFICA 3
DISTRIBUCIÓN DE LA MUESTRA EN LAS CATEGORÍAS DE
FUNCIONAMIENTO FAMILIAR

Estadística descriptiva 39
Gráfica de pastel o de sectores

Se utiliza con frecuencias absolutas y relativas, es útil para mostrar di-


ferencias de frecuencias en categorías de nivel nominal. La gráfica 4
presenta la variable ocupación de una muestra de 352 personas, hombres y
mujeres del Distrito Federal.

Gráfica 4

OCUPACIÓN DE HOMBRES Y MUJERES

Cada sección de la gráfica tiene el número de individuos agrupados por


cada uno de los cinco tipos de ocupación.
También con la figura de pastel se puede presentar la distribución de la
muestra con porcentajes, como se aprecia en la gráfica 5. Del total de las
352 personas que integran la muestra, su escolaridad se distribuye de la
siguiente manera: 18 por ciento tiene primaria, 36 por ciento secundaria,
31 por ciento preparatoria y 25 por ciento licenciatura.

Gráfica de histograma

Se emplean en variables continuas3 y se elaboran con base en el límite


inferior del intervalo. La gráfica 6 muestra los intervalos de edad de la

3 Una variable continua es aquella que asume un conjunto ordenado de valores dentro de un
rango (Kerlinger y Lee, 2001).

Sofía Rivera Aragón


40 Mirna García Méndez
GRÁFICA 5
NIVELES DE ESCOLARIDAD EN HOMBRES Y MUJERES 

muestra de 351 sujetos de las tablas 12 y 13. Las barras están unidas por-
que denotan continuidad del intervalo de menor edad (21-25) al de mayor
edad (56-60).

GRÁFICA 6
INTERVALOS DE EDAD EN UNA MUESTRA DE 351
HOMBRES Y MUJERES

Estadística descriptiva 41
Otro ejemplo relacionado con los histogramas es el caso del cons-
tructed esperanza, medida por una escala cuyos intervalos de respuesta
van del 1 al 5. Esta escala se constituye por dos dimensiones: importancia y
probabilidad, cada una con 10 factores (Vargas, García-Méndez, Díaz-
Loving y Rivera, 2004). El histograma de la figura 7 muestra el com-
portamiento de uno de los factores de probabilidad -ayuda paterna- en una
muestra de 300 personas del D.E

GRÁFICA 7

NÚMERO DE PERSONAS POR INTERVALO DE RESPUESTA EN EL FACTOR DE AYUDA


PATERNA EN LA ESCALA DE ESPERANZA

Gráfica de ojiva o de polígono de


frecuencia acumulada

Se basa en la frecuencia absoluta y se grafica con el límite superior. En esta


figura, la línea que conecta los puntos es ascendente, razón por la que no
toca la línea base horizontal (Downie y Heath, 1973). La gráfica 8 presenta
los rangos de edad de una muestra de 351 personas, rangos distribuidos
con base en el límite superior presentado en la tabla 13 de este capítulo.

Sofía Rivera Aragón


42 Mirna García Méndez
G RÁFICA 8
RANGOS DE EDAD

Gráfica de polígonos de frecuencia

Se conoce también como curva. Es más fácil de graficar después de hacer


un histograma. Un ejemplo de polígonos de frecuencia se expone en la
gráfica 9, en una muestra de 168 parejas heterosexuales, cuyos años de
unión se distribuyeron por rangos.

Gráfica 9

RANGOS AÑOS DE UNIÓN

Estadística descriptiva 43
Obtener medidas de tendencia central

Es común en el ámbito de la investigación, querer saber lo típico o el


promedio en el que se encuentra la muestra de estudio, con la finalidad de
describirla en forma global. Este promedio o valor se conoce como medida
de tendencia central debido a que se encuentra en el centro de una
distribución en la que se localizan la mayoría de los puntajes de la muestra
(Levin y Levin, 2002). La forma de obtener este promedio es a través de las
medidas de tendencia central: media, mediana y moda expuestas en la
tabla 14.

1. Media → es un promedio.
2. Mediana → divide en dos a la muestra.
3. Moda → es el valor que se repite con mayor frecuencia.

Tabla 14
MEDIDAS DE TENDENCIA CENTRAL

Representación Nivel de medición Exactitud

Paramétrica X μ (media) Intervalar Exacta


No paramétrica Md (mediana) Ordinal Variable
Mo (moda) Nominal Inestable

Como se observa en la tabla 14 es usual emplear letras latinas para re-


presentar las características de una muestra y las letras griegas para los
parámetros de una población (Downie y Heath, 1973). En el caso de la tabla
14, la X(media) es un estimador debido a que es un valor que representa
una característica de la muestra, y la μ (media) es un parámetro, porque es
un valor que representa las características de una población.
Estas medidas de tendencia central son empleadas en la toma de
decisiones e indican el punto medio de una distribución, tal como se
observa en la gráfica 10.

Sofía Rivera Aragón


44
Mirna García Méndez
GRÁFICA 10

DISTRIBUCIÓN NORMAL

Media

La media aritmética X es la medida de tendencia central más utilizada en la


investigación, se obtiene al sumar el total de puntajes obtenido por la muestra,
dividido entre el número total de la muestra (Clark-Carter, 1997; Levin y Levin,
2002; Downie y Heath, 1973). Su fórmula es:

Donde:

La media.
La suma expresada por la letra griega sigma
Datos crudos
Número de casos

Esta fórmula se emplea en datos no agrupados (datos crudos) en muestras


pequeñas.

Estadística descriptiva 45
Ejemplo 1
Conocer la media de edad de una muestra de diez sujetos

Cuando se trabaja con datos agrupados por frecuencias o por intervalos y con
muestras grandes, la media se obtiene con la siguiente fórmula:

donde:

La media.
La suma expresada por la letra griega sigma
Los puntajes en crudo de la muestra
Un puntaje multiplicado por su frecuencia de ocurrencia
La suma de los fx
Número de casos

Sofía Rivera Aragón


46 Mirna García Méndez
Ejemplo 2

Se aplicó a una muestra de 330 hombres y mujeres la escala de depresión de Zung


(1965) (SDS).4 La presencia o ausencia de depresión se evaluó con base en cuatro
niveles:

1 = < 50% sin depresión


2 = > 50% depresión leve
3 = > 60% depresión moderada
4 = > 70% depresión grave

Primero se obtienen las frecuencias de ocurrencia en cada uno de los niveles de


depresión.

Niveles de depresión f

1 264
2 45
3 14
4 7

Después se obtiene la fx, al multiplicar cada una de las frecuencias por el nivel
de depresión correspondiente.

4 SDS son las siglas del nombre de la escala en inglés: Self-Rating Depression Scale.

Estadística descriptiva 47
Esta media de 1.3 indica que la mayoría de los 330 sujetos se ubican en el
nivel 1, lo que significa que en promedio la muestra no tiene depresión.

Ejemplo 3

Para obtener la media de años de unión de una muestra de 352 sujetos que
vivían con una pareja al momento de la investigación, los datos se agruparon en
intervalos. Una vez derivados los intervalos, se obtiene la marca de clase (Mx) o
punto medio de cada intervalo donde 33 es el, punto medio del intervalo 31-35
porque 33 + 2 = 35 y 33- 2 = 31.

Intervalo Mx

31-35 33
26-30 28
21-25 23
16-20 18
11-15 13
6-10 8
1-5 3

Enseguida se obtiene la frecuencia de ocurrencia (f) de cada intervalo, así en


el intervalo de 26-30 años de unión, se encuentran 24 personas.

Intervalo Mx f

31-35 33 8
26-30 28 24
21-25 23 34
16-20 18 49
11-15 13 84
6-10 8 110
1-5 3 43

Sofía Rivera Aragón


48 Mirna García Méndez
Posteriormente se multiplica cada frecuencia por su respectiva Mx y
se consiguen de esta manera las fx.

De esta manera se concluye que la media de años de unión de esta muestra es


de 13.3.

Mediana

La mediana (Md) es el valor medio de la distribución, divide el total de los casos


en dos, razón por la que se dice que divide en dos a la muestra, dejando el mismo
número de casos a cada lado de ella (Downie y Heath, 1973).
Cuando se tiene un número impar de casos, la Md se ubica exactamente a la
mitad de la distribución. En los datos que a continuación se presentan, la Md de
edad de los 145 sujetos es de 21 años y le quedan tres rangos de edad hacia arriba
y tres rangos de edad hacia abajo.

Edad f

18 21
19 22
20 32
21 26
22 14
23 18
24 12
n = 145

Estadística descriptiva 49
De acuerdo con Levin y Levin (2002) la posición del valor de la Md también
se puede obtener con la fórmula:

Posición de la Md

Siguiendo con el ejemplo de la edad:

Posición de la Md

Para localizar el número 73 se saca la frecuencia acumulada (fa) la cual se


revisó al inicio de este capítulo.

Edad f fa

18 21 145
19 22 124
20 32 102
21 26 70
22 14 44
23 18 30
24 12 12
n= 145

Una vez obtenida la fa se localiza la posición de la Md 73 en la columna


de la fa. El número más cercano al 73 es el 70 por lo que la Md de edad es 21.
Si el número de casos es par, entonces se procede de acuerdo con el
siguiente ejemplo. En una muestra de 90 sujetos, la posición de la Md 45.5 se
ubica entre las fa 35-50 por lo que la Md es de 10.5 años de escolaridad,
situada a la mitad de la distribución.

Moda

La moda (Mo) es una medida de tendencia central para datos no agru-


pados, cuyo valor se presenta más veces. En el ejemplo anterior la Mo es

Sofía Rivera Aragón


50
Mirna García Méndez
10 años de escolaridad, debido a que su frecuencia es la más alta en la
distribución: son 15 los sujetos que tienen estos años de escolaridad.

Ejercicio SPSS

Para obtener las medidas de tendencia central en SPSS , se retomará el ejercicio de


los significados generales del funcionamiento familiar desarrollado para extraer
los cuatro tipos de frecuencias. Recuerde que después de realizar los pasos 1, 2, 3
y 4 en el SPSS se obtuvo un menú. En este menú, ahora se coloca el cursor en el
icono de statistics y se presiona el botón izquierdo del mouse:

Estadística descriptiva 51
Al presionar statistics aparece un menú en el que se coloca el cursor en cada
uno de los cuadros de las tres medidas de tendencia central de nuestro interés -
media, mediana y moda— se presiona en estos cuadros con el botón izquierdo
del mouse, enseguida se coloca el cursor en el ícono de continue que se
presiona con el botón izquierdo del mouse.

Al presionar el icono de continue reaparece el menú del paso 4 y se presiona el


icono OK.

Sofía Rivera Aragón


52 Mirna García Méndez
Después de presionado el icono de OK aparecen en una tabla las medidas de
tendencia central con sus respectivos valores.

STATISTICS

Significados generales

N Valid 300
Missing 0
Mean 2.4900
Median 2.0000
Mode 2.00

El valor de la media, mediana y moda es de 2, lo que indica una


distribución normal de las respuestas de la muestra.

Calcular medidas de dispersión (variabilidad)

Las medidas de dispersión son importantes en la descripción de la dis-


tribución, debido a que indican el grado en que varían los datos con relación a
la parte central de la curva normal, lo que las convierte en un elemento
inseparable de las medidas de tendencia central; además estas medidas de
dispersión sólo pueden aplicarse a medidas de rango e intervalares. Las más
empleadas son:

1. Rango
2. Desviación estándar
3. Varianza
4. Sesgo
5. Curtosis
6. Error estándar

Rango (R)

El rango también conocido como recorrido (Mendenhall, 1982; Downie


y Heath, 1973) es la distancia entre el valor mínimo y el valor máximo de

Estadística descriptiva 53
una distribución. Su cálculo es fácil y rápido, no requiere de fórmula y se puede
utilizar en medidas ordinales e intervalares. Su desventaja radica en su inestabilidad,
esto es, de una muestra a otra, presenta grandes variaciones, por lo que se
recomienda emplearse como una medida preliminar.
Un ejemplo de esta medida de variabilidad es conocer el rango de
rendimiento escolar de 42 alumnos, cuya calificación más alta fue de 9 y la más
baja de 2. El R se obtiene de la resta 9-2 esto es el R = 7.

Desviación estándar

(o = parámetro de la población) (s = estimador de la muestra)

La desviación estándar únicamente se puede emplear en medidas intervalares.


Es una puntuación que indica la distancia con relación a la media, razón por la
que la media no tiene significado sin la desviación. De esta forma, como se
observa en la gráfica 11, la desviación representa la variabilidad promedio de una
distribución.

G RÁFICA 11
REPRESENTACIÓN DE LA DESVIACIÓN ESTÁNDAR EN
UNA DISTRIBUCIÓN NORMAL

Sofía Rivera Aragón


54 Mirna García Méndez
Su fórmula es:

donde:

s = Desviación estándar

Suma de frecuencias de puntajes crudos elevados al cuadrado

n = Número total de casos

(X)2 = Media elevada al cuadrado

Para entender la desviación estándar de la cual depende la significancia, es


necesaria la curva (véase gráfica 12) que representa el 100 por ciento de la
probabilidad. De esta manera, 100 por ciento es el área bajo la curva.

GRÁFICA 12
REPRESENTACIÓN DE LA SIGNIFICANCIA A PARTIR DE LA DESVIACIÓN
ESTÁNDAR EN UNA DISTRIBUCIÓN NORMAL

Estadística descriptiva 54
Ejemplo

Para calcular la desviación estándar del número de hijos en una muestra de


176 parejas, se realiza lo siguiente:
1. Se obtiene la distribución de frecuencia (/)

Núm. de hijos (x) f

1 49
2 74
3 34
4 15
5 4
n = 176

2. Se multiplica cada frecuencia por el número de hijos, esto es, 49 parejas


tienen un hijo, se multiplica 49 X 1; 74 parejas tienen dos hijos, se multiplica 74 X
2, y así sucesivamente.

Núm. de hijos (x) f fx

1 49 49
2 74 148
3 34 102
4 15 60
5 4 20
n = 176 S/x = 379

3. Se multiplica cada fx por el número de hijos y así se obtienen las fx2.

Núm. de hijos (x) fx fx2

1 49 49
2 148 296
3 102 306
4 60 240
5 20 100
2/x2 = 991

Sofía Rivera Aragón


56 Mirna García Méndez
De acuerdo con la fórmula de la desviación estándar

falta obtener la media por lo que

se toma del punto dos.

4. Una vez que se tiene la X = 2.15 hijos, ésta se eleva al cuadrado (X)2 — 4.62
y entonces:

Varianza (s2 o σ2)

La varianza es la desviación estándar al cuadrado, indica una distancia con


respecto a la X, su aplicación es el análisis de varianza (Anova)5 e indica cuánto
de la variabilidad de la variable dependiente es explicada por la variable
independiente. De esta forma muestra qué tanto de la variabilidad de la variable
dependiente es explicada por las diferencias de los individuos, proceso al que se
le conoce como varianza de error.

5 Siglas en inglés del análisis de varianza.

Estadística descriptiva 57
Sesgo

El sesgo se refiere a la variación de una distribución, es el grado de asimetría de


la distribución observada por el número de casos agrupados en una sola
dirección. Su interpretación está asociada con el valor y el signo, esto es:

Valor - 4 a + 4

Signo + -

El signo implica el nivel de asimetría de la curva, cuando más cercana está al


cero, la curva es normal, cuando más cercana está al cuatro, la curva es asimétrica
o sesgada.

Ejemplos

Una muestra de 60 mujeres se clasificó por la actividad que realizaban de la


siguiente manera: 1. estudiantes, 2. empleadas, y 3. sin actividad. En la gráfica 13
se puede ver que la mayoría de la muestra era estudiante, lo que se refleja en el
sesgo positivo de la gráfica 13.

GRÁFICA 13

ACTIVIDADES REALIZADAS POR MUJERES

Sofía Rivera Aragón


58 Mirna García Méndez
Al indagar en torno a los elementos que intervienen en el funcionamiento
familiar en una muestra de 300 sujetos, se encontró que 232 reportaron que la
comunicación es un indicador que interviene en el funcionamiento familiar. Estos
hallazgos se observan en la gráfica 14 que muestra un sesgo negativo debido a que la
curva está cargada a la derecha.

GRÁFICA 14

LA COMUNICACIÓN COMO ELEMENTO DEL

FUNCIONAMIENTO FAMILIAR

Curtosis (K)

Es el nivel de picudez de una curva, esto es, su grado de elevación o


aplanamiento. A diferencia del sesgo, la curtosis es una z4 sobre el número de
sujetos.

La curtosis al igual que el sesgo depende del valor y del signo:


a) Valor. Si el cero va de + 4 a - 4 la curva es mesocúrtica.
b) Signo. Si es positivo se habla de una curva leptocúrtica.

Estadística descriptiva 59
Ejemplos

El número de hijos en una muestra de 176 parejas fluctuó entre uno y cinco,
predominando las parejas con dos hijos, tal como se observa en la gráfica 15, lo
que hace que la curva sea alta o picuda (leptocúrtica).

GRÁFICA 15
NÚMERO DE HIJOS

La gráfica 16, representa una curva mesocúrtica, esto es, una distribución
normal en una muestra de 60 mujeres, 30 con diagnóstico que indica problemas
de alimentación y 30 sin problemas alimenticios.
La gráfica 17, muestra una curva platocúrtica hipotética, que se caracteriza
por su distribución relativamente plana.
De esta manera se observa que el sesgo y la curtosis indican la asimetría, el
sesgo hacia uno u otro lado de la curva y la curtosis a través de la elevación de la
misma.

Sofía Rivera Aragón


60 Mirna García Méndez
GRÁFICA 16
DIAGNÓSTICO DE PROBLEMAS EN LA ALIMENTACIÓN

G RÁFICA 17

CURVA PLATOCÚRTICA

Error estándar (σ o e)

El error estándar es la diferencia entre la media muestral y la media


poblacional, está vinculado al error de muestreo.

Estadística descriptiva 61
Ejercicio SPSS

Para obtener las medidas de dispersión en SPSS de una muestra de 300 personas a
las que se les aplicó la escala de depresión de Zung (1965) se llevan a cabo los
siguientes pasos:
Paso 1. En la base de datos se coloca el cursor en analyze, se presiona el botón
izquierdo del mouse, aparece un menú en el que se coloca el cursor en descriptive
statistics y se presiona el botón izquierdo del mouse, nuevamente se muestra un
menú en el que se presiona con el botón izquierdo del mouse, frequencies.

Paso 2. Al presionar frequencies, se abre un menú que contiene las variables de


la investigación, se marca con el botón izquierdo del mouse la variable rangos
(niveles de depresión).
Paso 3. Una vez señalada la variable rangos, se coloca el cursor en el icono que
está entre las variables de estudio y variable(s), se presiona el botón izquierdo del
mouse, lo que resulta en que rangos aparece en el cuadro de variable(s).
Posteriormente se coloca el cursor en el icono de statistics y se presiona el botón
izquierdo del mouse.

Sofía Rivera Aragón


62 Mirna García Méndez
Paso 3

Paso 4. Al presionar el icono de statistics aparece un menú en el que se


colocará el cursor en cada uno de los cuadros de las tres medidas
de dispersión -desviación estándar, varianza y rango- para después presio-
nar en cada cuadro con el botón izquierdo del mouse. De igual forma se

Estadística descriptiva 63
coloca el cursor en el cuadro de kurtosis y se presiona el botón izquierdo del mouse.

Paso 5. Después de presionar las medidas de dispersión y la curtosis, se coloca


el cursor en el icono de continue y se presiona con el botón izquierdo del mouse, de
lo que resulta el menú del paso tres. En el menú del paso tres, se coloca el cursor
en el icono de OK, se presiona el botón izquierdo del mouse y aparecen las medidas
de dispersión y la curtosis con sus respectivos valores.

STATISTICS

Rangos
N Valid 330
Missing 22
Std. Deviation .6458
Variance .4171
Kurtosis 6.138
Std Error of Kurtosis .268
Range 3.00

Sofía Rivera Aragón


64 Mirna García Méndez
Los valores de la tabla del SPSS indican que de los 330 casos analizados, 22
quedaron fuera debido a que dejaron sin contestar varios de los reactivos que
incluye la escala. Los valores de la desviación estándar y la varianza indican una
distribución normal, la curtosis muestra que la mayoría de las personas se ubica
en uno de los cuatro rangos de depresión, y el rango señala que de los cuatro
intervalos de respuesta de la escala, el 3 fue el que obtuvo mayor frecuencia.
Como parte final de este capítulo, la tabla 15 presenta las pruebas de la
estadística descriptiva y los tipos de gráficas asociadas con el nivel de medición
revisados en el capítulo uno.

TABLA 15
ESTADÍSTICA DESCRIPTIVA

Medidas de Correlación
Medidas de dispersión
Gráficas tendencia central
Nominal Barras Moda No hay Coeficiente Phl
Pastel C de contingencia
V de Cramer

Ordinal Barras Moda No hay Tau b de Kendall


Pastel Mediana Tau c de Kendall
Gamma de KrusKal y
Godman
Spearman
Incertldumbre

Intervalar Ojiva Moda 1. Rango Eta


Polígonos de Mediana 2. Error Pearson
frecuencia Media 3. Desviación
Histograma 4. Varianza
5. Sesgo
6. Curtosis

Estadística descriptiva 65
Estadística inferencial
La estadística inferencial se basa en la prueba de hipótesis, se define como un
conjunto de técnicas que permiten al investigador obtener conclusiones a partir
de una muestra para después ser generalizadas a una población. De este modo,
su principal función es la generalización en una población (parámetros)
habitualmente en términos de probabilidad (Nunnally y Bernstein, 1995) a partir
de las conclusiones obtenidas, resultado de la manipulación de variables en
muestras observadas.

Aplicaciones de la
estadística inferencial

a) Comparar parámetros. Un parámetro es cualquier característica de una


población.
b) Aplicar pruebas de hipótesis.
Hipótesis conceptual
Deriva del marco teórico, parte de una teoría, un modelo teórico o un
metanálisis. Son hipótesis que ya fueron planteadas por otro investigador.

Ejemplo

A mayor frustración mayor agresión (Dollar, Doob, Miller, Mowrer y Sears,


1939).
Hipótesis de trabajo
Estas hipótesis se refieren a lo que espera encontrar el investigador a partir
de un marco teórico.

69
Ejemplo

Existe relación entre el aprovechamiento escolar y la autoestima.


Hipótesis estadísticas
Se clasifican en nulas y alternas, presentan las siguientes características: 1.
implican la relación entre variables, y 2. se plantean sólo cuando se aplica
estadística en la investigación (véase tabla 16). Un punto importante de señalar
es que en los estudios exploratorios no se deberán proponer ninguna de estas
hipótesis (nulas y alternas).

TABLA 16
HIPÓTESIS ESTADÍSTICAS

Tipo Notación Definición Formas Función

Nula Ho Niega la relación o a) Comparación Diferencias entre grupos


diferencia entre b) Relación
variables
Asociación entre variables

Alterna H1 Presencia de la a) Comparación I. Con dirección. Indica que


relación o la diferencia b) Relación uno de los parámetros es
más bajo o más alto que
otro.
II. Sin dirección. Sólo
compara grupos.
II. Con dirección. Indica
que las variables aumen-
tan o disminuyen.
II. Sin dirección. Sólo
establece relaciones.

Sofía Rivera Aragón


70 Mirna García Méndez
Ejemplos

Ho de comparación
Se identifica la variable dependiente (VD) y la independiente (VI) o de
clasificación (VE).
VD = Asertividad
vc = Sexo: hombres y mujeres
Ho = No existen diferencias estadísticamente significativas en la asertividad
entre hombres y mujeres.

Con notación estadística

Ho de relación
V1 = Agresión (X)
v2 = Niveles de testosterona (Y)
Ho = No existe relación entre agresión y el nivel de testosterona en hombres.

Con notación estadística

Ho: rxy = 0

H1 de comparación sin dirección. Utiliza los dos lados de la curva.

Estadística inferencial 71
VD =Calidad de vida
vc = Estado civil: casados y solteros

H1 = Sí hay diferencias estadísticamente significativas en la calidad de vida


entre solteros y casados.

Con notación estadística

H1 de comparación con dirección. Se ocupa de un solo lado de la curva

Los solteros tienen mayor calidad de vida que los casados. Con notación
estadística

H1 de relación sin dirección


V1 = identidad nacional (X)
V2 - Edad (Y)

Sofía Rivera Aragón


72 Mirna García Méndez
H1 = Existe relación entre la identidad nacional y la edad en los uni-
versitarios.

Con notación estadística


H1 = rxy ≠ 0

H1 de relación con dirección

H1 = a mayor identidad nacional mayor edad en los universitarios

Con notación estadística

H1 = rxy > + 0

H1 = a mayor identidad nacional menor edad en los universitarios

Con notación estadística

H1 = rxy > - 0

Clasificación de la estadística inferencial

No paramétrico

Es una estadística de distribución libre, se basa en frecuencias, porcentajes y


rangos, estos últimos basados en rangos de ordenación los cuales son buenas
medidas de variabilidad para muestras pequeñas, no así para muestras grandes.
Las pruebas de la estadística no para- métrica se enfocan en las diferencias entre
las medianas y parten de un modelo que especifica únicamente condiciones muy
generales en torno a la distribución de la cual fue obtenida la muestra (Siegel y
Castellan, 2003).

Estadística inferencial 73
Ventajas

a) Se puede aplicar a muestras pequeñas en las que la n > 4.


b) Sus niveles de medición son nominal y ordinal. En el nivel nominal se
pueden tratar datos que impliquen clasificación (sexo: hombre o mujer). En
el nivel de medición ordinal, el investigador concluye que algunos sujetos
de investigación tienen más o menos del atributo medido, sin determinar
qué tanto más o qué tanto menos.
c) Si se aplica a variables intervalares, éstas deberán ser convertidas en
categorías. Por ejemplo:

d) Está libre de parámetros. Se refiere a que su distribución es libre.

Desventajas

Cuando se aplica a variables intervalares sin ser convertidas en categorías, se


infla el valor de la prueba y se comete el error estadístico conocido como error
tipo 1 o alfa que consiste en rechazar la Ho cuando es verdadera, situación que
conduce a conclusiones falsas.
Dadas las características de la estadística no paramétrica, existe una
diversidad de pruebas que pueden ser empleadas con base en los requisitos
citados. En la tabla 17 se presentan las pruebas no paramétricas más utilizadas,
así como una serie de elementos que facilitan la toma de decisiones con relación
a las condiciones que se deben cubrir para emplear una u otra prueba.

Sofía Rivera Aragón


74 Mirna García Méndez
TABLA 17
PRUEBAS DE LA ESTADÍSTICA NO PARAMÉTRICA

Prueba Objetivo Nivel de Diseño Muestreo Instrumentos


medición

X2 Conocer la Nominal y De una muestra No Cuestionarios:


Bondad de distribución de ordinal probabi- abiertos cerrados
ajuste la muestra lísticos Jerarquización
observaciones

Por homo- Conocer si Nominal y De dos o más


geneidad existen dife- ordinal muestras inde-
rencias entre pendientes
dos o más gru-
pos
Indepen- Conocer si Nominal y De una muestra
dencia existe relación ordinal
entre dos o más
variables
Corrección de Conocer dife- Nominal y De una muestra o
Yates rencias o aso- ordinal de dos muestras
ciación entre independientes
variables en
muestras pe-
queñas
McNemar Comparar si Nominal y Pretest-postest No proba- Cuestionarios:
existen dife- ordinal Antes-después bilístico abiertos cerrados
rencias antes y Una sola muestra jerarquización
después de un medida dos veces observaciones
evento
T de Comparar si Ordinal Pretest-postest No proba- Los mismos que
Wilcoxon existen dife- Antes-después bilístico en X2 y McNemar
rencias antes y Una sola muestra
después de un medida dos veces
evento
U de Mann Comparar si Ordinal Dos muestras in- No proba- Los mismos que
Whitney existen dife- depend ¡entes bilístico en las pruebas
rencias entre anteriores,
dos grupos además de escalas

Análisis de Comparar si Ordinal Más de dos Probabilís- Escalas


varlanza de existen dife- muestras inde- tico
KrusKall Wa- rencias entre pendientes
llis tres o más gru-
pos

Estadística Inferencial 75
TABLA 17
(Continuación)
Prueba Objetivo Nivel de Diseño Muestreo Instrumentos
medición

Análisis de Comparar Ordinal De medidas No proba- Escalas


varianza de tres o más repetidas bilístico
Friedman mediciones en Tres o más Probabilís-
un grupo muestras re- tico
lacionadas

Spearman rho Conocer re- Ordinal De una sola No proba- Escalas


(rs) coeficiente laciones entre muestra bilístico
de asociación dos variables Probabllís-
tico
Phi Coeficiente Conocer re- Nominal. De una sola No proba- Pruebas* com-
de asociación laciones entre Se aplica a muestra bilístico en paradas que se
dos variables tablas de muestras aplican en
contingencia grandes
de 2x2 (tablas
pequeñas)

C de con- Conocer re- Nominal. De una sola No proba- Pruebas com-


tingencia laciones entre Se aplica a muestra bilístico paradas que se
dos variables tablas de aplican en X2
contingencia
mayores de
2x2 (tablas me-
dianas)

V de Conocer re- Nominal. De una sola No proba- Cuestionarios:


Cramer laciones entre Corrección a la muestra bilístico abiertos
dos variables C de cerrados
contingencia jerarquización
observaciones
*La prueba Phi y la C de contingencia dependen de la X2.

Paramétrica

La estadística inferencial paramétrica se sustenta en supuestos o parámetros


y para poder emplearla es necesario cubrir los siguientes principios:

1. Distribución normal.
Indica que los grupos tienen una curva normal o mesocúrtica (esta curva
se describe en el capítulo 2, figura 8). Con esta afirmación se asume
que las muestras (n) con las que se está trabajando se han extraído de

Sofía Rivera Aragón


76 Mirna O a roía Méndez
poblaciones normalmente distribuidas, si no es éste el caso, se dice que las
pruebas estadísticas que dependen del principio do normalidad están
viciadas, razón por la que las conclusiones obtenidas a partir de las
observaciones de estas muestras estarán en tela de juicio.
2. Homecedasticidad de varianza u homogeneidad de varianza.
La distancia entre la calificación de un grupo y los de otro grupo deben ser
iguales, esto es, la distancia de las X a todas las puntuaciones individuales.
Este principio supone que las varianzas dentro de los grupos son es-
tadísticamente las mismas, o sea, que las varianzas son homogéneas de un
grupo a otro (Kerlinger y Lee, 2001). Esta situación puede provocar el error
estadístico tipo 2 o beta, que consiste en aceptar la Ho cuando es falsa.
3. Selección y asignación aleatoria.
Sólo se aplican muestreos probabilísticos entendidos como la técnica en la
cual todos los sujetos tienen la misma probabilidad de ser elegidos. También
en la estadística paramétrica se utiliza el muestreo no probabilístico,
definido como aquel en el que las personas no tienen la misma probabilidad
de ser elegidos. Sin embargo, al emplear alguna de las técnicas de muestreo
no probabilístico es conveniente replicar los estudios. De acuerdo con
Kerlinger y Lee (2001) el muestreo probabilístico no es necesariamente
superior al no probabilístico en todas las situaciones. Refieren que en el
primero el énfasis está en el método y la teoría que lo sustenta, mientras que
en el segundo, el énfasis se encuentra en la persona que hace el muestreo.
Puesto que no es el propósito de este apartado profundizar en las técnicas
de muestreo, en la tabla 18 se mencionan algunas de ellas.
4. La variable dependiente debe ser medida a nivel intervalar.
Esto significa que las medidas deberán ser continuas con intervalos iguales,
ejemplo, las escalas tipo Likert de estilos y estrategias de poder (Rivera y
Díaz-Loving, 2001) y el inventario multifacético de satisfacción marital
(Cañetas, 2000). Ambas son pruebas con cinco intervalos de respuesta.

Estadística inferencial 77
TABLA 18
TÉCNICAS DE MUESTREO

Técnicas de muestreo probabilístico Técnicas de muestreo no


probabilístico

Aleatorio simple Accidental


Aleatorio con reemplazo Intencional
Estratificado Por cuota
Por conglomerado
Estratificado

La tabla 19 muestra las pruebas paramétricas más empleadas por el


investigador social, además de los criterios que se deben tomar en cuanta para
emplear una u otra prueba. La revisión en detalle de algunas de estas pruebas se
expondrá en el capítulo 5 de este texto.

TABLA 19
PRUEBAS DE LA ESTADÍSTICA PARAMÉTRICA*

Prueba Objetivo Nivel de Diseño Muestreo Instrumentos


medición

Coeficiente Relacionar dos Intervalar De una sola Proba bilis- Escalas


Producto- variables muestra tico:
m o m e n t o de Correlacio- Muestra
Pearson nal bivariado grande
Prueba t de Discrimina- VD a nivel De dos muestras Probabilís- Escalas
student ción de I n t e r v a l a independientes tico:
reactivos r Muestra
pequeña n
<30
Comparar dos VI {Nominal De dos muestras
grupos VC {y independientes
VE {Ordinal
Comparar dos Dos muestras Muestra
condiciones o relacionadas grande n >
mediciones pretest-pos- test 30
Prueba post hoc Antes-después
del Anova

78 Sofía Rivera Aragón


Mirna García Méndez
Prueba Objetivo Nivel de Diseño Muestreo Instrumentos
medición

Anova Compara tres o La VD debe ser Tres o más Probabilisti- Escalas


(análisis de más grupos in-ervalar muestras in- co:
varianza) dependientes Muestra
grande
a) simple de
una vía

b) factorial de Comparar dos o vi {Nominal Factoriales Muestra


dos vías más variables vc {y grande 15
Independientes ve {Ordinal sujetos míni-
con tres o más mo por cel-
categorías dilla

*VC se refiere a las variables de clasificación y VE a las variables de estímulo.


Pruebas de la estadística no
paramétrica
Cuando existe duda respecto a la normalidad de la población o

cuando la población no es normal es conveniente emplear una prueba no


paramétrica, que como ya se mencionó en el capítulo 3 no parten del principio
de normalidad. Asimismo, las pruebas no paramétricas se clasifican en tres
grupos: para una muestra simple, para muestras relacionadas y para muestras
independientes.
Debido a la amplia variedad de pruebas en cada uno de estos grupos, en
este capítulo sólo se describirán las de mayor uso en la investigación en
psicología.

Pruebas para una muestra simple

Generalmente las pruebas para una muestra simple son pruebas de bondad de
ajuste que tienen como objetivo conocer la distribución de la muestra.

Chi cuadrada (X2)

La chi cuadrada es la prueba más empleada en la investigación en psicología.


Esta prueba se aplica para comparar las frecuencias esperadas (poblacionales)
y las frecuencias obtenidas (muestra) y a partir de esta comparación decidir si
existen diferencias significativas. Las frecuencias esperadas se refieren a la
hipótesis nula (Ho) y las frecuencias obtenidas son los resultados alcanzados
por el investigador. De este modo, mientras mayor sea el valor de X2 menor es
la probabilidad de que las frecuencias obtenidas se deban a la población, esto

83
significa que el valor de chi cuadrada es significativo si la diferencia entre las
frecuencias esperadas y las frecuencias obtenidas es lo suficientemente grande
(Siegel y Castellan, 2003; Levin y Levin, 2002). Su fórmula es:

donde:

suma de todas las casillas, de la primera a la última.


frecuencia obtenida,
frecuencia esperada.

La fórmula para obtener las fe es

fe= N /k

donde:
N = número de personas.

k = número de categorías o columnas.

De esta manera, el procedimiento para obtener la X2 consiste en restar cada


frecuencia esperada de su correspondiente frecuencia obtenida, la diferencia de
esta resta, se eleva al cuadrado y se divide entre la frecuencia esperada, estos
resultados parciales se suman y se obtiene el valor de la chi cuadrada.
Una vez que se obtiene el valor de la chi cuadrada, se requiere conocer los
grados de libertad (gl) que se definen como la amplitud de variación contenida
en una condición de investigación, lo que significa la posibilidad de variación
(Kerlinger y Lee, 2001; Downie y Heath, 1973). Asimismo, junto con los grados
de libertad, se requiere de una tabla de valores de X2 para conocer de acuerdo
con los gl y al valor de la X2, si ésta es o no significativa.

84 Sofía Rivera Aragón


Mirna García Méndez
La fórmula para obtener los grados de libertad es:

gl = k - 1

donde:
k = número de columnas de la tabla de contingencia

También la X2 se utiliza en muestras independientes, en este caso se le


conoce como prueba de homogeneidad y su objetivo es conocer si existen
diferencias entre dos o más grupos.
Un tercer uso de esta prueba, es como prueba de independencia, aquí su
objetivo es conocer si existen relaciones entre dos o más variables en una
muestra.
Un cuarto uso es como prueba de corrección por continuidad de Yates, la cual le
da mayor precisión a la X2 cuando tiene fe pequeñas.
En los tres primeros casos -bondad de ajuste, homogeneidad, independencia- la chi
cuadrada se obtiene con la misma fórmula.

Reglas para su empleo

1. Las observaciones deben ser independientes, no se puede observar o


medir a la misma persona más de una vez.
2. El nivel de medición utilizado será nominal u ordinal.
3. Se aplicará en muestreos no probabilísticos.
4. La muestra deberá ser mayor a 20 {N > 20).
5. Si la muestra N < 20 entonces se utiliza la prueba de probabilidad exacta
de Fisher.
6. Las frecuencias esperadas deben ser mayores a 5.
7. Si la frecuencia esperada es > 5 y < 10, entonces se aplica la corrección por
continuidad de Yates.
8. Si la N > 20 y < 40, se aplica la prueba de corrección por continuidad de
Yates.
9. Si la tabla de contingencias es de 1 X i columnas, se aplica la X2 de
bondad de ajuste.

Pruebas de la estadística
no paramétrica 85
10. Si la tabla de contingencia ese de 2 x 2 y cumple los requisitos 7 y 8, se
aplica la prueba de corrección por continuidad de Yates.

Procedimiento

1. Plantear las hipótesis estadísticas.


2. Determinar la probabilidad con la que se trabajará: p = .05, p = .01.
3. Distribuir los puntajes en la tabla de contingencia.
4. Calcular las frecuencias esperadas:
5. Aplicar la fórmula.
6. Obtener los gl.
7. Plantear regla de decisión.

Este estudio tiene como propósito identificar el consumo de productos chatarra,


en una muestra de 60 niños preescolares de la ciudad de México, así como la
preferencia por alguno de estos productos. Entendiéndose por productos
chatarra: pastelitos, frituras, refrescos y dulces.
Paso 1. Hipótesis.
Ho: no existen diferencias significativas en el consumo de productos
chatarra en niños preescolares.
H1: existen diferencias significativas en cuanto al consumo de productos
chatarra por parte de los niños preescolares.
Paso 2. Nivel de significancia p = .05.
Paso 3. Distribución de los datos.

Pastelitos Frituras Refrescos Dulces N

fo fe fo fe fo fe fo fe
15 15 28 15 0 15 7 15 60

Paso 4. Cálculo de fe.

Sofía Rivera Aragón


86 Mirna García Méndez
Paso 5. Desarrollo de la fórmula.

Paso 6. Obtener los grados de libertad.

gl = k - 1
gl = 4 - 1

gl = 3

Paso 7. Regla de decisión.

X2 ≥ X2t  H1 se acepta y Ho se rechaza.

X2t = chi cuadrada en tablas. En la tabla A del apéndice, se busca en la parte


horizontal, el nivel de significancia previamente establecido .05, y en la parte
vertical los gl, que en este ejemplo fue de 1. Esto resulta en lo siguiente:

17.18 ≥ 7.82. Se acepta la H1

Pruebas de la estadística
no paramétrica 87
Interpretación de resultados

Se encontraron diferencias significativas X2 = 1 7 . 1 8 , p = .05 en el consumo de


alimentos chatarra en los niños preescolares, lo que significa que difieren en el
consumo de estos productos.

Ejercicio SPSS

Se empleará el mismo ejercicio desarrollado por la fórmula de preferencias de


productos chatarra por niños preescolares.
Paso 1. Se crea una variable que se denominará preferencias e incluirá 5
niveles de respuesta: 1 = pastelitos; 2 = frituras; 3 = refrescos; y 4 = dulces.
Debido a que incluir las respuestas de los 60 niños en la base de datos implica
mucho espacio, únicamente se presentarán los datos de 10 niños, pero el análisis y
los resultados se llevarán a cabo con el total de las respuestas de los participantes.
De esta manera la base de datos queda así:

Sofía Rivera Aragón


88 Mirna García Méndez
Paso 2. Se coloca el cursor en Analyze, se presiona el botón izquierdo del mouse y
se muestra un menú en el que se coloca el cursor en Non-parametric test, aparece un
menú en el que se coloca el cursor en Chi- Square y se da clic.

Paso 3. Al hacer clic en Chi-Square se abre un menú.

Pruebas de la estadística
no paramétrica 89
Paso 4. En el menú del paso 3, se marca con el cursor la variable preferencias, se
da clic en el icono ubicado entre la variable preferencia y Test Variable List,
inmediatamente la variable preferencias aparece en Test Variable List.

Paso 5. Se da clic en OK y se muestran los resultados en tablas.

PREFERENCIAS

Observed N Expected N Residual

Pastelillos 15 15.0 .0
Frituras 28 15.0 13.0
Refrescos 10 15.0 -5.0
Dulces 7 15.0 -8.0
Total 60

Sofía Rivera Aragón


90 Mirna García Méndez
TEST STATISTICS

Preferencias

Chi-Squarea 17.200
df 3
Asymp. Sig. .001
a.0 cells (.0%) have expected frequencies less than 5. The

minimum expected cell frequency is 15.0.

Estas tablas no se presentan en el reporte de investigación, los datos


contenidos en ellas se pueden presentar en tablas en otro formato.

TABLA 20
DIFERENCIAS EN EL CONSUMO DE PRODUCTOS CHATARRA

Pastelitos Frituras Refrescos Dulces X2 gl p

15 28 10 7 17.20 3 .00 1

N = 60.

Como se puede observar en la tabla 20, la X2 y la p difieren un poco de los


resultados con la fórmula desarrollada, esto se debe a que en el SPSS las
operaciones se realizan en forma precisa.

Interpretación de resultados

Se encontraron diferencias significativas X2 = 17.20, p = .001 en el consumo


de alimentos chatarra en los niños preescolares, lo que significa que difieren en
el consumo de estos productos.

Pruebas para muestras relacionadas

Estas pruebas implican dos medidas de una sola muestra. Se emplean cuando
el investigador desea conocer si un tratamiento es mejor que otro o si
dos tratamientos son diferentes. En este tipo de estudios se pueden em-

Pruebas de la estadística
no paramétrica
91
plear dos grupos, sin embargo, los resultados que se obtengan pueden estar
relacionados con un conjunto de eventos ajenos al tratamiento. Estos eventos se
conocen como variables extrañas. Con la finalidad de controlar el efecto de
estas variables extrañas, la persona puede fungir como su propio control, esto
es, se le expone a ambas condiciones en diferentes ocasiones. Otra alternativa es
el método de apareamiento, en el que se seleccionan pares de personas lo más
semejantes posible en torno de las variables extrañas que puedan influir en los
resultados del tratamiento. El inconveniente de este método es que depende de
la capacidad del investigador para establecer que tan iguales son los pares
(Siegel y Castellan, 2003).

McNemar

Es una prueba útil en los diseños antes-después (Álvarez, 1995) en los que cada
sujeto se utiliza como su propio control. En la prueba de McNemar el objetivo es
probar la significación de los cambios observados a partir de una tabla de
contingencia 2x2 (Siegel y Castellan, 2003; Conover, 1980).

Para probar la significancia de los cambios observados, los datos en la tabla


expresan lo siguiente:

Sofía Rivera Aragón


92
Mirna García Méndez
Los signos positivo y negativo sólo se emplean para indicar que hubo un
cambio sin connotación de bueno o malo.
Como se observa en la tabla, A + D son las personas cuyas respuestas
cambiaron. De esta manera, la Ho plantea que el número de cambios en cada
dirección es el mismo.
Sustituyendo la fórmula:

donde:

suma
frecuencia obtenida
frecuencia esperada

se obtiene lo siguiente:

Los grados de libertad empleados en McNemar es 1. gl = 1.


Para obtener resultados más precisos, se emplea la corrección por
continuidad que permite eliminar la fuente de imprecisión que resulta de
emplear una distribución continua para aproximarse a una distribución discreta
(Siegel y Castellan, 2003).
Con esta corrección, la fórmula se expresa de la siguiente manera:

El signo | indica que al resultado de la resta de A - D, sin importar el signo +


o - se le resta el 1. Por ejemplo, 6-15 = - 9, entonces se resta 9 - 1 = 8

Pruebas de la estadística
no paramétrica 93
Reglas para su empleo

• En mediciones nominales y ordinales.


• Que el número total de cambios sea mayor a 10.
• Cuando la frecuencia esperada es menor a 5, se debe usar otra prueba.

Procedimiento

1. Plantear las hipótesis estadísticas.


2. Determinar la probabilidad con la que se trabajará p=05, p = . 0 1 .
3. Distribuir los puntajes en la tabla de contingencia.
4. Aplicar la fórmula.
5. Plantear regla de decisión.

Ejercicio

Para evaluar la efectividad de un programa de intervención con 50 padres


de familia de ciudad Nezahualcóyotl, se les preguntó si estaban de acuerdo o en
desacuerdo con que sus hijos recibieran educación sexual en la escuela, tema a
tratar como parte del programa a través de un taller. Antes del taller se les
preguntó si estaban de acuerdo o en desacuerdo y al término del taller se les
volvió a hacer la misma pregunta.
Paso 1. Hipótesis

Ho. La probabilidad de las madres que cambiaron de acuerdo a desacuerdo


es igual a la probabilidad de las madres que cambiaron de desacuerdo a
acuerdo en lo concerniente a que sus hijos reciban educación sexual en la
escuela.
H1. Después de haber asistido a un taller, las madres aceptan que sus hijos
reciban educación sexual en la escuela.

Paso 2. Nivel de significancia a emplear p = .05.

Sofía Rivera Aragón


94 Mirna García Méndez
Paso 3. Distribución de las respuestas de los padres antes y después del taller.

Despues
Desacuerdos Acuerdos

Antes Acuerdos 9 6

Desacuerdos 5 30

Paso 4. Desarrollo de la fórmula.

Paso 5. Regla de decisión.


X2 ≥ X2t  H1 se acepta e Ho se rechaza.
X2t = chi cuadrada tablas. En la tabla A del apéndice, se busca en la parte
horizontal, el nivel de significancia previamente establecido .05, y en la parte
vertical los gl, que en este ejemplo fue de 1. Esto resulta en que se acepta la H1.
10.25 ≥ 3.84. Se acepta la H1.

Interpretación de resultados

Estos resultados indican que el taller influyó en la opinión, ya que las


madres que estaban en desacuerdo con que sus hijos reciban educación
sexual en la escuela, ahora en su mayoría están de acuerdo (X2 =10.25, p=.05)

Pruebas de la estadística
no paramétrica 95
Ejercicio SPSS

La base de datos contiene las respuestas de los 50 padres de familia; sin embargo,
con fines prácticos en esta tabla únicamente se incluye la información de 20
padres. La base de datos del paso 2, sólo incluye 10 de los 20 casos, no obstante
los análisis que se presentan son a partir de todos los casos
Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del
mouse.

Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor


en Descriptive statistics, se da clic y aparece otro menú, se coloca el cursor en
Crosstabs, se da clic.

Sofía Rivera Aragón


96
Mima García Méndez
Paso 3. Al hacer clic en Crosstabs, se abre un menú en el que aparecen las dos
condiciones de investigación (antes/después), se da clic en el cuadro de Statistics.

Pruebas de la estadística
no paramétrica 97
Paso 4. Al hacer clic en Statistics se coloca el cursor en Chi-square y en McNemar,
se da clic en el cuadro de cada una de éstas pruebas,- se coloca el cursor en
Continue y se da clic.

Paso 5. Al hacer clic en Continue reaparece el menú del paso 3 de la


investigación. Se coloca el cursor en antes y se da clic en el icono que está entre
antes-después y Row(s), entonces antes se muestra en Row(s).

Sofía Rivera Aragón


98 Mirna García Méndez
Se coloca el cursor en después y se da clic en el icono que está entre antes-
después y Column(s), entonces después aparece en Column(s). Se hace clic en OK y
se muestran los resultados en tablas.

Count ANTES-DESPUÉS CROSSTABULATION

Después Acuerdo Desacuerdo Total

ANTES Acuerdo 6 9 15

Desacuerdo 30 5 35
Total 36 14 50

CHI-SQUARE TESTS

Value df Asymp.Sig. Exact sig. Exact sig. (1


(2-sided) (2-sided) sided)

Pearson Chi-Square 10.884b 1 .001

Countinity Correctiona 8.735 1 .003

Likelihood Ratio 10.397 1 .001

Fisher's Exact Test .002 .002

Linear-by-Linear 10.667 1 .001

Association

McNemar Test .00lc

N of Valid Cases 50

aComputed only for a 2x2 table.


bl cells (25.0%) have expected count less than 5. The minimum expected count is 4.20.
cBinomial distribution used.

Una forma de presentar estos resultados es la siguiente:


La distribución de las respuestas de los padres de familia antes y después de
haber tomado el taller se presenta en la tabla 21.

Pruebas de la estadística
no paramétrica 99
TABLA 21
DISTRIBUCIÓN DE RESPUESTAS DE LOS PADRES DE FAMILIA.

Después

Desacuerdos Acuerdos

Antes Acuerdos 9 6

Desacuerdos 5 30

Con base en esta distribución de respuestas, se obtuvo una X2 — 10.88, p =


.001 lo que indica diferencias significativas en los acuerdos/desacuerdos por
parte de los padres, antes y después de asistir al taller, modificándose la
respuesta de desacuerdo por acuerdo en lo concerniente a que sus hijos reciban
educación sexual en la escuela.

t de Wilcoxon (t w)

La prueba t de Wilcoxon considera la magnitud relativa y la dirección de las


diferencias, lo que la convierte en una prueba poderosa. Esta prueba otorga
mayor peso a los pares que tienen mayores diferencias entre el antes y después
que a los pares cuya diferencia es pequeña. De esta manera el investigador
puede determinar qué miembro del par es más grande que, por lo que puede
hacer juicios de mayor que entre los valores de cualquier par (Siegel y Castellan,
2003).

Procedimiento

1. Plantear hipótesis.
2. Determinar probabilidad alfa (α ).
3. Obtener las calificaciones de la muestra antes y después.
4. Obtener las diferencias de la primera y segunda aplicación.
5. Ordenar de mayor a menor las diferencias (R) (se toma en cuenta el
signo). Cuando la diferencia es cero, no se ordena.
6. Sumar por separado los rangos de los valores positivos (∑ R+) Y los
rangos de los valores negativos (∑ R-).

Sofía Rivera Aragón


100 Mirna García Méndez
7. Elegir el valor más pequeño de la ∑R + o ∑R - el cual constituye la t de
Wilcoxon.
8. Plantear la regla de decisión: t we ≤ t wr entonces ( ) la hipótesis alterna
se acepta y la hipótesis nula se rechaza.

Ejercicio

El Instituto Nacional Indigenista plantea que en México existe discri-


minación, si no al color de la piel, sí a los rasgos indígenas. De hecho se usa la
expresión "eres un indio" como sinónimo de tonto, no hablas bien, etcétera. Para
probar esta aseveración, se llevó a cabo un estudio con una muestra de nueve
estudiantes que se distribuyeron en comunidades del sureste, con el propósito
de que convivieran en estas comunidades. Antes de irse, se les aplicó una escala
de actitudes hacia la discriminación indígena, misma que se les aplicó cuando
regresaron.
Paso 1. Hipótesis.

Ho. No existen diferencias significativas en las actitudes hacia la dis-


criminación de los indígenas, antes y después de convivir en comunidades
indígenas.
H1. Si existen diferencias en las actitudes hacia la discriminación de los
indígenas, antes y después de convivir en comunidades indígenas.

Paso 2. Nivel de significancia utilizado p = .05.


Paso 3. Obtención de las calificaciones.

Antes Después

118 100
100 90
120 38
141 60
51 171
170 64
179 89
47 52
161 101
N=9 N=9

Pruebas de la estadística
no paramétrica 101
Pasos 4 y 5. Se obtienen las diferencias de las calificaciones antes-des-
pués, por ejemplo, 118 - 100 = 18. Se ordenan los rangos de menor a mayor,
el rango 1 es para la diferencia más pequeña, que en este caso es -5. Como la
diferencia es negativa, el rango también será negativo.

Antes Después d Rd

118 100 18 3
100 90 10 2
120 38 82 6
141 60 81 5
51 171 -120 -9
170 64 106 8
179 89 90 7
47 52 -5 -1
161 101 60 4

Paso 6. Se obtiene la suma de rangos positivos y negativos.

∑R + = 3 + 2 + 6 + 5 + 8 + 7 + 4
∑ R+ = 35
∑R - = -9 - 1
∑ R- = -10
Paso 7. Se elige el valor más pequeño resultado de la suma de rangos
positivos y negativos. En este ejercicio el valor menor lo tiene la suma de rangos
negativos, convirtiéndose en el valor tw.

tw = -10

Paso 8. Regla de decisión.

t we ≤ t wt  se acepta la Ho.

Sofía Rivera Aragón


102 Mirna García Méndez
donde:
t we = El valor obtenido con el desarrollo de la fórmula (-10).

t wt = Es el valor en tablas, que en este caso se busca en la tabla B del


apéndice, siguiendo el procedimiento descrito en chi cuadrada y McNemar. El
resultado es 6.
10 > 6 se rechaza la H1.

Interpretación de resultados

Estos resultados indican que no existen diferencias respecto a las actitudes


hacia la discriminación de los indígenas antes y después de haber convivido con
ellos.

Ejercicio SPSS

Para este ejercicio se retomarán los datos del Instituto Nacional Indigenista.
Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del
mouse.

Pruebas de la estadística
no paramétrica 103
Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor
en Nonparametric tests, se da clic y aparece otro menú, se coloca el cursor en 2 Related
Samples y se da clic.

Paso 3. Al hacer clic en 2 Related Samples, se abre un menú que contiene las
variables de estudio. En este menú se da clic en el cuadro de Wilcoxon.

Sofía Rivera Aragón


104 Mirna García Méndez
Paso 4. Se coloca el cursor en la variable antes y se da clic en el icono que está
entre las variables de estudio y Test Pair(s) List, antes aparece en variable 1, se sigue el
mismo procedimiento con la variable después e igual aparece en variable 2.

Paso 5. Se da clic en el icono que está entre las variables de estudio y Test
Pair(s) List, las variables antes después aparecen en Test Pair(s) List y se eliminan de
variable 1 y variable 2.

Pruebas de la estadística
no paramétrica 105
Se da clic en el icono de OK y se muestran los valores de la prueba t de
Wilcoxon en tablas.

RANKS

N Mean-Rank Sum of Ranks

Despues-Antes Negative Ranks 7a 5.00 35.00


Positive Ranks 2 b 5.00 10.00
Ties 0C
Total 9
a Después < antes.
bDespués > antes.
c Antes = despues.

TEST STATISTICSb

Después-Antes

Z -1.481a

Asymp. Sig.(2-tailed) .139

Based on positive ranks.


a

Wilcoxon Signed Ranks Test.


b

Interpretación de resultados

De acuerdo con los resultados, no se encontraron diferencias significativas


en la actitud hacia la discriminación de los indígenas antes y después de haber
convivido con ellos en sus comunidades.

Pruebas para muestras independientes

Los métodos no paramétricos de análisis de varianza dependen del ordenamiento


de rangos. Las pruebas empleadas en este rubro son: U de Mann Whitney y
análisis de varianza en una dirección por rangos de Krus-Kal-Wallis (Kerlinger y
Lee, 2001).

Sofía Rivera Aragón


106 Mirna García Méndez
U de Mann Whitney (U)

La prueba U de Mann Whitney se aplica en muestras aleatorias extraídas


independientemente (N I y N 2 ) cuyos tamaños pueden ser diferentes. En esta
prueba las puntuaciones de la distribución de ambas muestras se ordenan por
rangos de acuerdo con valores crecientes en magnitud. De esta manera, a la
puntuación de ambas distribuciones con menor puntaje se le asigna el rango 1, la
subsiguiente, el rango 2, y así sucesivamente. Cuando una puntuación aparece
en ambas distribuciones, se promedian y el resultado se asigna en los dos casos
(Downie y Heath, 1973).
Su fórmula es:

donde:
N1 = muestra 1.
N2 = muestra 2.
∑ R1 = suma de rangos muestra 1.
∑ R2= suma de rangos muestra 2.

Reglas para su empleo

• En mediciones ordinales.
• En muestras independientes cuyos tamaños sean iguales o diferentes.
• En datos expresados por rangos.
• La fórmula aplica para N2 > 9 personas.

Procedimiento

1. Plantear las hipótesis.


2. Determinar la probabilidad.

Pruebas de la estadística
no paramétrica 107
3. Ordenar las respuestas de las muestras N1 y N2 de menor a mayor.
4. Obtener los rangos de cada respuesta, dándole el rango menor 1 a la
respuesta más pequeña, el 2 a la siguiente y así sucesivamente. Cuando se
repiten dos respuestas en ambas muestras, éstas se suman y se dividen entre
dos, el resultado de esta operación es el rango para ambas respuestas. Por
ejemplo, el número 11 se repite en ambos grupos en el desarrollo de la
fórmula (paso 2), les corresponde los rangos 7 y 8, entonces, se suman 7 +
8 = 1 5 , este resultado se divide entre dos, que se refiere a los dos rangos, el
resultado 7.5 es para los dos valores de 11.
5. Desarrollar la fórmula.
6. Plantear la regla de decisión.

Ejercicio

Se realizó un estudio con la finalidad de identificar los efectos de


reforzamiento positivo como parte de una terapia de aprendizaje para
problemas de dislexia en niños de cuatro a seis años de edad. Se tuvieron dos
muestras, una con ocho niños (con reforzamiento) y la otra con 10 niños (sin
reforzamiento) se registró la frecuencia de respuestas correctas de un total de 20
palabras presentadas en ambos grupos.
Paso 1. Hipótesis.

Ho. El aprendizaje de los niños con problemas de dislexia, es el mismo con o


sin reforzamiento positivo.
H1. El reforzamiento positivo favorece el aprendizaje de los niños con
problemas de dislexia.

Paso 2. Nivel de significancia a emplear p = .05.


Pasos 3 y 4. se ordenan las respuestas de menor a mayor y se obtienen los
rangos en cada N.

Sofía Rivera Aragón


108 Mirna García Méndez
Respuestas R1 Respuestas R2
correctas N1 correctas N2

15 13.5 8 4
18 17 6 2
19 18 13 10
16 15 9 5
14 11.5 7 3
17 16 15 13.5
11 7.5 12 9
10 6 11 7.5
5 1
14 11.5
N1 = 8 ∑R 1 =104.5 N 2 = 10 ∑R 2 = 66.5
Paso 5. Desarrollo de la fórmula.

Pruebas de la estadística
no paramétrlca 109
Prueba de comprobación:

N I N 2 = (8)(10) = 80

U1 U2 = (11.5)(68.5) = 80

Paso 6. Regla de decisión:

U ≤ Ut  se acepta H1
11.5 ≤ 13  se acepta H1

Para encontrar el valor en tablas, de acuerdo con Runyon y Haber (1987) se


busca en la parte vertical de tablas N1 (el total de personas en la muestra 1) y en
la parte horizontal N2 (el total de personas en la muestra 2).
A manera de ejemplo, se presenta un fragmento de la tabla de valores
críticos de U de Mann-Whitney (véase tabla C del apéndice) retomados de
Downie y Heath (1970) al nivel de significancia .01.

n1 n2 10 11 12 13 14 15 16 17 18 19 20
9
1 0 0 0 0 0 0 1 1
2 2 2 3 3 4 4 4 5
3 1 1 1 2 5 6 7 7 8 9 9 10
4 3 3 4 5 9 10 11 12 13 14 15 16
5 5 ó 7 8 12 13 15 16 18 19 20 22
6 7 8 9 11 16 17 19 21 23 24 26 28
7 9 77 12 14 20 22 24 26 28 30 32 34
8 11 13 15 17 23 26 28 31 33 36 38 40

Interpretación de resultados

Se observaron diferencias significativas U = 11.5, p = .01 entre los niños que


tuvieron reforzamiento positivo durante la terapia de aprendizaje y los niños
que no lo tuvieron, lo que sugiere un mejor aprendizaje en los niños con
reforzamiento positivo.

Sofía Rivera Aragón


110 Mirna García Méndez
Ejercicio SPSS

El paso 1 contiene la base de datos con las variables a manipular. La variable grupo
con/sin, se refiere a los dos grupos de estudio (1 = con reforzamiento, 2 = sin
reforzamiento), reí a re20, son las respuestas a cada una de las 20 palabras (1 =
respuesta correcta y 2 = respuesta incorrecta).

Paso 2. Para obtener la frecuencia de respuestas correctas es necesario


crear una nueva variable, para ello se da clic en transform y aparece un menú
en el que se da clic en count y aparece un menú.
Paso 3. En el menú de count, en Target Variable, se escribe el nombre de
la nueva variable, en este caso será rescorre. En Target Label se escribe
el nombre completo de la variable: respuesta correcta. Ensegui-

Pruebas de la estadística
no paramétrica 111
Paso 2

da se marcan con el cursor las 20 respuestas ( r e í . . ,re20) que están debajo del
cuadro de Target Label, se da clic en el icono que se encuentra entre r e 1 . . , re20 y
Variables, entonces las 20 respuestas aparecen en el cuadro de Variables que ahora se
denomina Numeric Variables.

Paso 3

Sofía Rivera Aragón


112 Mirna García Méndez
Paso 4. Una vez que se tienen las Numeric Variables, se presiona el icono Define
Values y se muestra el siguiente menú, en el que se escribe en Values, el número 1, se
da clic en Add y el número 1 se pasa a Values to Count, posteriormente se presiona el
icono de Continue y se muestra el menú del paso 3 en el que se presiona OK.

Paso 5. Al presionar if se muestra un menú que tiene marcado include cases, se da


clic en Continue.

Pruebas de la estadística
no paramétrica 113
Paso 6. Cuando se da clic en Continue se muestra nuevamente el menú del paso 3
en el que se da clic en OK y aparece la base de datos con la nueva variable rescorre
que contiene las frecuencias de respuestas correctas por niño. Para fines prácticos,
sólo se incluirá parte de la información de la base de datos.

Paso 7. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en


Nonparametric tests, se da clic y aparece otro menú, se coloca el cursor en 2 independent
sample y se da clic.

Sofía Rivera Aragón


114 Mirna García Méndez
Paso 8. Al hacer clic en 2 Independent Samples, se abre un menú que contiene las
variables de estudio y se marca Mann-Whitney.

Paso 9. La variable rescorre se marca con el cursor, se da clic en el icono que está
entre las variables de estudio y Test Variable List, lo que resulta en que rescorre
aparecerá en el cuadro de Test Variable List. La variable grupo con/sin sigue el mismo
procedimiento, sólo que se da clic en el icono que está entre las variables de
estudio y Grouping Variable mostrándose Grupo ?? en el cuadro de Grouping Variable.
Se da clic en Define groups.

Pruebas de la estadística
no para métrica 115
Paso 10. Después de dar clic en Define groups aparece una ventana en la que se
pone el número 1 en group 1, y el número 2 en group 2. Esto se hace así porque la
variable grupo con/sin que se muestra en los pasos 1, 2 y 3 tiene dos niveles: 1 (con
reforzamiento) y 2 (sin reforzamiento).

Posteriormente se da clic en continue y reaparece el cuadro del paso 4,


sustituidas las interrogaciones de Grouping Variable por los números 1 y 2, se da clic
en el icono de OK y se muestran los resultados de la prueba U de Mann Whitney.

RANKS CORRECTA

Grupo con/sin N Mean-Rank Sum of Ranks

Respuesta correcta 8 13.06 1 04.50


correcta
control 10 6.65 66.50
Total 18

Sofía Rivera Aragón


116 Mirna García Méndez
TEST STATISTICSb

Respuesta
correcta

Mann-Whitney U 11.5000

Wilcoxon W 66.500
Z -2.536
Asymp.Sig (2-tailed) .011
Exact Sig (2*(1 -tailed
Sig.)) .009a
aNot corrected for ties.
bGrouping variable: grupo control/experimental.

Estos resultados indican diferencias significativas entre el grupo con re-


forzamiento ∑ R1 = 104.5, X = 13.06 y el grupo sin reforzamiento ∑ R2 = 66.50, X =
6.65, lo que sugiere que el reforzamiento positivo favorece el aprendizaje en los
niños con problemas de dislexia p = .009.

Análisis de varianza en una dirección


por rangos de KrusKal-Wallis (H)

El análisis de varianza en una dirección de KrusKal-Wallis es una alternativa no


paramétrica al análisis de varianza (razón F) utilizada para comparar varias
muestras independientes (Levin y Levin, 2002).
Cuando la única forma factible de medición es la ordinal o el rango, la
opción es emplear la prueba de KrusKal-Wallis (Kerlinger y Lee, 2001). Su
fórmula es:

donde:
N = el número total de casos.

Pruebas de la estadística
no paramétrica 117
n = el número de casos en una muestra dada.
∑ R1 = la suma de los rangos para una muestra dada.
12, 1 y 3 son constantes.

Reglas para su empleo

• En mediciones ordinales.
• En comparaciones de tres o más muestras independientes.

Procedimiento

1. Plantear las hipótesis estadísticas:

Ho: Ml = M2 = M3

HI: M1 ≠ M2 = M3

2. Definir el nivel de probabilidad alfa (α )( α = 95 o 99%).


3. Ordenar las calificaciones de menor a mayor y obtener los rangos de la
misma manera que para la prueba U de Mann Whitney.
4. Sumar los rangos.
5. Aplicar la fórmula.
6. Plantear la regla de decisión.

Ejemplo

La literatura plantea que el locus de control interno mejora el aprendizaje.


Para confirmar este planteamiento se aplicó la escala de locus de control De la
Rosa (1986) a 14 personas distribuidas en tres grupos: niños, adolescentes y
adultos. El investigador plantea que a mayor edad, las personas tienen un locus
de control preferentemente externo debido a los efectos de la socialización. Así,
a mayor calificación, mayor locus de control externo, y a menor calificación,
mayor locus de control interno.

Sofía Rivera Aragón


118 Mirna García Méndez
Paso 1. Hipótesis.

Ho. No existen diferencias en el locus de control a partir de la edad de las


personas.
H1. Existen diferencias en el locus de control a partir de la edad de las
personas.

Paso 2. Nivel de significancia p =.05.


Pasos 3 y 4.

Calificaciones R Calificaciones R Calificaciones R


niños adolescentes adultos

100 10 90 9 70 6

150 13 85 8 60 4
160 14 75 7 50 3
120 11 65 5 40 2
130 12 25 1
N1= 5 ∑ R1 =60 N2= 4 ∑ R2=29 N3= 5 ∑ R3 =16

Paso 5. Aplicación de la fórmula.

Pruebas de la estadística
no paramétrica 119
Paso 6. Regla de decisión.

H ≥ Ht

11.08 ≥ 7.82

Para que los resultados sean significativos, la H tiene que ser igual
o mayor que el valor de Ht en tablas. En la tabla D del apéndice, se busca en los
renglones, los tamaños de las tres muestras, en este caso son N1 — 5, N2= 4 y N3
= 5. Junto a estos valores se encuentra el valor de H y su nivel de significancia
que es de .01.

Interpretación de resultados

Existen diferencias en el locus de control a partir de la edad de las personas


H = 11.08 p = .01, lo que significa que hay mayor locus de control externo en los
niños y mayor locus de control interno en los adultos.

Ejercido SPSS

Paso 1. Una vez capturada la información en la base de datos, es necesario


obtener los rangos de calificaciones. Para obtener estos rangos, se coloca el
cursor en Transform, se da clic y aparece un menú en el que se da clic en Rank
Cases.
Es importante aclarar que la variable edad fue creada para incluir la
información concerniente a las tres muestras. Sus valores son: niños = 1,
adolescentes = 2 y adultos = 3.
Paso 2. Al hacer clic en Rank Cases se muestra el menú en el que se
encuentran las variables.

Sofía Rivera Aragón


120 Mirna García Méndez
Paso 1

Paso 2

Pruebas de la estadística
no paramétrica 121
Paso 3. Se coloca el cursor en califica, se da clic en el icono ubicado entre los
cuadros de las variables y Variable(s), entonces califica aparece en Variable(s).
El círculo de Smallest value debe estar marcado al igual que el cuadro de Display
summary tables, de no ser así se marcan con el cursor, posteriormente se da clic en
Rank Types.

Paso 4. Al hacer clic en Rank Types, surge un menú en el que se da clic en el


cuadro de Rank y en Continue.

Sofía Rivera Aragón


122 Mirna García Méndez
Paso 5. Después de marcar Rank, en el menú del paso 4 se da clic en Ties y se
muestra un menú en el que se da clic en Mean y en Continue.

Paso 6. Al hacer clic en Continue, reaparece el menú del paso 4 en el que se da


clic en OK. El resultado de esta operación aparece en la base de datos con la nueva
variable rcalific (son los rangos de las calificaciones). En la base de datos se da clic
en Analyze, aparece un menú, se da clic en Non-parametric tests, aparece un menú, se
da clic en K independent samples.

Pruebas de la estadística
no paramétrica 12 3
Paso 7. Al hacer clic en K independent samples, aparece el siguiente menú.

Recuerde que el propósito de esta investigación es saber si el locus de control


se modifica con la edad y con ello el aprendizaje.
Paso 8. Se coloca el cursor en la variable RANK of CALIFICA (rcalific) que se refiere a los
rangos de calificación, se da clic en el icono ubicado entre las variables y Test
Variable List, entonces (rcalific), aparece en Test Variable List. Enseguida se repite el
mismo procedimiento con la variable edad (edad), sólo que ahora se da clic en el
icono que está entre las variables y Grouping variable, aparece en este cuadro edad {??).
Se da clic en Define range.

Sofía Rivera Aragón


124 Mirna García Méndez
Paso 9. Al dar clic en Define range, aparece el siguiente menú. En el cuadro de
Minimum se escribe el número 1, que corresponde a la muestra 1 integrada por
niños. En el cuadro de Maximum se escribe el número 3, que corresponde a la
muestra de adultos. Enseguida se da clic en Continue.

Paso 10. Al hacer clic en Continue reaparece el menú del paso 8 en el que se da
clic en OK mostrándose los resultados en tablas.

RANKS

Edad N Mean-Rank

Rank of califica niños 5 12.00


adolecentes 4 7.25
adultos 5 3.20
Total 14

TEST STATISTICSab

Rank of
califica

Chi-Square 11.083
df 2
Asymp. Sig. .004
aKruskal Wallis Test.
bGrouping Variable: edad.

Pruebas de la estadística
no para métrica 125
La interpretación de estos resultados es igual a la presentada en el ejercicio
de la fórmula desarrollada, sólo que aquí, la p = .004 lo que se relaciona con la
exactitud de las operaciones realizadas por el SPSS. Es conveniente destacar que
el valor de la-Chi es el mismo reportado en ambos ejercicios.

Chi cuadrada para muestras


independientes X2

La chi cuadrada también se emplea en muestras independientes, una de las


diferencias con las pruebas U de Mann Whitney y análisis de varianza en una
dirección por rangos de KrusKal-Wallis, es que no emplea rangos. En este rubro,
la chi cuadrada se emplea para determinar diferencias significativas entre dos
grupos, es el caso de la X2 por homgeneidad.

Ejercicio. X2 por homogeneidad

Este ejemplo se sustenta en una investigación de Romero y Rivera (2004) que


indagaron sobre los elementos que motivan a hombres y mujeres a ser infieles,
contenidos en cinco categorías: motivos emocionales, motivos circunstanciales,
motivos instrumentales, motivos de personalidad y motivos sexuales. La
muestra estuvo constituida por 454 personas, 181 hombres y 273 mujeres, sus
respuestas observadas se presentan en la tabla 22.
Paso 1

Ho. Los hombres y las mujeres consideran que los motivos emocionales,
circunstanciales, instrumentales, de personalidad y sexuales son elementos
que favorecen de igual forma la infidelidad.
H1. Existen diferencias entre hombres y mujeres con relación a los motivos
emocionales, circunstanciales, instrumentales, de personalidad y sexuales
que favorecen la infidelidad.

Sofía Rivera Aragón


126 Mirna García Méndez
Paso 2. La probabilidad que se empleará es p = .05.
Paso 3. Distribución de los puntajes.

TABLA 22
FRECUENCIAS OBSERVADAS POR CATEGORÍA EN HOMBRES Y MUJERES

Categorías f0 fo
Hombres mujeres

Motivos emocionales 53 87
Motivos circunstanciales 31 19
Motivos instrumentales 64 125
Motivos de personalidad 23 22
Motivos sexuales 10 20
Total 181 273

Paso 4. Obtención de las frecuencias esperadas (fe) de cada una de las


categorías enunciadas en la tabla 23 sustituyendo la fórmula en motivos
emocionales:
fe = N/k
donde:
W = 140. Total de hombres y mujeres que respondieron en motivos
emocionales (fe)

k = 2 (número de categorías o columnas-, hombres y mujeres)

Motivos circunstanciales

Motivos instrumentales

Pruebas de la estadística
no paramétrlca 127
Motivos de personalidad

Motivos sexuales

Los resultados se presentan en la tabla 23.

TABLA 23
FRECUENCIAS OBSERVADAS Y ESPERADAS POR CATEGORÍA
EN HOMBRES Y MUJERES

Categorías fo fo fo
hombres mujeres

Motivos emocionales 53 87 70

Motivos circunstanciales 31 19 25
Motivos instrumentales 64 125 94.5
Motivos de personalidad 23 22 22.5
Motivos sexuales 10 20 15

Paso 5. Aplicación de la fórmula para cada una de las categorías

Motivos emocionales

Sofía Rivera Aragón


128 Mirna García Méndez
Motivos circunstanciales

Motivos instrumentales

Motivos de personalidad

Pruebas de la estadística
no paramétrica 129
Motivos sexuales

Paso 6. Una vez que se obtuvieron las .X2 de cada categoría, se obtienen los
gl:
gl = k - 1

gl = 2-1

El número 2 se refiere a las dos columnas de la tabla 23 (hombres y


mujeres):
gl= 1

Con el valor de la X2 y los grados de libertad, se busca en tablas su nivel de


significancia. Los resultados se muestran en la tabla 24.

Sofía Rivera Aragón


130 Mirna García Méndez
TABLA 24
ELEMENTOS QUE MOTIVAN LA INFIDELIDAD

Categorías fo fo fo X2 P
hombres mujeres

Motivos emocionales 53 87 70 8.25 .01

Motivos circunstanciales 31 19 25 2.88


Motivos instrumentales 64 125 94.5 19.68 .001
Motivos de personalidad 23 22 22.5 0.02
Motivos sexuales 10 20 15 3.32

Interpretación de resultados

Estos resultados indican que existen diferencias significativas entre hombres


y mujeres, en dos de los elementos que ellos consideran favorecen la infidelidad.
Estas diferencias se encuentran en las categorías de motivos emocionales X2 =
8.25, p = .01 y motivos instrumentales X2 = 19.68, p = .001, que de acuerdo con
las frecuencias observadas, para las mujeres tienen mayor importancia que para
los hombres. Se rechaza la Ho.

Ejercicio SPSS

Con el propósito de conocer el significado del funcionamiento familiar, se aplicó


un cuestionario abierto a 300 hombres y mujeres de la ciudad de México.
Para este ejercicio únicamente se empleará lo concerniente a los significados
de la comunicación y afectividad en el funcionamiento familiar y la información
presentada en la base de datos sólo incluye una pequeña parte de lo recabado de
las 300 personas.
Hipótesis:

Ho. Los hombres y las mujeres le otorgan la misma importancia a la


comunicación y afectividad en el funcionamiento familiar.
H1. Los hombres y las mujeres difieren en cuanto a la importancia que
tienen la comunicación y la afectividad en el funcionamiento familiar.

Pruebas de la estadística
no paramétrica 131
Paso 1. Se coloca el cursor en Analyze, se da clic en el botón izquierdo del mouse.6

Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor


en Descriptive Statistics, se da clic y aparece otro menú, se coloca el cursor en
Crosstabs y se da clic.

6 En lo subsiguiente, al indicar que se da clic, se asumirá que se presiona el botón izquierdo del
mouse y que el cursor está colocado en la operación a realizar.

Sofía Rivera Aragón


13 2 Mirna García Méndez
Paso 3. Al hacer clic en Crosstabs, se abre un menú que contiene las variables de
la investigación.

Paso 4. Las variables comunica y afectiva se marcan con el cursor, se da clic en


el icono que está entre las variables de estudio y Row(s) lo que resulta en que
comunica y afectiva aparecerán en el cuadro de Row(s). Se sigue el mismo
procedimiento para la variable sexo, sólo que se da clic en el icono que está entre las
variables de estudio y Column(s) mostrándose la variable sexo en el cuadro de
Column(s).
Enseguida se pone el cursor en el icono de Statistics y se da clic con el botón
izquierdo del mouse.

Pruebas de la estadística
no paramétrica 133
Paso 5. Al hacer clic en Statistics, aparece un menú, se da clic en Chi-square (X2).

Una vez seleccionada la prueba estadística, se da clic en continue y reaparece el


menú del paso cuatro, se da clic en OK y se muestra el resultado de la prueba chi
cuadrada en tablas. La primera incluye la distribución de los sujetos por sexo y el
número de frecuencias obtenida en la variable comunicación.7

CROSSTAB

Count
comunicación Sexo Total
masculino femenino

Ausente 34 34 68
Presente 110 122 232
Total 144 156 300

La segunda tabla muestra los resultados de la chi cuadrada, los que indican el
valor de la prueba y su nivel de significancia. Estos datos deberán ser
interpretados por el investigador con base en las hipótesis planteadas.
7Con fines didácticos se muestran los resultados de la prueba chi cuadrada, tal como los

reporta el SPSS; sin embargo, nunca se presentan así en un reporte de investigación.

Sofía Rivera Aragón


134 Mirna García Méndez
CHI-SQUARE TESTS

Value df Asymp. Sig. Exact sig. Exact sig.


(2-sided) (2-sided) (1sided)

Pearson Chi-Square .141b 1 .707


Continuity Correction 0 .056 1 .812
Likelihood Ratio .141 1 .707
Fisher's Exact Test .783 406
Linear-by-Linear
Association .140 1 .708
N of Valid Cases 300
a Computed only for a 2x2 table

0 cells (.0%) have expected count less than 5. The minimum expected count is 32.64.
b

Las siguientes dos tablas presentan lo concerniente a las variables de


afectividad y sexo.

CROSSTAB

Count
Afectividad Sexo Total
Masculino Femenino

Ausente 94 76 170
Presente 50 80 130
Total 144 156 300

CHI-SQUARE TESTS

Value df Asymp.Sig. Exact Sig. Exasig.


(2-sided) (2-sided) (1sided)

Pearson Chi-Square 8.362b 1 .004


Countinity Correction0 7.702 1 .006
Likelihood Ratio 8.415 1 .004
Fisher's Exact Test .005 .003
Linear-by-Linear
Association 8.334 1 .004
N of Valid Cases 300

a Computed only for a 2x2 table.


b 0 cells (0% have expected count less than 5. The minimum expected count is 62.40.
d 6

Pruebas de la estadística
no paramétrica 135
Una de las formas de presentar la información obtenida en el SPSS, se
muestra en la tabla 25.

TABLA 25

DIFERENCIAS EN LOS SIGNIFICADOS DEL

FUNCIONAMIENTO FAMILIAR POR SEXO

Sexo

Significados Masculino Femenino X2 P

Comunicación 76.4% 78.2% .141 NS


34.7% 51.3% 8.362 .004
Afectiva

Interpretación de los resultados

Los resultados indican que hombres y mujeres le otorgan el mismo valor a la


comunicación en el funcionamiento familiar. En cuanto a la afectividad, se
encontraron diferencias significativas en ambos sexos, X2 = 8.362, p = .004, lo que
sugiere que para las mujeres tiene mayor importancia que para los hombres el
aspecto afectivo en el funcionamiento familiar.
Estadística paramétrica
Características

Las   primeras técnicas inferenciales fueron las paramétricas que hacen


suposiciones a los parámetros de la población que se obtuvieron, es decir, dan
suposiciones acerca de la población de donde se extrajo la muestra. Obtienen
diferencias entre medias.
La estadística paramétrica, hace un buen número de suposiciones acerca de
la naturaleza de la población de la que se obtuvieron los puntajes. Se llama
Paramétrica puesto que los valores de la población son “parámetros”.
Los supuestos son:

a) Distribución normal.
b) Homocedasticidad de varianza.
c) Nivel de medición intervalar.
d) Selección y asignación aleatoria.

Las pruebas paramétricas fijan su atención en la diferencia entre las medias


de dos o más conjuntos de puntajes. Esta se interesa en dos cosas:

a) Estimación de parámetros.
b) Pruebas de hipótesis.

139
Pruebas paramétricas.
Prueba de coeficiente de correlación de
producto-momento de Pearson

Introducción

En la vida diaria hemos escuchado muchas cosas, que aunque no han sido
comprobadas científicamente, suceden en forma imprevista, por ejemplo, se dice
"que a mayor velocidad de un carro, menor consumo de gasolina"; o que si "un
adolescente tiene los pies grandes es porque va a ser muy alto", también hemos
visto que las personas satisfechas en su relación de pareja son más
comunicativas. Al hacer esta serie de afirmaciones sin un fundamento se expresa
la suposición de que existe alguna correlación entre las variables.
La correlación indica o representa la relación entre dos variables. De entre
los ejemplos planteados aquí, el último plantea como variables, a la satisfacción
con la relación y la comunicación. Si quisiéramos comprobar la relación
existente entre estas dos variables tomaríamos en forma aleatoria a una muestra
de personas que actualmente tuvieran una relación de pareja. Posteriormente les
preguntaríamos ¿qué tan satisfechos se encuentran con su relación? (en una
escala del 1 al 10) y ¿qué tanto se comunican con su pareja? (en una escala del 1
al 10). Si encontramos que puntajes altos en satisfacción se relacionan con
puntajes altos en comunicación, podemos decir que la observación fue acertada.
Si nosotros podemos hablar de que existe una relación entre estas variables,
por ende podemos predecir una a partir de otra. Esto es, se puede decir que las
personas con un valor de 10 en satisfacción es más probable que tengan un valor
de 10 en comunicación.

Definición

Este coeficiente como su nombre lo indica nos da un índice (valor) que habla del
nivel de relación que tienen dos variables.

Sofía Rivera Aragón


140
Mirna García Méndez
Para representar este coeficiente se usa la letra "r".
El coeficiente de correlación producto-momento de Peargon tiene varios
usos:
Conocer el grado de relación que existe entre dos variables o atributos. Por ejemplo
cuando hablamos de la relación entre el grado de violencia y el grado de
satisfacción marital.
Indica la dirección de la asociación. Es decir, a través del signo que obtiene el
valor de la correlación se puede decir si a mayor violencia, menor satisfacción
marital o viceversa a mayor violencia mayor satisfacción marital.
Obtener la significancia de la asociación. En este caso nos menciona además si lo
que obtuvimos cae en la zona de aceptación o en la zona de rechazo. Es decir si
nuestra hipótesis se comprueba o no.

Requisitos

Como se sabe, este coeficiente al pertenecer a la estadística inferencial


paramétrica presenta varios requisitos los cuales ya fueron descritos an-
teriormente, entre ellos:

a) Que los puntajes sean lineales (es decir se agrupen en una recta). Ya sea
en forma directamente proporcional o inversamente proporcional.

b) Que haya homocedasticidad de varianza (se agrupan en una elipse). Es


decir que los datos se distribuyan alrededor de esa línea recta.

Estadística paramétrica 141


c) Que las variables tengan un nivel de medición intervalar. Por ejemplo:
edad, escolaridad en años, temperatura.

d) Que haya una selección y asignación aleatoria de los participantes.

Interpretación

El coeficiente de correlación producto-momento de Pearson se interpreta de


acuerdo a tres puntos:

1. Fuerza.
2. Dirección.
3. Significancia.

i. Fuerza: Esta indica el grado de relación que hay entre dos variables.
De acuerdo con el valor obtenido, que sólo puede ir de 0 a 1 pasando por
valores positivos y negativos (-1 a +1). La fuerza la da el valor de la correlación y
este puede ser interpretado de la siguiente forma:

Valor Interpretación de la correlación

0 a .30 Baja
.31 a .79 Media
.90 a 1 Alta

Siempre el cero indica ausencia de relación y el 1 una correlación perfecta.

Sofía Rivera Aragón


142 Mirna García Méndez
2. Dirección: Indica hacia qué lado de la curva se encuentra nuestra
correlación. La dirección la da el signo. Los signos se interpretan de la siguiente
forma:

Signo Interpretación

+ (positivo) Directamente Proporcional

- (negativo) Inversamente Proporcional

3. Significancia: Finalmente este rubro indica cuál es la probabilidad de


aceptar o rechazar una hipótesis alterna. De acuerdo a ello se debe plantear una
regla de decisión:

Si rc ≥ r0 entonces la correlación es significativa.

Donde rc es el valor obtenido en la fórmula y r0 es el valor obtenido en una


tabla de significancia de los valores de r.
Antes de conocer el grado o fuerza de la relación debemos saber cómo se
comportan las puntuaciones. Para ver ese tipo de distribución se usa un
dispersigrama.
Un dispersigrama es una representación gráfica de la forma en que se
distribuyen los datos. Siempre una de las variables se grafica en el eje de las "y"
(ordenadas) y otra en el eje de las "x" (abcisas). Siempre se coloca la variable
predictora en el eje de las "x" y la predicha en el eje de las "y". O en su defecto la
variable dependiente en el eje de las "x" y la variable independiente en el eje de
las “y” (véase gráfica 18).
Ejemplo de dispersigrama:

Variables (ambas escalas fueron evaluadas con puntuaciones del 1 al 10):


Satisfacción con la relación

Comunicación marital

Estadística paramétrica 143


Los puntajes obtenidos son:

Puntaje de satisfacción Puntaje de comunicación

10 9
8 10
8 9
7 6
10 9
9 8
6 7
5 4
4 4
8 7

El dispersigrama quedaría como lo muestra la gráfica 18, recordando que


no importa cuál de las variables queda en el eje de las "y" y cuál en el de las "x",
ya que la correlación no implica causalidad.

GRÁFICA 18
DISPERSIGRAMA DE COMUNICACIÓN Y
SATISFACCIÓN

Fórmula

La fórmula que se aplica para obtener este coeficiente es:

Sofía Rivera Aragón


144 Mirna García Méndez
donde:
r = Coeficiente de Pearson.
N = Número total de pares en x y y.
x = Puntaje crudo de la variable x.
y = Puntaje crudo de la variable y.
XY = Multiplicar el puntaje de x por el de y.

Elevar al cuadrado los puntajes.

= Sumar el producto de x y y.

= Sumar las puntuaciones y elevar la suma al cuadrado.

Regla de decisión para obtener la significancia

Para obtener la significancia, se calculan en primer lugar los grados de libertad.

a) gl = N - 2 N

= Número de pares en x y y.
Se busca en la tabla de valores críticos de r, los grados de libertad y la
probabilidad (α ).

En la tabla E del apéndice se encuentra la r0 (valor de la correlación


observada) que permite rechazar y aceptar las hipótesis estadísticas.
b) Posteriormente se aplica la regla de decisión que es:

Es decir que como la r de la fórmula es más grande que la de las tablas


entonces se acepta la hipótesis alterna.

Estadística paramétrica 145


Ejercicio

Un investigador desea conocer si existe relación entre la puntuación que se


obtuvo en una escala de agresión y la puntuación que se obtuvo en una escala de
frustración en estudiantes universitarios. El investigador plantea que a mayor
agresión, mayor frustración.
Los datos obtenidos se presentan a continuación siguiendo el procedimiento
del coeficiente de correlación producto-momento de Pearson.
Procedimiento:
a) Se establece el nivel de confianza al cual se desea trabajar, por ejemplo en
este estudio se desea obtener un nivel de confianza del 95 por ciento. Por lo tanto
se trabajará con un error del .05.
b) Se plantean las hipótesis derivadas de la investigación, por ejemplo, las
hipótesis con las que se trabajará son de dos colas (sin dirección).

Ho. No existe relación entre la agresión y la frustración en estudiantes


universitarios.
H1. Sí existe relación entre la agresión y la frustración en estudiantes
universitarios.

c) Se obtienen los cuadrados de cada puntuación y se suman (∑ X2 y ∑ y2) y


la suma del producto de las puntuaciones de "x" y "y" (∑ XY)

TABLA DE DATOS OBTENIDOS PARA LA CORRELACIÓN

X Y X2 Y2 xy
Agresión Frustración
12 12 144 144 144
10 8 100 64 80
6 6 36 36 36
16 11 256 121 176
8 10 64 100 80
9 8 81 64 72
12 11 144 121 132
∑x =73 ∑y =66 ∑X s =825 ∑y* = 650 ∑XY =720

Sofía Rivera Aragón


146 Mirna García Méndez
d) Una vez calculadas las diferentes columnas se sustituye en la fórmula de
Pearson:

Por último, se compara con la tabla (valores críticos de r) para ver si la


correlación es significativa, aplicando la regla de decisión. El proceso a seguir,
incluye los pasos que a continuación se detallan.
1. Se calculan los grados de libertad:

gl = 7-2 = 5

Estadística paramétrica 147


En el apéndice, se busca en la tabla E de valores críticos de r, los grados de
libertad y la N.
N = Número de pares en x y y.

2. Se sustituye en la regla de decisión:

rc ≥ ro  H1 se acepta.

.754 ≥ .754  H1 se acepta.


En este caso el valor calculado es igual al de la tabla E del apéndice por lo
tanto se acepta la hipótesis alterna.
H1. Sí existe relación entre la agresión y la frustración en estudiantes
universitarios.
3. Finalmente se interpreta el valor obtenido.
r = .754 es una correlación media, directamente proporcional y significativa.
Es decir a mayor agresión mayor frustración en estudiantes universitarios.

Ejercicio SPSS

Con la finalidad de conocer cómo los factores de la escala de estilos de


negociación y los factores de satisfacción marital se relacionan (Rivera y Díaz-
Loving, 2002) se aplicó el coeficiente de correlación producto-momento de
Pearson.
Se plantearon las siguientes hipótesis:

H0. No existe relación entre la satisfacción marital y los estilos de ne-


gociación ante el conflicto en parejas.
H1. Sí existe relación entre la satisfacción marital y los estilos de negociación
ante el conflicto en parejas.

Sofía Rivera Aragón


148 Mirna García Méndez
Posteriormente, una vez capturados los datos se siguieron los pasos que a
continuación se encuentran:
Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del
mouse.8

Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en


Correlate, se da clic y aparece otro menú, se coloca el cursor en Bivariate y se da clic.

8 En lo subsiguiente, al indicar que se da clic, se asumirá que es con el botón izquierdo del mouse y
que el cursor está colocado en la operación a realizar.

Estadístico paramétrica 149


Paso 3. Al hacer clic en Bivariate, se abre un menú que contiene las variables de
la investigación.

Paso 4. Las variables de estilos de negociación y satisfacción se marcan con el


cursor, se da clic en el icono que está entre las variables de estudio y la siguiente
ventana. Se pasan las variables seleccionadas a la ventana vacía para ser
analizadas.

Sofía Rivera Aragón


150 Mirna García Méndez
Una vez seleccionada la prueba estadística, se da clic en OK y se muestra el
resultado de la correlación de Pearson.9
La tabla 26 muestra los resultados de la correlación de Pearson que son los que
indican el valor de la prueba, el nivel de significancia y el número de participantes
considerados para el análisis. Estos datos deberán ser interpretados por el
investigador, y de esta forma, responder a las preguntas e hipótesis de
investigación.

TABLA 26

RESULTADOS DE SPSS DE LA CORRELACIÓN DE PEARSON

Correlations
Acuerdo Acomoda Conten Evitaci

Satasf Pearson Correlation ,628** ,452** -,245** ,235**


Sig. (2-tailed) ,000 ,000 ,000 ,000
N 291 298 291 291
Satrel Pearson Correlation ,618** ,333** -, 184** ,122*
Sig. (2-tailed) ,000 ,000 ,001 ,033
N 304 310 301 302
Insrel Pearson Correlation -,513** -,178* ,250** -,044
Sig. (2-tailed) ,000 ,002 ,000 ,449
N 300 308 298 301
Incapr Pearson Correlation -,493** -,209** ,302** -,104
Sig. (2-tailed) ,000 ,000 ,000 ,070
N 306 314 304 305
Insfam Pearson Correlation -,258** -.088 ,281** -, 120*
Sig. (2-tailed) ,000 ,121 ,000 ,037
N 302 311 300 302
Satcat Pearson Correlation ,620** ,444** -,208** , 194**
Sig. (2-tailed) ,000 ,000 ,000 ,001
N 291 295 289 289
Sinapre Pearson Correlation ,582** ,322** -,201** ,179**
Sig. (2-tailed) ,000 ,000 ,000 ,002
N 304 312 302 303
Inscre Pearson Correlation -,082 ,075 ,187** -,006
Sig. (2-tailed) ,175 ,208 ,002 ,925
N 275 280 273 271
Inaf Pearson Correlation -,425** -, 1 23* ,257** -,141*
Sig. (2-tailed) ,000 ,032 ,000 ,016
N 296 304 295 294
Sorfun Pearson Correlation ,625** ,377** -, 145* ,150*
Sig. (2-tailed) ,000 ,000 ,013 ,010
N 296 303 294 295
Sfisex Pearson Correlation ,582** ,331** -, 166* ,138*
Sig. (2-tailed) ,000 ,000 ,004 ,017
N 300 306 297 299
* Correlation is significant at the 0.05 level (2-tailed).

** Correlation is significant at the 0.01 level (2-tailed).

9 Con fines didácticos se muestran los resultados de la correlación de Pearson, tal como los

reporta el SPSS, sin embargo, nunca se presentan así en un reporte de investigación.

Estadística paramétrica 151


Reporte de Investigación de la correlación
producto-momento de Pearson

Una de las formas de presentar la información obtenida en el SPSS, en un


reporte de investigación basado en el estudio sobre estilos o formas de
negociar un conflicto en la pareja y la satisfacción que perciben en su relación
(Rivera, Díaz-Loving, Cruz y Vidal, 2004) es presentada a continuación:
En la tabla 27 se observa en general para los hombres que estilos positivos
de negociar el conflicto incrementan la satisfacción y que estilos negativos la
decrementan. Así se encuentra que el estilo de acuerdo-colaboración es el que
presenta las correlaciones más altas, seguido del de Acomodación. En ambos
casos se encuentra mayor satisfacción en la relación, en las áreas afectiva, de
comunicación, familia, atracción física, sexual, intimidad, trato hacia los hijos,
organización y funcionamiento, y participación y distribución de las tareas en
el hogar. Al igual que los dos anteriores, la evitación presenta correlaciones
positivas con varios factores de satisfacción, como son: afecto, comunicación-
apoyo, atracción física, intimidad, organización y funcionamiento, y
satisfacción sexual. Finalmente en cuanto al estilo competitivo, se observa que
entre más alto es el puntaje en éste más insatisfacción percibe el hombre en
todas las áreas (véase tabla 27).

t de student

Introducción

Comúnmente hacemos generalizaciones con respecto a diferentes grupos


de la población. Por ejemplo, se dice que las mujeres son más emocionales
que los hombres, o que los hombres son más fuertes físicamente que las mu-
jeres. También se habla de que el idioma español es más difícil que otros
idiomas. Los carros rojos sufren más accidentes que los carros blancos. Los
hombres tienen un pensamiento más abstracto que las mujeres. Como se
ve podemos hacer un sinfín de comparaciones y de conjeturas. Así estamos

Sofía Rivera Aragón


152 Mirna García Méndez
afirmando que la media de una muestra es más grande, más fuerte y/o más
difícil que la otra. No obstante debemos comprobar si realmente se dan estas
diferencias. Este apartado se dedicará a conocer una de las pruebas que puede
examinar si las diferencias propuestas son significativas.
La distribución t es también llamada la teoría estadística de la muestra
pequeña (Young y Veldman, 1983). En la distribución t se estima la media
verdadera Ẍ a través de la media de la muestra (μ ).

Definición

La t de student es una prueba de hipótesis que observa las diferencias entre dos
grupos.
Esta prueba tiene varios usos:

• Encontrar diferencias entre las medias de dos grupos.


• Obtener la discriminación de reactivos por grupos extremos.

En este apartado sólo hablaremos del primer uso.

Requisitos

La prueba t tiene varios requisitos o supuestos, entre ellos:


a) Que los puntajes se distribuyan normalmente.

b) Que haya homocedasticidad de varianza. Es decir que la distancia entre la media y


un puntaje crudo sea muy similar de una muestra a otra.

Sofía Rivera Aragón


154 Mirna García Méndez
c) Que las variables tengan un nivel de medición intervalar. Por ejemplo:
puntaje de inteligencia, calificación obtenida en la escala de satisfacción laboral.
d) Que haya una selección y asignación aleatoria de los participantes.

Clasificación de la prueba t

a) Muestras independientes, se refiere a la comparación entre dos muestras


tomadas de la misma población o de poblaciones diferentes. Por ejemplo:
1. Muestras independientes de la misma población: hombres y mujeres de
una universidad pública.
2. Muestras independientes de poblaciones diferentes: hombres y mujeres
de una universidad pública y una universidad privada.
b) Muestras correlacionadas, se refiere a la comparación de una misma
muestra durante dos mediciones, dos aplicaciones, etcétera.

Estadística paramétrica 155


Por ejemplo:
Medir a una muestra antes y después de un curso sobre matemáticas para
ver si se incrementa o decrementa el rendimiento escolar obtenido en la materia.

Cálculo de t para muestras


independientes con N Iguales

Esta prueba t se aplica cuando se tienen dos muestras diferentes tomadas de la


misma población o de poblaciones diferentes, pero en ambas muestras el tamaño
es igual. Por ejemplo:

Variable dependiente: Locus de Control.


Variable de clasificación: Sexo.

En este caso, cada una de las categorías de sexo debe tener el mismo número
de participantes; por ejemplo: 100 hombres y 100 mujeres.

Para calcular esta prueba se aplica el siguiente procedimiento:

a) Plantear las hipótesis estadísticas.


b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis.

c) Calcular las medias para cada grupo

La fórmula para calcular la media para cada grupo es:

donde:
∑X = Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo.
N = Número de participantes por grupo.

Sofía Rivera Aragón


156 Mirna García Méndez
d) Calcular la desviación estándar de cada muestra (σ 1 y σ 2)
La fórmula para calcular la desviación estándar para cada grupo es:

donde:

Sumar los cuadrados de las puntuaciones de cada una de las

Elevar la media de cada grupo al cuadrado.


N = Número de participantes por grupo.

e)Encontrar el error estándar de cada media


La fórmula para el cálculo del error estándar para cada grupo es:

donde:
σ = Desviación estándar para cada grupo,

N y 1= Constantes.

f) Encontrar el error estándar de la diferencia (σdiff ).

donde:

σx 1 = Error estándar de la media para cada grupo,

g) Sustituir en la fórmula de t.

Estadística paramétrica 157


h) Para obtener la significancia, se calculan en primer lugar los grados de
libertad.
4. gl = NI + N2 - 2

donde
NI = Número de participantes en el grupo 1.
N2 = Número de participantes en el grupo 2.
1 = Constante.

5. Se busca en la tabla de valores críticos de t los grados de libertad y la


probabilidad (α ).

En la tabla F del apéndice, se encuentra la tQ (valor de la t de student


observada) que permite rechazar y aceptar las hipótesis estadísticas.

3. Posteriormente se aplica la regla de decisión que es:

tc ≥ t0  H1 se acepta.
Es decir que como la t de la fórmula es más grande que la de la tabla F
entonces se acepta la hipótesis alterna.

Ejercicio

Un investigador desea conocer si el grado de autoritarismo difiere entre


maestros de escuelas particulares incorporadas y escuelas públicas. Para ello
aplica la escala de Vigano (1986) y encuentra los siguientes datos:

Sofía Rivera Aragón


158
Mirna García Méndez
Maestros de escuela particular Maestros de escuela pública

X1 X1 2 X2 X22

140 19,600 90 8,100

110 12,100 95 9,025


128 16,384 65 4,225
110 12,100 70 4,900
100 10,000 45 2,025
95 9,025 35 1,225
44 1,936 22 484
36 1,296 60 360
21 441 18 324
∑X1 = 784 ∑X12 =102482 ∑x2 = 500 ∑x22= 30668

Para calcular los datos del estudio con la t de student se siguen estos pasos:
a) Se plantean las hipótesis estadísticas:

Ho. No existen diferencias estadísticamente significativas en el grado de


autoritarismo entre maestros de escuelas particulares y maestros de escuelas
públicas.
H1. Sí existen diferencias estadísticamente significativas en el grado de
autoritarismo entre maestros de escuelas particulares y maestros de escuelas
públicas.

b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis:


α = .05.

Calcular las medias para cada grupo

c) Calcular la desviación estándar de cada muestra (σ1 y σ2):

Estadística paramétrica 159


d) Encontrar el error estándar de cada media (σx 1 y σx 2):

e) Encontrar el error estándar de la diferencia (σdiff):

f) Sustituir en la fórmula de t:

g) Para obtener la significancia, se calculan en primer lugar los grados de


libertad.

1. gl = 9 + 9 - 2 = 16

2. Se busca en la tabla F de valores críticos de t los grados de libertad y la


probabilidad (a).

En la tabla F del apéndice, se encuentra la t0 (valor de la t de student


observada) que permite rechazar o aceptar las hipótesis estadísticas.
3. Posteriormente se aplica la regla de decisión que es:

tc ≥ ta H1 se acepta.
1.17 ≥ 2.12  H1 se rechaza.

Sofía Rivera Aragón


160 Mirna García Méndez
Es decir que como la t de la fórmula es más pequeña que la de la tabla F
entonces se acepta la hipótesis nula. Es decir, no existen diferencias
estadísticamente significativas en el grado de autoritarismo entre maestros de
escuelas particulares incorporadas y escuelas públicas.

Cálculo de t para muestras


independientes con N desiguales

Esta prueba t se aplica cuando se tienen dos muestras diferentes tomadas de la


misma población o de poblaciones diferentes, pero cada muestra tiene un
tamaño diferente. Es decir el número de participantes del grupo 1 difiere del
número de participantes del grupo 2 (N1 ≠ N2 ). Por ejemplo:

• Variable dependiente: Satisfacción con la vivienda


• Variable de clasificación: Tipo de vivienda. Personas que viven en depar-
tamento y personas que viven en casa.

En este caso cada una de las categorías del tipo de vivienda debe tener un
número diferente de participantes. Por ejemplo, 50 personas que viven en
departamento y 60 personas que viven en casa.
Para calcular esta prueba se aplica un procedimiento similar al de la prueba
t de student para muestras iguales, lo que difiere aquí es que ya no se calcula el
error estándar de la media y cambia la fórmula del error estándar de la
diferencia. El proceso a seguir es:
A) Plantear las hipótesis estadísticas.
b) Plantear la probabilidad a la cual se comprobarán dichas hipótesis.
c) Calcular las medias para cada grupo
La fórmula para calcular la media para cada grupo es:

Estadística paramétrica 161


donde:
∑ X= Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo.
N = Número de participantes por grupo.

d) Calcular la desviación estándar de cada muestra (σ 1 y σ 2).


La fórmula para calcular la desviación estándar para cada grupo es:

donde:

∑ X2 = Sumar los cuadrados de las puntuaciones de cada una de las


calificaciones para cada grupo.
(X)2 = Elevar la media de cada grupo al cuadrado.
N = Número de participantes por grupo.

e)Encontrar el error estándar de la diferencia (σdiff).

donde:
σ 12 = Desviación estándar del grupo 1.
σ 21 = Desviación estándar del grupo 2.
NI = Número de participantes en el grupo 1.
N2 = Número de participantes en el grupo 2.

f) Sustituir en la fórmula de t.

Sofía Rivera Aragón


162
Mirna García Méndez
g) Para obtener la significancia, se calculan en primer lugar los grados de
libertad.

1. gl = N1 + N2 - 2

donde:
NI = Número de participantes en el grupo 1,
N2 = Número de participantes en el grupo 2,
2 = Constante.

2. En el apéndice, se busca en la tabla F de valores críticos de la prueba t de


student los grados de libertad y la probabilidad (α ).

En la tabla F se encuentra la t0 (valor de la t de student observada) que


permite rechazar y aceptar las hipótesis estadísticas.
3. Posteriormente se aplica la regla de decisión que es:

tc ≥ tQ  H1 se acepta.

Es decir que como la t de la fórmula es más grande que la de la tabla F


entonces se acepta la hipótesis alterna.

Ejercicio

Un investigador desea saber si existen diferencias entre un grupo


experimental y un grupo control, los cuales fueron sometidos a una
investigación sobre el grado de altruismo en presencia de una persona con
poder. Los datos obtenidos en la investigación son los siguientes:

Estadística paramétrica 163


Grupo Experimental Grupo Control

X1 X11 X2 X22

115 13,225 95 9,025


120 14,400 65 4,225
180 32,400 45 2,025
100 10,000 75 5,625
110 12,100 85 7,225
140 19,600 37 1,369
155 24,025 46 2,116
167 27,889
191 36,481
∑X1 =1,278 ∑X12 =190,120 ∑X2 = 448 ∑X22 = 31,610

Para calcular los datos del estudio con la t de student para muestras
diferentes se siguen estos pasos:

a) Se plantean las hipótesis estadísticas.

Ho. No existen diferencias estadísticamente significativas en el grado de


altruismo por la presencia o ausencia de una persona con poder. H1. Sí
existen diferencias estadísticamente significativas en el grado de altruismo
por la presencia o ausencia de una persona con poder.

b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis.

α =. 05

c) Calcular las medias para cada grupo

d) Calcular la desviación estándar de cada muestra (σ1 y σ2).

Sofía Rivera Aragón


164 Mirna García Méndez
e) Encontrar el error estándar de la diferencia (σdiff ).

f) Sustituir en la fórmula de t.

g) Para obtener la significancia, se calculan en primer lugar los grados de


libertad.

1. gl = 9 + 7- 2 = 14

4. Se busca en la tabla F de valores críticos de t, del apéndice, los grados


de libertad y la probabilidad (α ).

En la tabla F del apéndice, se encuentra la t0 (valor de la t de student


observada) que permite rechazar o aceptar las hipótesis estadísticas.
3. Posteriormente se aplica la regla de decisión que es:

tc ≥ to  H1 se acepta.
5.43 ≥ 2.14  H1 se acepta.

Es decir que como la t de la fórmula es más grande que la de la tabla


F del apéndice, entonces se acepta la hipótesis alterna. Es decir, exis-
ten diferencias estadísticamente significativas en el nivel de altruismo
entre el grupo control y el grupo experimental. Esto quiere decir que en

Estadística paramétrica 165


presencia de personas con poder, los integrantes del grupo experimental fueron
más altruistas.

Ejercicio SPSS
Con la finalidad de conocer si existen diferencias entre hombres y mujeres en las
historias de amor (Romero, 2003) se aplicó la prueba t para muestras
independientes.
Se plantearon las siguientes hipótesis:

Ho. No existen diferencias estadísticamente significativas en las historias de amor


entre hombres y mujeres.
H1. Sí existen diferencias estadísticamente significativas en las historias de amor
entre hombres y mujeres.

Posteriormente una vez capturados los datos se siguieron los pasos que a
continuación se encuentran:
Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del
mouse.

Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor


en Compare Means, se da clic y aparece otro menú, se coloca el cursor en Independent-
Samples T-Test y se da clic.

Sofía Rivera Aragón


166 Mirna García Méndez
Paso 3. Al hacer clic en Independent-Sarriples T-Test, se abre un menú que contiene
las variables de la investigación.

Paso 4. Las variables de historias de amor se marcan con el cursor, se da clic en


el icono que está entre las variables de estudio y la siguiente ventana. Se pasan las
variables seleccionadas a la ventana vacía donde se colocan las variables
dependientes, y la variable de clasificación que en este caso es el sexo se le coloca
donde están los grupos.

Estadística paramétrica 167


Una vez definidas las variables, se da clic en OK y se muestra el resultado de
la prueba t de student.10 Las tablas 28 y 29 muestran los resultados de la prueba t
de student que son los que indican el valor de la prueba, el nivel de significancia,
el número de participantes considerados para el análisis, así como los grados de
libertad y el valor de la diferencia entre varian- zas. Estos datos deberán ser
interpretados por el investigador y, de esta forma, responder a las preguntas e
hipótesis de investigación.

Reporte de investigación de la prueba t para


muestras independientes

Una de las formas de presentar la información obtenida en el SPSS, en un reporte


de investigación basado en el estudio sobre la diferencia entre historias de amor
por sexo (Romero, 2003) es presentada a continuación:
A partir de los resultados obtenidos (véase tabla 30) mediante la prueba t de
student (Romero, 2003) se encuentra que en general los hombres presentan
puntajes significativamente mayores que las mujeres en las historias de romance,
sexual, atracción bizarra y sacrificio-dependencia,

10Con fines didácticos se muestran los resultados de la prueba t para muestras relacionadas, tal

como los reporta el SPSS, sin embargo, nunca se presentan así en un reporte de investigación.

Sofía Rivera Aragón


168 Mirna García Méndez
TABLA 28

ESTADÍSTICAS DESCRIPTIVAS DE SPSS DE LA PRUEBA T DE STUDENT

Group statistic
Sexo N Mean Std. Std.
Deviation Error
Mean
Factor 1: Romance Masculino 160 20.26 5,136 .406
Femenino 171 19.15 4,854 .371
Factor 2: Organización Masculino 160 19.97 4,440 .351
Femenino 171 20.99 3,287 .251
Factor 3: Sexual Masculino 160 12.26 3,501 .277
Femenino 171 11.11 3,551 .272
Factor 4: Atracción-misterio Masculino 160 9.39 2,189 .173
Femenino 171 9.48 2,377 .182
Factor 5: Humor Masculino 160 9.68 2,954 .234
Femenino 171 9.39 3,076 .235
Factor 6: Maestro-estudiante Masculino 160 18.08 3,699 .292
Femenino 171 18.04 3.305 .253
Factor 7: Guerra Masculino 160 11.49 4,011 .317
Femenino 171 11.19 3,763 .288
Factor 8: Policía-prófugo Masculino 158 10.06 3,514 .280
Femenino 171 10.25 4,282 .327
Factor 9: Atracción bizarra Masculino 160 8.06 3,133 .248
Femenino 171 7.39 2,633 .201
Facto 10: Control-variedad Masculino 160 12.09 3,310 .262
Femenino 171 11.60 3,365 .257
factor 11: Sacrificio-dependencia Masculino 160 9.99 2,687 .212
Femenino 171 9.25 2,268 .173
Factor 12: Desconfianza mutua masculino 160 6.59 2,167 .171
Femenino 169 6.87 2,159 .166
Factor 13: Jardinería Masculino 159 14.59 3,701 .294
Femenino 169 14.29 3.217 .247

mientras que las mujeres obtienen puntajes significativamente mayores que los
hombres en la historia de organización. En las historias restantes no se
encontraron diferencias significativas. Lo anterior indica que los hombres en sus
relaciones en general se enfocan más en aspectos tales como el cariño, la
conquista, la sexualidad, la práctica variada del erotismo, el misterio y las
características fuera de lo común, así como la dependencia y la necesidad de la
pareja, mientras que las mujeres se centran más en aspectos tales como la
organización, las reglas y las estructuras determinadas para el buen
funcionamiento de la relación.

Estadística paramétrica 169


TABLA 30
DIFERENCIAS POR SEXO EN LAS HISTORIAS DE AMOR

Media por sexo

Historias de amor Hombres Mujeres t P

Romance 20.26 19.15 2.011 .045*


Organización 19.97 20.99 -2.398 .017*
Sexual 12.26 11.11 2.967 .003**
Atracción 9.39 9.48 -.366 .715
Humor 9.68 9.39 .853 .394
Maestro-estudiante 18.08 18.04 .105 .917
Guerra 11.49 11.19 .704 .482
Policía-prófugo 10.06 10.25 -.435 .664
Atracción bizarra 8.06 7.39 2.094 .037*
Control-variedad 12.09 1 1.60 1.354 .177
Sacrificio-dependencia 9.99 9.25 2.699 .007**
Desconfianza 6.59 6.87 -1.157 .248
Jardinería 14.59 14.29 .788 .431

*p ≤ 0.05.
**p ≤ 0.01.

Cálculo de t para muestras relacionadas

Esta prueba se aplica cuando la misma muestra es medida en dos ocasiones o


bajo dos situaciones.
Por ejemplo:

Variable dependiente: Actitud hacia el consumo de alcohol

Variable independiente: Curso sobre los daños que el alcohol causa al


organismo.

En este caso se aplica una escala de actitudes ante el consumo de alcohol


antes y después del curso a la misma muestra.
Para calcular esta prueba se aplica el siguiente procedimiento:

a) Plantear las hipótesis estadísticas.


b) Plantear la probabilidad a la cual se comprobarán dichas hipótesis.

c) Calcular las medias para cada grupo

Estadística paramétrica 171


La fórmula para calcular la media para cada grupo es:

donde:
∑X = Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo,
N = Número de participantes por grupo.

d) Calcular la desviación estándar de la muestra (σ1).


La fórmula para calcular la desviación estándar para cada grupo es:

donde:
∑ D2 = Sumar los cuadrados de las diferencias de cada una de las
calificaciones de la muestra.
(X) 2 = Elevar la media de cada grupo al cuadrado.
N = Número de participantes por grupo.

d) Encontrar el error estándar de la diferencia (σ diff).

donde:

σ = Desviación estándar del grupo.

f) Sustituir en la fórmula de t.

Sofía Rivera Aragón


172 Mirna García Méndez
g) Para obtener la significancia, se calculan en primer lugar los grados de
libertad.
1. gl = N - 1

donde:
N= Número de participantes de la muestra.
1 = Constante.

2. Se busca en la tabla de valores críticos de t los grados de libertad y la


probabilidad (α ).

En la tabla F del apéndice se encuentra la t0 (valor de la t de student


observada) que permite rechazar y aceptar las hipótesis estadísticas.

1. Posteriormente se aplica la regla de decisión que es:

tc ≥ t0  H1 se acepta.
Es decir que como la f de la fórmula es más grande que la de la tabla F
entonces se acepta la hipótesis alterna.

Ejercicio

Un investigador quiere observar si existen diferencias en las actitudes que


asumen los adultos de diferentes clases sociales ante la contaminación ambiental
antes y después de pasar una película sobre los efectos de ésta sobre el
ambiente.
Los datos obtenidos fueron los siguientes:

Estadística paramétrica 173


Antes Después D D2

100 90 10 100
200 60 140 19,600
180 75 105 11,025
90 85 5 25
49 40 9 81
110 65 45 2,025
185 75 110 12,100
170 95 75 5,625
165 85 80 6,400
160 70 90 8,100
∑ = 1,409 ∑ =740 ∑ D2= 65,081

Para obtener el resultado a través de la prueba t para muestras relacionadas


de los datos anteriores se siguen los pasos que a continuación se detallan:
a) Se plantean las hipótesis estadísticas:

Ho. No existen diferencias estadísticamente significativas en la actitud hacia


la contaminación ambiental antes y después de ver la película.
H1. Sí existen diferencias estadísticamente significativas en la actitud hacia
la contaminación ambiental antes y después de ver la película.

b) Plantear la probabilidad a la cual se comprobarán dichas hipótesis.

α =.05

c) Calcular las medias para cada grupo

d) Calcular la desviación estándar de la muestra (σ 1 ).


La fórmula para calcular la desviación estándar para cada grupo es:

Sofía Rivera Aragón


174 Mirna García Méndez
e) Encontrar el error estándar de la diferencia (σ diff).

f) Sustituir en la fórmula de t.

g)Para obtener la significancia, se calculan en primer lugar los grados de


libertad.

1. gl= 1 0 - 1 = 9

2. Se busca en el apéndice en la tabla F de valores críticos de t los grados de


libertad y la probabilidad (α ).

En la tabla F del apéndice se encuentra la t0 (valor de la t de student


observada) que permite rechazar y aceptar las hipótesis estadísticas.
3. Posteriormente se aplica la regla de decisión que es:

4.45 ≥ 2.26  Hi se acepta.

Es decir que como la t de la fórmula es más grande que la de la tabla F


entonces se acepta la hipótesis alterna. Aquí podríamos decir que sí hubo un
cambio en la actitud hacia la contaminación ambiental, ya que después de la
película, la actitud fue más desfavorable (puntajes más bajos).

Estadística paramétrica 175


Ejercicio SPSS

Con la finalidad de conocer si existen diferencias en la actitud hacia el sida antes


y después de una plática sobre el tema en adolescentes (Pavaan, 2004) se aplicó la
prueba t para muestras relacionadas.
Se plantearon las siguientes hipótesis:

Ho. No existen diferencias estadísticamente significativas en los cono-


cimientos y actitudes hacia el sida en adolescentes, antes y después de recibir una
plática sobre el tema.
H1. Sí existen diferencias estadísticamente significativas en los conocimientos
y actitudes hacia el sida en adolescentes, antes y después de recibir una plática
sobre el tema.

Posteriormente una vez capturados los datos se siguieron los pasos que a
continuación se encuentran:
Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del
mouse.

Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor


en Compare Means, se da clic y aparece otro menú, se coloca el cursor en Paired-
Samples T-Test y se da clic.

Sofía Rivera Aragón


176 Mirna García Méndez
Paso 3. Al hacer clic en Paired-Samples T-Test, se abre un menú que contiene las
variables de la investigación.

Paso 4. Las variables de las calificaciones antes y después de la plática se


marcan con el cursor, se da clic sobre las variables de estudio y se pasan las
variables seleccionadas a la ventana de current selection.

Estadística paramétrica 177


Paso 5. Las variables que se encuentran en la ventana de current selection al dar
clic al icono entre las ventanas éstas son pasadas de esta ventana por pares a la
ventana vacía (paired variables).

Una vez definidas las variables, se da clic en OK y se muestra


el resultado de la prueba t de student.11 La s tablas 31 y 32 muestran los

11Idem.

Sofía Rivera Aragón


178 Mirna García Méndez
resultados de la prueba t de student que son los que indican las estadísticas
descriptivas, el valor de la prueba t. el nivel de significancia, el número de
participantes considerados para el análisis, así como grados de libertad y el valor
de la correlación. Estos datos deberán ser interpretados por el investigador, y de
esta forma, responder a las preguntas e hipótesis de investigación.

TABLA 31
ESTADÍSTICAS DESCRIPTIVAS DE SPSS
DE LA PRUEBA T DE STUDENT:
Paired Samples Mean Std. Std. Error
Statistics N Deviation Mean

Pair 1 Antes 9.2027 74 11.81592 1.37357


Después 20.0135 74 10.84952 1.26123

Paired Samples Correlations N Correlation Sig.

Pair 1 Antes y Después 74 .068 .566

TABLA 32
VALORES DE LA PRUEBA T DE STUDENT
PARA MUESTRAS RELACIONADAS DE SPSS:

Paired Paired 95% Confidence Interval Sig. (2-


Samples Test Differences Std Std. Error of the Difference tailed)
Mean Deviation Mean Lower Upper t df
Pair 1 Antes - -10.8108 15.48988 1.80066 -14.3995 -7.2221 -6.004 73 .000
Después

Estadística paramétrica 179


Reporte de investigación de la prueba
t para muestras relacionadas

Una de las formas de presentar la información obtenida en el SPSS, en un


reporte de investigación basado en el estudio sobre la diferencia en las
actitudes y conocimientos hacia el SIDA en adolescentes antes y después de
una plática (Pavaan, 2004) es presentada a continuación:
A partir de los resultados obtenidos (véase tabla 31) mediante la prueba t
de student para muestras relacionadas se encuentra que con respecto al área
de conocimientos existen diferencias significativas antes y después de la
plática, ya que al recibir información, aumentaron los conocimientos sobre
epidemiología, desarrollo de la enfermedad, prevención y mecanismos de
transmisión de la misma.
Por otro lado, no se encontraron diferencias significativas en lo que se
refiere a los conocimientos sobre síntomas del SIDA antes y después de la
plática.
En cuanto a las actitudes, se encontró que después de dar la plática
aumenta el apoyo a los enfermos con SIDA, también la disposición a la uti-
lización de métodos de sexo seguro y disminuye el miedo a tener el mal.
Finalmente no se encontraron diferencias significativas en lo que se refiere al
temor a contagiarse con el VIH y al cambio en la conducta sexual para prevenir
la enfermedad.

Análisis de varianza (Anova)

Introducción

Como se vio en la prueba anterior, se plantea que en general divulgamos


información sobre varios grupos de la población, comparándolos.
Sin embargo, en el apartado de la prueba t de student vimos cómo co-
múnmente comparábamos dos grupos afirmando que uno era más
grande que el otro o más difícil, etcétera. No obstante cuando hablamos
de más de dos grupos, como por ejemplo, que hay más satisfacción laboral
en los niveles medios que en el mando ejecutivo y operativo de una em-

Sofía Rivera Aragón


180 Mirna García Méndez
TABLA 33
DIFERENCIAS ANTES Y DESPUÉS EN ACTITUDES Y CONOCIMIENTOS HACIA EL SIDA EN
ADOLESCENTES

Áreas Media antes después t P

Epidemiología 1.50 1.66 -7.81 .000**


Desarrollo de la enfermedad 1.36 1.58 -5.83 .000**
Prevención 1.61 1.71 -3.67 .001**
Síntomas 1.31 1.40 -0.83 .410
Mecanismos de transmisión 1.64 1.85 -6.33 .000**
Apoyo a los enfermos de sida 3.45 3.84 -3.18 .002**
Temor al contagio del VIH 3.56 3.66 -0.65 .517
Miedo a tener sida 3.03 2.88 1.81 .05*
Cambio de la conducta sexual 3.42 3.39 0.40 .692
Sexo seguro 3.22 3.44 2.52 .01**

*P ≤ 0.05.
**p ≤ 0.01.

presa, o que decimos que los solteros están más satisfechos con su relación
que los casados y los divorciados, o que los hombres jóvenes están más
satisfechos sexualmente que los hombres maduros y las mujeres jóvenes,
estamos haciendo comparaciones con tres o más grupos y además estamos
combinando las características de estos grupos para poder ver en qué
medida difieren. De la misma forma que en el apartado anterior, estamos
afirmando que la media de una muestra es más grande, más fuerte y/o más
difícil que la otra. Empero, también debemos comprobar si nuestras
afirmaciones son ciertas en términos de probabilidad. Esta parte del libro se
abocará a explorar una de las pruebas que puede examinar si las diferencias
propuestas son significativas en tres o más grupos.
El análisis de varianza, Anova (del inglés, analysis of variance), es uno de
los métodos estadísticos más utilizados en la investigación moderna.
Para iniciar el análisis de varianza debemos hablar de la varianza
total, la varianza entre grupos y la varianza intragrupos. Estos conceptos
son básicos en el Anova ya que describen la lógica del mismo (Levin y

Estadística paramétrica 181


Levin, 2002). La varianza entre los grupos plantea la comparación entre las
medias de los grupos. La varianza dentro de los grupos hace referencia a la
distancia entre los puntajes crudos y su media de grupo.

Definición

El Anova es una prueba de hipótesis que observa si tres o más grupos presentan
una diferencia significativa con respecto a una variable dependiente.
Esta prueba tiene varios usos:

• Encontrar diferencias entre las medias de tres o más grupos.


• Conocer la interacción entre variables: este es un nuevo concepto que
implica un efecto combinado de las variables independientes o de
clasificación.

Requisitos

El Anova tiene varios requisitos o supuestos, entre ellos:


a) Que los puntajes se distribuyan normalmente.

b) Que haya homocedasticidad de varianza. Es decir que la distancia entre


la media y un puntaje crudo sea muy similar de una muestra a otra.

Sofía Rivera Aragón


182 Mirna García Méndez
c) Que las variables tengan un nivel de medición intervalar. Por ejemplo:
calificación de motivación al logro o promedio escolar.
d) Que haya una selección y asignación aleatoria de los participantes.

CLASIFICACIÓN DEL ANOVA

I. Anova simple:
Se refiere a la comparación entre tres o más muestras tomadas de la misma
población o de poblaciones diferentes, con respecto a una variable dependiente.
Por ejemplo:

a) Anova simple para muestras iguales: comparar si existen diferencias en el


grado de dolor por celos que sienten 100 solteros, 100 casados y 100
reconstituidos.
b) Anova simple para muestras diferentes: comparar la conducta sexual
entre 50 parejas con hijos, 60 parejas sin hijos y 55 parejas donde la mujer
esta en proceso de gestación.

Estadística paramétrica 183


2. Anova de doble clasificación o de doble entrada Este se refiere a la
interacción de dos variables de clasificación o independientes con dos categorías
o grupos, cada una con respecto a una variable dependiente. Por ejemplo: Medir
una muestra de adultos y jóvenes, hombres y mujeres con respecto a la
identidad nacional, para ver si ésta varía con respecto al sexo y a la edad por un
lado y a la interacción de ambos por otro. El diseño de 2 X 2 que se plantea en
este ejemplo quedaría esquematizado como sigue:

Edad
Jóvenes Adultos
Sexo Hombres
Mujeres

3. Análisis factorial de varianza:


Este análisis se refiere a la comparación de dos variables independientes o
más, de tres o más categorías o grupos con una variable dependiente.
Por ejemplo: Medir una muestra de diferentes niveles escolares de hombres
y mujeres con respecto a la actitud hacia la infidelidad, para ver si ésta varía con
respecto al sexo y a la escolaridad por un lado y a la interacción de ambos por el
otro. El diseño de 2 x 4 que se plantea en este ejemplo quedaría esquematizado
como sigue:

Escolaridad
Primaria Secundaria Preparatoria Licenciatura
Sexo Hombres

Mujeres

Análisis de varianza simple cuando el


tamaño (N) de los grupos es igual

Esta prueba se aplica cuando se tienen tres o más muestras diferentes tomadas
de la misma población o de poblaciones diferentes, pero en los tres grupos o más
el tamaño es igual. Por ejemplo:

184
Sofía Rivera Aragón
Mirna García Méndez
Variable dependiente: Orientación al logro.
Variable de clasificación: Estudiantes de 1o., 2º. y 3o. grados de secundaria.

En este caso cada uno de los grados escolares debe tener el mismo número
de participantes: por ejemplo 60 de lo., 60 de 2o. y 60 de 3o. de secundaria.
Para calcular esta prueba se aplica el siguiente procedimiento:
a) Plantear las hipótesis estadísticas.
b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis.
c) Obtener la sumatoria de los puntajes para cada grupo (∑X i ).
d) Obtener el cuadrado de la sumatoria (∑X) i 2
e) Elevar al cuadrado cada puntaje crudo y sumarlo (∑X) i 2
f) Calcular el factor de corrección (FC).
La fórmula para calcularlo es:

donde:

Sumar todos los puntajes crudos de todos los grupos y elevarlos al

cuadrado.
K= Número de grupos a comparar.
N = Número de participantes por grupo,
g) Obtener la varianza total (SCT).
La fórmula para calcular la SCT es:

donde:

Elevar al cuadrado cada una de las calificaciones obtenidas y sumarlas,


para cada grupo.
FC= Factor de corrección.

Estadística paramétrica 185


h) Obtener la suma de cuadrados entre los grupos (SCE). La fórmula para

calcular la SCE es:

donde:
Sumar los puntajes del primer grupo y elevarlos al cuadrado,
haciendo lo mismo para todos los grupos.
FC = Factor de corrección.
N = Número de participantes por grupo.

Obtener la suma de cuadrados intragrupos {SCI).

La fórmula para calcular la SCI es:

SCI = SCT - SCE

Calcular los grados de libertad (gl).


Las fórmulas para calcular los grados de libertad son:

gltotal = N – 1

glentre = k - 1

glintra = N - k

donde:
N = Número total de participantes en todos los grupos.
K = Número de grupos que se están comparando.
1 = Constante.

k) Obtener la media de cuadrados entre grupos (MCE). La


fórmula para calcular la MCE es:

Sofía Rivera Aragón


186 Mirna García Méndez
l) Obtener la media de cuadrados intragrupos (MCI). La
fórmula para calcular la MCI es:

m) Sustituir en la fórmula de F (prueba de significancia del Anova):

n) Construir la tabla de procedencia:

Tabla de procedencia

SC gl MC F

Entre
Intra
Total

o) Para obtener la significancia, se busca en el apéndice en la tabla G de


valores críticos de F los grados de libertad entre grupos en la parte horizontal de
la tabla y los grados de libertad intragrupos en la parte vertical. Para cada
probabilidad (α ) hay una tabla independiente.

En la tabla G del apéndice, se encuentra la F0 (valor de la F observada) que


permite rechazar y aceptar las hipótesis estadísticas.

Estadística paramétrica 187


Posteriormente se aplica la regla de decisión, que es:

Fc ≥ F0  H1 se acepta.

Es decir que como la F de la fórmula es más grande que la de la tabla G del


apéndice, entonces se acepta la hipótesis alterna.
p) Finalmente si se encuentran diferencias significativas entre los grupos hay
que calcular las medias para cada grupo (X1, X2   y X3 ) e interpretar la magnitud
de las diferencias.
La fórmula para calcular la media para cada grupo es:

donde:
∑X = Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo.
N — Número de participantes por grupo.

Ejercicio

Un investigador desea conocer si existen diferencias entre la media de los


grupos (niños de 4 a 5 años, de 6 a 7 y de 8 a 9) en su calificación de autoestima.
Los datos obtenidos se presentan a continuación:

Niños por grupo de edad

4 a 5 años ó a 7 años 8 a 9 años


X1 X 12 X2 X22 X3 X32

10 100 14 196 11 121


15 225 10 100 10 100
18 324 9 81 9 81
20 400 7 49 6 36
25 625 8 64 7 49
∑X1 = 88 ∑X12 = 1674 ∑X2 = 48 ∑X22= 490 ∑X3 = 43 ∑X32= 387

Sofía Rivera Aragón


188 Mirna García Méndez
Para obtener el resultado a través del Anova simple para muestras iguales
de los datos anteriores se siguen los pasos que a continuación se detallan:
a) Se plantean las hipótesis estadísticas

Ho. No existen diferencias estadísticamente significativas en la autoestima


en niños de diferentes edades.
H1. Sí existen diferencias estadísticamente significativas en la autoestima en
niños de diferentes edades.

b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis.

α = .05

c) Obtener la sumatoria de los puntajes para cada grupo.

d) Obtener el cuadrado de la sumatoria para cada grupo.

e) Elevar al cuadrado cada puntaje crudo y sumarlo para cada grupo.

f) Calcular el factor de corrección (FC).

g) Obtener la varianza total (SCT).

Estadística paramétrica 189


h) Obtener la suma de cuadrados entre los grupos (SCE).

i) Obtener la suma de cuadrados intragrupos (SCI).

SCI = 414.94-243.34 = 1 7 1 . 6

j ) Calcular los grados de libertad (gl).


gltotal = 15 – 1 = 14

glentre = 3 – 1 = 2

glintra = 15 – 3 = 12

k) Obtener la media de cuadrados entre grupos (MCE).

l) Obtener la media de cuadrados intragrupos (MCI).

m) Sustituir en la fórmula de F (prueba de significancia del Anova):

n) Construir la tabla de procedencia:

Tabla de procedencia

SC gl MC F
Entre 243.34 2 121.67 8.50
Intra 171.6 12 14.3
Total 414.94 15

Sofía Rivera Aragón


190 Mirna García Méndez
o) Para obtener la significancia, se busca en el apéndice en la tabla G de
valores críticos de F los grados de libertad entre grupos en la parte horizontal de
la tabla y los grados de libertad intragrupos en la parte vertical.

En la tabla G del apéndice, se encuentra la F0 (valor de la F observada) que


permite rechazar y aceptar las hipótesis estadísticas.
Posteriormente se aplica la regla de decisión que es:

8.50 ≥ 3.89  H1 se acepta.

Es decir que como la F de la fórmula es más grande que la de la tabla G,


entonces se acepta la hipótesis alterna. En este caso decimos que existen
diferencias significativas en la autoestima de niños de diferentes edades.
p) Finalmente si se encuentran diferencias significativas entre los grupos hay
que calcular las medias para cada grupo (X1, X2 y X3) e interpretar la magnitud
de las diferencias.

Con respecto a estos valores se puede observar que los niños de 5 a 6 años
presentan una media más alta en autoestima que los niños de mayor edad. Cabe
aclarar hasta aquí que el Anova indica diferencias entre grupos, pero no nos dice
entre cuáles. Para ello habría que aplicar una prueba post-hoc (Scheffe, Duncan o
Tukey).

Análisis de varianza simple para N desiguales

Esta clasificación se aplica cuando se tienen tres o más muestras diferentes


tomadas de la misma población o de poblaciones diferentes, pero en los tres
grupos las muestras son diferentes. Por ejemplo:

Estadística paramétrica 191


Variable dependiente: Estilo de comunicación positivo.
Variable de clasificación: estado civil = solteros, casados, unión libre,
reconstituidos

En este caso cada una de las categorías del estado civil debe tener un
número diferente de participantes: por ejemplo 115 solteros, 100 casados, 99
unión libre y 102 personas en relaciones reconstituidas.

Para calcular esta prueba se aplica el procedimiento que a continuación se


detalla. Algo importante de mencionar es que los pasos son similares al Anova
para muestras iguales solamente cambian las fórmulas de la SCE y el PC.
a) Plantear las hipótesis estadísticas.
b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis.
c) Obtener la sumatoria de los puntajes para cada grupo (∑ X)
d) Obtener el cuadrado de la sumatoria (∑ X)2
e) Elevar al cuadrado cada puntaje crudo y sumarlo ∑ X12
f) Calcular el factor de corrección (FC).
La fórmula para calcularlo es:

donde:

Sumar todos los puntajes crudos de todos los grupos y elevarlos

al cuadrado.
N = Número de participantes para cada grupo.

g) Obtener la varianza total (SCT).


La fórmula para calcular la SCT es:

Sofía Rivera Aragón


192 Mirna García Méndez
donde:
Elevar al cuadrado cada una de las calificaciones obtenidas

y sumarlas.
FC= Factor de corrección.

h) Obtener la suma de cuadrados entre los grupos {SCE). La fórmula

para calcular la SCE es:

donde:

Sumar los puntajes del primer grupo y elevarlos al cuadrado,


haciendo lo mismo para todos los grupos,
FC = Factor de corrección.
N= Número de participantes en cada grupo.

Obtener la suma de cuadrados intragrupos (SCI).


La fórmula para calcular la SCI es:

SCI = SCT-SCE
Calcular los grados de libertad (gl).
Las fórmulas para calcular los grados de libertad son:

gltotal = N – 1
glentre = k - 1
glintra = N - k

donde:
N = Número total de participantes en todos los grupos.
k = Número de grupos que se están comparando.
1 = Constante.

Estadística paramétrica 193


k) Obtener la media de cuadrados entre grupos (MCE). La fórmula para
calcular la MCE es:

l) Obtener la media de cuadrados intra grupos (MCI). La fórmula para


calcular la MCI es:

m) Sustituir en la fórmula de F (prueba de significancia del Anova):

n) Construir la tabla de procedencia:

Tabla de procedencia

SC gl MC F
Entre
Intra
Total

o) Para obtener la significancia, se busca en la tabla G de valores críticos de F


los grados de libertad entre grupos en la parte horizontal de la tabla y los grados
de libertad intragrupos en la parte vertical. Para cada probabilidad (α ) hay una
tabla independiente.
En la tabla G del apéndice, se encuentra la F0 (valor de la F observada) que
permite rechazar y aceptar las hipótesis estadísticas.

194 Sofía Rivera Aragón


Mirna García Méndez
Posteriormente se aplica la regla de decisión que es:

Fc ≥ F0  H1 se acepta.

Es decir que como la F de la fórmula es más grande que la de la tabla G del


apéndice, entonces se acepta la hipótesis alterna.
p) Finalmente si se encuentran diferencias significativas entre los grupos hay
que calcular las medias para cada grupo e interpretar la magnitud
de las diferencias.
La fórmula para calcular la media para cada grupo es:

donde:
∑ X = Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo.
N = Número de participantes por grupo.

Ejercicio

Un psicólogo desea saber si existen diferencias estadísticamente sig-


nificativas en el tiempo que tardan para resolver un rompecabezas niños con
diferentes sistemas escolares: Montesori, Dalton, Piaget.
Para obtener el resultado a través del Anova simple para muestras
diferentes de este ejemplo se siguen los pasos que a continuación se detallan:
a) Se plantean las hipótesis estadísticas:

Ho. No existen diferencias estadísticamente significativas en el tiempo que


tardan los niños para resolver un rompecabezas dependiendo del sistema
educativo (Montesori, Dalton, Piaget).

Estadística paramétrica 195


Tiempo de resolución de un rompecabezas

Piaget Montesori Dalton

5 25 3 9 7 49
4 16 4 16 8 64
5 25 3 9 10 100
5 25 4 16 12 144
4 16 5 25 10 100
5 25 3 9 9 81
4 16 2 4 9 81
5 25 4 16 7 49
5 25 3 9 5 25
4 16 4 16 3 9
3 9 4 16
4 16
∑X1 = 46 ∑ X1 2 = 214 ∑X2 = 42 ∑X22 = 154 ∑X2 = 84 ∑X32 718

H1. Sí existen diferencias estadísticamente significativas en el tiempo que


tardan los niños para resolver un rompecabezas dependiendo del sistema
educativo (Montesori, Dalton, Piaget).

b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis.


α = .05

c) Obtener la sumatoria de los puntajes para cada grupo.

d) Obtener el cuadrado de la sumatoria para cada grupo.

e) Elevar al cuadrado cada puntaje crudo y sumarlo para cada grupo.

Sofía Rivera Aragón


196
Mirna García Méndez
f) Calcular el factor de corrección (FC).

g) Obtener la varianza total (SCT).

SCT = 2 1 4 + 1 5 4 + 7 1 8 - 8 9 6 . 4 8 = 1 8 9 . 5 2

h) Obtener la suma de cuadrados entre los grupos {SCE).

Obtener la suma de cuadrados intragrupos (SCI).

SCI = 1 8 9 . 5 2 - 1 0 3 . 1 3 = 8 6 . 3 9

Calcular los grados de libertad (gl).


gltotal = 33 – 1 = 32

glentre = 3 – 1 = 2

glintra = 33 – 3 = 30

k) Obtener la media de cuadrados entre grupos (MCE).

l) Obtener la media de cuadrados intragrupos (MCI).

Estadística paramétrica 197


m) Sustituir en la fórmula de F (prueba de significancia del Anova):

n) Construir la tabla de procedencia:

Tabla de procedencia
SC gl MC F

Entre 103.13 2 51.56 17.96

Intra 86.39 30 2.87


Total 189.52 32

o) Para obtener la significancia, se busca en la tabla de valores críticos de F


los grados de libertad entre grupos en la parte horizontal de la tabla y los grados
de libertad intragrupos en la parte vertical.

En la tabla G se encuentra la Fa (valor de la F observada) que permite


rechazar y aceptar las hipótesis estadísticas.
Posteriormente se aplica la regla de decisión que es:

17.96 ≥ 3.32  H1 se acepta.

Es decir que como la F de la fórmula es más grande que la de la tabla G del


apéndice, entonces se acepta la hipótesis alterna. En este caso decimos que
existen diferencias significativas en el tiempo que tardan los niños que están bajo
diferentes sistemas educativos.
p) Finalmente si se encuentran diferencias significativas entre los grupos hay
que calcular las medias para cada grupc e interpretar la magnitud
de las diferencias.

Sofía Rivera Aragón


198 Mirna García Méndez
Con respecto a estos valores se puede observar que los niños de cinco a seis
años presentan una media más alta en el tiempo que tardan en resolver un
rompecabezas con un sistema Dalton. Cabe aclarar hasta aquí que el Anova indica
diferencias entre grupos, pero no nos dice entre cuáles. Para ello habría que
aplicar una prueba post-hoc (Scheffe, Duncan o Tukey).

Ejercicio SPSS

Con la finalidad de conocer si existen diferencias a través del ciclo vital en la


relación de pareja en las historias de amor (Romero, 2003) se aplicó el Anova
simple.
Se plantearon las siguientes hipótesis:

Ho No existen diferencias estadísticamente significativas en las historias de


amor de acuerdo con cada una de las etapas del ciclo vital.

H1 Sí existen diferencias estadísticamente significativas en las historias de


amor de acuerdo con cada una de las etapas del ciclo vital.

Posteriormente una vez capturados los datos se siguieron los pasos que a
continuación se encuentran:
Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del
mouse.

Estadística paramétrica 199


Paso 2. Al hacer clic en Analyze aparece un menú en el que se coloca el cursor en
Compare Means, se da clic y aparece otro menú, se coloca el cursor en One-Way-
Anova y se da clic.

Paso 3. Al hacer clic en One-Way-Anova, se abre un menú que contiene las


variables de la investigación.

Sofía Rivera Aragón


200 Mirna García Méndez
Paso 4. Las variables de historias de amor se marcan con el cursor. Se da clic
en el icono que está entre las variables de estudio y la siguiente ventana. Se pasan
las variables seleccionadas a la ventana vacía donde se colocan las variables
dependientes, la variable de clasificación, que en este caso es la etapa del ciclo
vital de la relación, se le coloca donde están los grupos.

Una vez definidas las variables, se da clic en OK y se muestra el resultado del


Anova simple.12 La tabla 34 muestra los resultados del Anova que son los que
indican el valor de la prueba, el nivel de significancia, el número de participantes
considerados para el análisis, así como los grados de libertad y el valor de la
diferencia entre varianzas. Estos datos deberán ser interpretados por el
investigador, y de esta forma, responder a las preguntas e hipótesis de
investigación.

12 Con fines didácticos se muestran los resultados del Anova factorial, tal como los reporta el

SPSS; sin embargo, nunca se presentan así en un reporte de investigación.

Estadística paramétrica 201


TABLA 34

ANOVA SIMPLE
Anova

Sum of df Mean F Sig.


Squares Square

Factor 1: Romance Between Groups 539.102 5 107.820 4.514 .001


Within Groups 7,762.221 325 23.884
Total 8,301.323 330
Factor 2: Organización Between Groups 460.866 5 92.173 6.515 .000
Within Groups 4,597.883 325 14.147
Total 5,058.749 330
Factor 3: Sexual Between Groups 205.048 5 41.010 3.334 .006
Within Groups 3,997.054 325 12.299
Total 4,202.103 330
Factof 4: Atracción- misterio Between Groups 209.848 5 41.970 9.012 .000
Within Groups 1,513.505 325 4.657
Total 1,723.353 330
Factor 5: Humor Between Groups 81.644 5 16.329 1.817 .109
Within Groups 2,920.833 325 8.987
Total 3,002.477 330
Factor ó: Maestro- estudiante Between Groups 260.314 5 52.063 4.485 .001
Within Groups 3,772.477 325 11.608
Total 4,032.792 330
Factor 7: Guerra Between Groups 488.694 5 97.739 7.085 .000
Within Groups 4,483.409 325 13.795
Total 4,972.103 330
Factor 8: Policía prófugo Between Groups 298.978 5 59.796 4.057 .001
Within Groups 4,760.116 323 14.737
Total 5,059.094 328
Factor 9: Atracción bizarra Between Groups 312.706 5 62.541 8.252 .000
Within Groups 2,463.028 325 7.579
Total 2,775.734 330
Factor 10: Control-variedad Between Groups 238.263 5 47.653 4.490 .001
Within Groups 3,448.927 325 10.612
Total 3,687.190 330
Factor 11: Sacrificio- Between Groups 154.639 5 30.928 5.256 .000
dependencia Within Groups 1,912.304 325 5.884
Total 2,066.943 330
Factor 12: Desconfianza mutua Between Groups 63.394 5 12.679 2.781 .018
Within Groups 1,472.600 323 4.559
Total 1,535.994 328

Sofía Rivera Aragón


202 Mirna García Méndez
Reporte de investigación del

análisis de varianza simple

Para probar la hipótesis del investigador se aplicó un análisis de varianza simple


(Romero, 2003) el cual mostró diferencias significativas en todas las historias de
amor a lo largo del ciclo vital de la pareja, excepto en la historia de humor. Para
la historia de romance se detectó que el apego y el cariño son menores durante
el noviazgo, incrementan significativamente al inicio del matrimonio y
decrementan con la llegada de los hijos. De los siete a los catorce años de matri-
monio repuntan nuevamente, decrementan después de los 14 años de
matrimonio. Para la historia de organización, se encuentra que los esquemas, las
reglas y las estructuras son más importantes en la última etapa de noviazgo y la
primera del matrimonio. Al igual que en la historia de romance, la organización
decrementa con la llegada de los hijos, de los siete a los catorce años de
matrimonio tiene un repunte importante para obtener su mínimo puntaje en la
última etapa del ciclo vital de la pareja. La historia sexual se mantiene más o
menos estable a lo largo de las primeras etapas hasta los tres años de
matrimonio, entre los tres y siete años de matrimonio el erotismo y la
exploración sexual aumentan, para posteriormente decrementar y alcanzar su
mínimo puntaje en la última etapa del ciclo vital de la pareja. En cuanto a la
historia de atracción-misterio se observa que los puntajes más altos se localizan
en las etapas del noviazgo, donde el hecho de no conocer totalmente a la pareja
le confiere mayor atracción a la relación. Por último para la etapa de maestro-
estudiante se señalan decrementos importantes en la última etapa del
matrimonio probablemente debido al amplio conocimiento que los miembros de
la pareja han obtenido el uno del otro con el paso de los años.
Lo anterior demuestra que el matrimonio no es una etapa estática en la vida
de los seres humanos (véase tabla 35), sino que constantemente tiene cambios en
todos los aspectos relaciónales de la pareja.

Estadística paramétrica 203


TABLA 35
DIFERENCIAS POR ETAPA DE CICLO VITAL EN LAS HISTORIAS DE AMOR

Etapa

Factor 0a6 Más de 6 D e 0 a De 3 a 7 De 7 a 14 Más de 14 F P


meses meses de 3 años de años de años de años de mat
noviazgo noviazgo mat. mat. mat.

Romance 18.75 19.49 22.21 18.35 20.39 18.95 4.51 .001**


Organización 19.73 21.82 21.30 19.67 21.61 18.67 6.51 .000**
Sexual 11.58 11.59 11.00 13.19 11.93 10.69 3.33 .006**
Atracción- 10.79 10.26 8.98 9.02 8.61 8.93 9.01 .000**
misterio
Humor 9.54 10.23 9.94 9.28 9.43 8.69 1.81 .109
Maestro- 18.88 18.59 18.34 18.43 18.86 16.69 4.48 .001 **
Estudiante

*p< 0.05.
**p< 0.01.

Análisis de varianza de doble clasificación

Este análisis introduce el concepto de interacción, el cual, como ya se había


mencionado, aduce a la combinación de las categorías de dos variables
independientes o de clasificación con respecto a una variable dependiente. El
procedimiento al cálculo es similar al análisis de varianza simple, sólo que éste
además calcula los componentes de la varianza entre grupos de los efectos
principales de cada una de las variables independientes por separado, además
de la interacción entre las mismas. Por ejemplo:

Variable dependiente: Creatividad


Variables de clasificación:
Sexo: Hombres y mujeres Escolaridad:
Media superior y superior El diseño
quedaría como sigue:

Escolaridad/Sexo Hombres Mujeres

Media superior

Superior

Sofía Rivera Aragón


204 Mirna García Méndez
En este caso, cada una de las variables por separado implica el efecto
principal, y la combinación la interacción de las mismas, para predecir la
creatividad.
Para calcular esta prueba se aplica el siguiente procedimiento:

a) Plantear las hipótesis estadísticas.


b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis.
c) Obtener la sumatoria de los puntajes para cada grupo (∑ x).
d) Obtener el cuadrado de la sumatoria (∑ x)2.
e) Elevar al cuadrado cada puntaje crudo y sumarlo ∑ X1.
f) Calcular el factor de corrección (FC).

La fórmula para calcularlo es:

donde:

Sumar todos los puntajes crudos de todos los grupos y elevarlos al


cuadrado,
K= Número de grupos a comparar.
N = Número de participantes por grupo,
g) Obtener la varianza total (SCT).

La fórmula para calcular la SCT es:

donde:

Elevar al cuadrado cada una de las calificaciones obtenidas y sumarlas.

FC— Factor de corrección.

Estadística paramétrica 205


h) Obtener la suma de cuadrados entre los grupos (SCE). La
fórmula para calcular la SCE es:

donde:
Sumar los puntajes del primer grupo y elevarlos al cuadrado,

haciendo lo mismo para todos los grupos,


FC= Factor de corrección,
N= Número de participantes por grupo.

Obtener la suma de cuadrados intragrupos (SCI).


La fórmula para calcular la SCI es:

SCI = SCT -SCE

Calcular los grados de libertad (gl).


Las fórmulas para calcular los grados de libertad son:

gltotal = N - 1

glentre = k - 1

glintra N — k

donde:
N — Número total de participantes en todos los grupos,
K = Número de grupos que se están comparando,
1 = Constante.

Sofía Rivera Aragón


206
Mirna García Méndez
k) Obtener la media de cuadrados entre grupos (MCE).
La fórmula para calcular la MCE es:

l) Obtener la media de cuadrados intra grupos (MCI).

La fórmula para calcular la MCI es:

m) Sustituir en la fórmula de F (prueba de significancia del Anova):

n) Construir la tabla de procedencia:

Tabla de procedencia

SC gl MC F
Entre
Intra
Total

o) Para obtener la significancia, se busca en el apéndice la tabla G de valores


críticos de F, los grados de libertad entre grupos en la parte horizontal de la
tabla y los grados de libertad intragrupos en la parte vertical. Para cada
probabilidad (α ) hay una tabla independiente.

En la tabla G del apéndice, se encuentra la F0 (valor de la F observada) que


permite rechazar y aceptar las hipótesis estadísticas.

Estadística paramétrica 207


Posteriormente se aplica la regla de decisión que es:

Fc ≥ F0  H1 se acepta.

Es decir que como la F de la fórmula es más grande que la de la tabla G


entonces se acepta la hipótesis alterna.
p) Si se encuentran diferencias significativas entre los grupos hay que
calcular las medias para cada grupo e interpretar la magnitud de
las diferencias.
La fórmula para calcular la media para cada grupo es:

donde:
∑ X= Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo,
N = Número de participantes por grupo.

q) Una vez que se calculó el análisis de varianza simple se acomodan los


valores de las variables en una tabla de 2 x 2. Tomando el ejemplo anterior
quedaría como sigue:

Variable dependiente: Creatividad


Variables de clasificación:
Sexo: Hombres y mujeres
Escolaridad: Media superior y superior
El diseño quedaría como sigue:

Escolaridad/Sexo Hombres Mujeres

Media superior

Superior

208 Sofía Rivera Aragón


Mirna García Méndez
r) Una vez acomodados se obtiene la suma de cuadrados de los efectos
principales de las variables en estudio.
1. Obtener la suma de cuadrados de la variable que se encuentra en las filas
de la tabla (SCV1). En este ejemplo sería la escolaridad.
La fórmula para obtenerla es:

donde:
∑ (f1)2 = Sumar los valores de la fila 1 y elevarlos al cuadrado.
∑ (f2)2 = Sumar los valores de la fila 2 y elevarlos al cuadrado.
K = Número de categorías o grupos de las variables.
N = Número de participantes por grupo.
FC = Factor de corrección.

2. Obtener la suma de cuadrados de la variable que se encuentra er las


columnas de la tabla (SCVc). En este ejemplo sería el sexo.
La fórmula para obtenerla es:

donde:
∑ (c1)2= Sumar los valores de la columna 1 y elevarlos al cuadrado.
∑ (c2 )2= Sumar los valores de la columna 2 y elevarlos al cuadrado.
K= Número de categorías o grupos de las variables.
N = Número de participantes por grupo.
FC = Factor de corrección.

s) Calcular la interacción de las variables (SCINT).


La fórmula para calcular la interacción es:

SCINT = SCE – SCVf - SCVc

Estadística paramétrica 209


donde:
SCVf = Suma de cuadrados de la variable que se encuentra en las filas.
SCVc = Suma de cuadrados de la variable que se encuentra en las columnas.
SCE = Suma de cuadrados entre grupos.

t) Calcular los grados de libertad de los efectos principales y de la interacción.

glvf = K - 1 (grados de libertad de la variable de las filas),


glrc = K - 1 (grados de libertad de la variable de las columnas),
gfint = (Kf- 1) (Kc - l)(grados de libertad de la interacción).

donde:
k = Número de categorías o grupos de la variable en estudio.
1 = Constante.

u) Calcular la media de cuadrados de los efectos principales y de la interacción.

media de cuadrados de la variable de las filas)

media de cuadrados de la variable de las columnas)

(media de cuadrados de la interacción)

v) Sustituir en la fórmula de F (prueba de significancia del Anova)


tanto para efectos principales como de la interacción:

(prueba f para la variable de las filas)

(prueba f para la variable de las columnas)

(prueba f para la variable de la interacción)

Sofía Rivera Aragón


210 Mirna García Méndez
w) Construir la tabla de procedencia:

Tabla de procedencia

SC gl MC F

Entre
Filas
Columnas
Interacción
Intra
Total

x) Para obtener la significancia, se buscan en la tabla de valores críticos de F


los grados de libertad entre grupos en la parte horizontal de la tabla y los grados
de libertad intragrupos en la parte vertical. Para cada probabilidad (a) hay una
tabla independiente y deben buscarse todos los valores de la prueba F tanto para
efectos principales como para la interacción.

En la tabla G del apéndice se encuentra la F0 (valor de la F observada) que


permite rechazar y aceptar las hipótesis estadísticas planteadas por cada
variable y la interacción.
Posteriormente se aplica la regla de decisión que es:

Fc ≥ F0  H1 se acepta.

Es decir que como la F de la fórmula es más grande que la de la tabla G,


entonces se acepta la hipótesis alterna. Esto se aplica en todas las F (pruebas de
significancia del Anova) que aparecen en la tabla (efectos principales e
interacción).

Estadística paramétrica 211


y) Finalmente si se encuentran diferencias significativas ya sea por los
efectos principales o por la interacción, hay que calcular las medias para cada
grupo (X1, X2 y X3 ) e interpretar la magnitud de las diferencias.

La fórmula para calcular la media para cada grupo es:

donde:
∑ X = Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo.
N = Número de participantes por grupo.

Ejercicio

Un investigador desea saber si hay diferencias en el grado de altruismo,


dependiendo del sexo y la edad de los participantes. Los datos se presentan a
continuación:

Jóvenes Adultos

Hombre Mujer Hombre Mujer


X X2 X X
2 X X2 X X2
4 16 1 1 3 9 4 16
9 81 4 16 7 49 4 16
9 81 5 25 7 49 4 16
10 100 6 36 7 49 8 64
∑ X2 = 32 ∑ X12 = 278 ∑ X2 =16 ∑X22=78 ∑X3=74 ∑X32=156 ∑X4=20 ∑X42= 112

Para calcular el resultado de esta investigación se aplica el siguiente


procedimiento:

a) Plantear las hipótesis estadísticas.


b) Plantear la probabilidad a la cual se comprobarán dichas hipótesis.
c) Obtener la sumatoria de los puntajes para cada grupo.

Sofía Rivera Aragón


212 Mirna García Méndez
d) Obtener el cuadrado de la sumatoria:

e) Elevar al cuadrado cada puntaje crudo y sumarlo:

f) Calcular el factor de corrección (FC):

g) Obtener la varianza total (SCT):

SCT = 2 7 8 + 7 8 + 1 5 6 + 1 1 2 - 5 2 9 = 9 5

h) Obtener la suma de cuadrados entre los grupos (SCI):

i) Obtener la suma de cuadrados intragrupos (SCI):

SCI = 9 5 - 3 5 = 6 0

;) Calcular los grados de libertad (gl)


Las fórmulas para calcular los grados de libertad son:

gltotal = 1 6 - 1 = 1 5
glentre 4 - 1 = 3
glintra = 1 6 - 4 = 1 2

Estadística paramétrica 213


k) Obtener la media de cuadrados entre grupos (MCE):

l) Obtener la media de cuadrados intra grupos (MCI):

m) Sustituir en la fórmula de F (prueba de significancia del Anova):

n) Construir la tabla de procedencia:

Tabla de procedencia

SC 91 MC F

Entre 35 3 11.67 2.33


Intra 60 12 5
Total 95 15

o) Para obtener la significancia, se busca en el apéndice la tabla G de


valores críticos de F, los grados de libertad entre grupos en la parte horizontal
de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada
probabilidad (α ) hay una tabla independiente.

En la tabla G se encuentra la F0 (valor de la F observada) que permite


rechazar y aceptar las hipótesis estadísticas.
Posteriormente se aplica la regla de decisión que es:

2.33 ≥ 3.49  H1 se rechaza.

214 Sofía Rivera Aragón


Mirna García Méndez
Es decir que como la F de la fórmula es más pequeña que la de la tabla G
entonces se rechaza la hipótesis alterna. Es decir, no hay diferencias entre los
cuatro grupos en el nivel de altruismo.
p) En este caso no se encontraron diferencias entre todos los grupos por
ende no se calcularon las medias generales.
q) Una vez que se calculó el análisis de varianza simple se acomodan los
valores de las variables en una tabla de 2 x 2.

Sexo
Edad Hombres Mujeres
Jóvenes 4 1
9 4
9 5
10 6
∑X1 =32 ∑X2=l6 ∑(f1)=48
Adultos 3 4
7 4
7 4
7 8
∑X3=24 ∑X4=20 ∑(f2)=44
∑(C I )=56 ∑(C2)=36

r) Una vez acomodados se obtiene la suma de cuadrados de los efectos


principales de las variables en estudio.
1. Obtener la suma de cuadrados de la variable que se encuentra en las
filas de la tabla (SCVf). En este ejemplo sería la edad:

2. Obtener la suma de cuadrados de la variable que se encuentra en las


columnas de la tabla (SCV0). En este ejemplo sería el sexo:

Estadística paramétrica 215


s) Calcular la interacción de las variables (SCINT).
La fórmula para calcular la interacción es:

SC INT = 35 -25 -1 = 9

t) Calcular los grados de libertad de los efectos principales y de la in-


teracción.

glvf =2-1 = 1 (grados de libertad de la variable de las filas)


glvc =2-1 = 1 (grados de libertad de la variable de las columnas)
glint = (2f — 1) (2C — 1) (grados de libertad de la interacción)

u) Calcular la media de cuadrados de los efectos principales y de la


interacción.

v) Sustituir en la fórmula de F (prueba de significancia del Anova) tanto para


efectos principales como de la interacción:

Sofía Rivera Aragón


216
Mirna García Méndez
w) Construir la tabla de procedencia:

Tabla de procedencia

SC gl MC F

S Entre 35.0 3 11.67 2.33


Sexo 25.0 1 25.0 5.0
Edad 1.0 1 1.0 0.20
Sexo x Edad 9.0 1 9.0 1.80
Dentro 60.0 12 5.0
Total 95 15

x) Para obtener la significancia, se busca en al apéndice en la tabla G de


valores críticos de F los grados de libertad entre grupos en la parte horizontal
de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada
probabilidad (α ) hay una tabla independiente y deben buscarse todos los
valores de la prueba F tanto para efectos principales como para la interacción.
Prueba F para el efecto principal de edad:

Prueba F para el efecto principal de sexo:

Prueba F para la interacción:

Estadística paramétrica 217


En la tabla G se encuentra la F0 (valor de la F observada) que permite
rechazar y aceptar las hipótesis estadísticas planteadas por cada variable y la
interacción.
Posteriormente se aplica la regla de decisión.
Efecto principal de edad:

0.20 ≤ 4.75  H1 se rechaza.

Efecto principal de sexo:

5 ≥ 4.75  H1 se acepta.

Efecto de la interacción:

1.80 4.75  H1 se rechaza.


Es decir que como la F de la fórmula es más grande que la de la tabla G solo
para el efecto principal de sexo, entonces se acepta la hipótesis alterna.
y) Finalmente si se encuentran diferencias significativas ya sea por los
efectos principales o por la interacción, hay que calcular las medias para cada
grupo (X1 y X2) e interpretar la magnitud de las diferencias. En este caso sólo se
calcula para hombres y mujeres ya que ahí es donde encontramos diferencias
significativas.

Sí hay diferencias en las medias del puntaje de altruismo entre hombres y


mujeres. Siendo éste más alto en los hombres.

Ejercicio SPSS

Con la finalidad de conocer si existen diferencias por sexo (hombres y mujeres)


y trabajo (quiénes trabajan fuera del hogar y quiénes no trabajan) en los estilos
de amor (Rivera y Díaz-Loving, 2002) se aplicó un análisis de varianza de doble
clasificación.

Sofía Rivera Aragón


218 Mirna García Méndez
Se plantearon las siguientes hipótesis:
Efecto principal de sexo:

H0 No existen diferencias estadísticamente significativas en los estilos


de amor entre hombres y mujeres.
H1. Sí existen diferencias estadísticamente significativas en los estilos
de amor entre hombres y mujeres.

Efecto principal de sexo:

1. H0 No existen diferencias estadísticamente significativas en los estilos de


amor entre personas que trabajan y las que no trabajan.
2. H1. Sí existen diferencias estadísticamente significativas en los estilos de
amor entre personas que trabajan y las que no trabajan.

Interacción:

H0 No habrá interacción entre sexo y trabajo.


H1 Sí habrá interacción entre sexo y trabajo.

Posteriormente una vez capturados los datos se siguieron los pasos que a
continuación se encuentran:
Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del
mouse.

Estadística paramétrica 219


Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el
cursor en General Lineal Model, se da clic y aparece otro menú, se coloca el
cursor en Univariate y se da clic.

Paso 3. Al hacer clic en Univariate, se abre un menú que contiene las


variables de la investigación.

Paso 4. Las variables de estilos de amor se marcan con el cursor, se da


clic en el icono que está entre las variables de estudio y la siguiente ven-
tana. Se pasan las variables seleccionadas a la ventana vacía (dependent

Sofía Rivera Aragón


220 Mirna García Méndez
variables) donde se colocan las variables dependientes y las variables de
clasificación que en este caso son el sexo y el trabajo, se les coloca donde están los
factores (fixed factors).

Una vez definidas las variables, se da clic en OK y se muestra el resultado del


Anova de doble clasificación.13 Las tablas 36 y 37 muestran los resultados del
Anova que son los que indican el valor de la prueba el nivel de significancia, el
número de participantes considerados para el análisis, así como los grados de
libertad y el valor de la diferencia entre varianzas. Estos datos deberán ser
interpretados por el investigador, de esta forma, responder a las preguntas e
hipótesis de investigación.

TABLA 36
ANOVA DE DOBLE CLASIFICACIÓN

Case Processing Summary


Cases
Included Excluded Total
N Percent N Percent N Percent
515 76.6 157 23.4 672 100.0

13 Con fines didácticos se muestran los resultados del Anova de doble clasificación, tal como los

reporta el SPSS, sin embargo, nunca se presentan así en un reporte de investigación.

Estadística paramétrica 221


Cell Means
Trabajo fuera de Sexo Amistoso Eros Agape Mania
Casa
Mean N Mean N Mean N Mean N

Masculino Sí 3,9194 248 3,9556 248 3,5948 248 2,9004 248


No 3,9462 15 3,8923 15 3,6867 15 2,8615 15
Total 3,9209 263 3,9520 263 3,6000 263 2,8982 263
Femenino Sí 3,9084 130 3,9183 130 3,0354 130 2,9154 130
No 3,8797 122 3,8260 122 3,2484 122 2,9224 122
Total 3,8945 252 3,8736 252 3,1385 252 2,9188 252
Total Sí 3,9156 378 3,9428 378 3,4024 378 2,9056 378
No 3,8870 137 3,8332 137 3,2964 137 2,9158 137
Total 3,9080 515 3,9137 515 3,3742 515 2,9083 515
aGrand Mean.
bAmistoso, Eros, Agape, Mania by Sexo, Trabajo fuera de casa.

Análisis factorial de varianza

Este análisis es muy similar al análisis de varianza de doble clasificación, la


diferencia estriba en que aquí se puede introducir una variable dependiente o
una variable de clasificación más o en su defecto cada una de las variables
independientes puede tener tres o más categorías.
Por ejemplo:

Variable dependiente: Coeficiente intelectual


Variables de clasificación:
Sexo: Hombres y mujeres Clase social: Alta, media y baja

El diseño sería de 2 x 3 y quedaría como sigue:

Clase social/Sexo Hombres Mujeres

Alta
Media
Baja

Sofía Rivera Aragón


222 Mirna García Méndez
TABLA 37
VALORES DEL ANOVA DE DOBLE CLASIFICACIÓN.
Anova

Experimental Mean
Method Square F Slg.

Sum of
Squares df

Amistoso Main Effects (Combined) .116 2 .058 .131 .878


Sexo .034 1 .034 .076 .783
Trabajo fuera
de casa .026 1 .026 .060 .807
2-Way Interactions Sexo *
Trabajo fuera
de casa .036 1 .036 .080 .777
Model .152 3 .051 .114 .952
Residual 226.996 511 .444
Total 227.148 514 .442
Eros Main Effects (Combined) 1.375 2 .688 1.158 .315
Sexo .168 1 .168 .282 .595
Trabajo fuera
de casa .584 1 .584 .983 .322
2-Way Interactions Sexo *
Trabajo fuera
de casa .010 1 .010 .016 .898
Model 1.385 3 .462 .777 .507
Residual 303.463 511 .594
Total 304.848 514 .593
Agape Main Effects (Combined) 30.215 2 15.107 23.335 .000
Sexo 29.084 1 29.084 44.925 .000
Trabajo fuera
de casa 2.805 1 2.805 4.333 .038
2-Way Interactions Sexo *
Trabajo fuera
de casa .169 1 .169 .261 .609
Model 30.384 3 10.128 15.644 .000
Residual 330.822 511 .647
Total 361.207 514 .703
Manía Main Effects (Combined) .055 2 .027 .102 .903
Sexo .044 1 .044 .165 .685
Trabajo fuera
de casa .000 1 .000 .001 .981
2-Way Interactions Sexo * Trabajo
fuera de casa .024 1 .024 .091 .763
Model .079 3 .026 .099 .961
Residual 136.737 511 .268
Total 136.816 514 .266
aAmistoso, Eros, Agape, Mania by Sexo, Trabajo fuera de Casa.

Estadística paramétrica 223


En este caso, cada una de las variables por separado implica el efecto
principal, y la combinación, la interacción de las mismas para predecir el
coeficiente intelectual.
Para calcular esta prueba se aplica el siguiente procedimiento, el cual es
similar al Anova de doble clasificación:

a) Plantear las hipótesis estadísticas.


b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis.
c) Obtener la sumatoria de los puntajes para cada grupo (∑X ).
d) Obtener el cuadrado de la sumatoria (∑X )2

e) Elevar al cuadrado cada puntaje crudo y sumarlo ∑ X2


f) Calcular el factor de corrección (FC).

La fórmula para calcularlo es:

donde:

Sumar todos los puntajes crudos de todos los. grupos y ele-


varlos al cuadrado.
K= Número de grupos a comparar.
N = Número de participantes por grupo.

g) Obtener la varianza total (SCT).

La fórmula para calcular la SCT es:

donde:

Elevar al cuadrado cada una de las calificaciones obtenidas y


sumarlas,
FC = Factor de corrección.

Sofía Rivera Aragón


224 Mirna García Méndez
g) Obtener la suma de cuadrados entre los grupos (SCE).
La fórmula para calcular la SCE es;

donde:
Sumar los puntajes del primer grupo y elevarlos al cuadrado,
haciendo lo mismo para todos los grupos,
FC = Factor de corrección,
N = número de participantes por grupo.

i) Obtener la suma de cuadrados intragrupos (SCI).


La fórmula para calcular la SCI es:

SCI = SCT - SCE

j) Calcular los grados de libertad (gl).


Las fórmulas para calcular los grados de libertad son:
gltotal = N - l
glentre = k - l
glintra = N — k
donde:
N — Número total de participantes en todos los grupos,
K = Número de grupos que se están comparando.
l= Constante.
j) Obtener la media de cuadrados entre grupos (MCE).
La fórmula para calcular la MCE es:

k) Obtener la media de cuadrados intra grupos (MCI).


La fórmula para calcular la MCI es:

Estadística paramétrica 225


m) Sustituir en la fórmula de F (prueba de significancia del Anova):

n) Construir la tabla de procedencia:

Tabla de procedencia
SC gl MC F

Entre
Intra
Total

o) Para obtener la significancia, se busca en la tabla de valores críticos de F


los grados de libertad entre grupos en la parte horizontal de la tabla y los
grados de libertad intragrupos en la parte vertical. Para cada probabilidad (α )
hay una tabla independiente.

En la tabla G del apéndice, se encuentra la Fa (valor de la F observada) que


permite rechazar y aceptar las hipótesis estadísticas.
Posteriormente se aplica la regla de decisión que es:

Fc ≥ F0  H1 se acepta.

Es decir que como la F de la fórmula es más grande que la de la tabla G,


entonces se acepta la hipótesis alterna.
p) Si se encuentran diferencias significativas entre los grupos hay que
calcular las medias para cada grupo e interpretar la magnitud de
las diferencias.

Sofía Rivera Aragón


226 Mirna García Méndez
La fórmula para calcular la media para cada grupo es:

donde:
∑ X = Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo.
N = Número de participantes por grupo.

q) Una vez que se calculó el análisis de varianza simple se acomodan los


valores de las variables en una tabla de 2 x 3. Tomando el ejemplo anterior
quedaría como sigue:

Variable dependiente: Coeficiente intelectual


Variables de clasificación:
Sexo: Hombres y mujeres Clase
Social: Alta, media y baja.

Clase Social/Sexo Hombres Mujeres

Alta
Media
Baja

r) Una vez acomodados se obtiene la suma de cuadrados de los efectos


principales de las variables en estudio.
1. Obtener la suma de cuadrados de la variable que se encuentra en las
filas de la tabla (SCVf). En este ejemplo sería la escolaridad.
La fórmula para obtenerla es:

donde:
∑ ( f 1 ) 2 = Sumar de los valores de la fila 1 y elevarlos al cuadrado.
∑ ( f 2 ) 2 = Sumar de los valores de la fila 2 y elevarlos al cuadrado.
K = Número de categorías o grupos de las variables.
N = Número de participantes por grupo.
FC = Factor de corrección.

Estadística paramétrica 227


2. Obtener la suma de cuadrados de la variable que se encuentra en las
columnas de la tabla (SCVc). En este ejemplo sería el sexo.
La fórmula para obtenerla es:

donde:
∑ (c1)2= Suma de los valores de la columna 1 y elevarlos al cuadrado.
∑ (c2)2= Suma de los valores de la columna 2 y elevarlos al cuadrado.
K= Número de categorías o grupos de las variables.
N= Número de participantes por grupo.
FC = Factor de corrección.

s) Calcular la interacción de las variables (SCINT).


La fórmula para calcular la interacción es:

SCINT = SCE - SCVf - SCVc


donde:
SCVf = Suma de cuadrados de la variable que se encuentra en las filas.
SCVc = Suma de cuadrados de la variable que se encuentra en las columnas.
SCE = Suma de cuadrados entre grupos.

t) Calcular los grados de libertad de los efectos principales y de la in-


teracción.

glVf = K - l (grados de libertad de la variable de las filas)


glvc = K - l (grados de libertad de la variable de las columnas)
glint = (Kc- l) (Kc - l) (grados de libertad de la interacción)

donde:
k = Número de categorías o grupos de la variable en estudio.
l= constante.

Sofía Rivera Aragón


228 Mirna García Méndez
u) Calcular la media de cuadrados de los efectos principales y de la
interacción.

(media de cuadrados de la variable de las filas)

(media de cuadrados de la variable de las columnas)

(media de cuadrados de la interacción)

v) Sustituir en la fórmula de F (prueba de significancia del Anova)


tanto para efectos principales como de la interacción:

(prueba f para la variable de las filas)

(prueba f para la variable de las columnas)

(prueba f para la variable de la interacción)

w) Construir la tabla de procedencia:

Tabla de procedencia

SC gl MC F

Entre
Filas
Columnas
Interacción
Intra
Total

x) Para obtener la significancia, se busca en la tabla de valores críticos de F


los grados de libertad entre grupos en la parte horizontal de la tabla y los
grados de libertad intragrupos en la parte vertical. Para cada probabilidad (a)
hay una tabla independiente y deben buscarse todos los valores de la prueba F,
tanto para efectos principales como para la interacción.

Estadística paramétrica 229


En la tabla G del apéndice se encuentra la F0 (valor de la F observada) que
permite rechazar y aceptar las hipótesis estadísticas planteadas por cada
variable y la interacción.
Posteriormente se aplica la regla de decisión que es:

Fc ≥ F0  H1 se acepta.

Es decir que como la F de la fórmula es más grande que la de la tabla G,


entonces se acepta la hipótesis alterna. Esto se aplica en todas la "F' (pruebas de
significancia del Anova) que aparecen en la tabla (efectos principales e
interacción).
y) Finalmente, si se encuentran diferencias significativas, ya sea por los
efectos principales o por la interacción, hay que calcular las medias para cada
grupo e interpretar la magnitud de las diferencias.

La fórmula para calcular la media para cada grupo es:

donde:
∑ X = Suma las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo
N = Número de participantes por grupo.

Ejercicio

Un fabricante de medicinas ha producido una medicina para el pie de


atleta que puede tomarse en forma de píldoras. Cuando la compañía somete los
resultados de sus investigaciones referentes a la medicina, a la asociación de
comida y medicamentos, la solicitud es

230 Sofía Rivera Aragón


Mirna García Méndez
objetada. Un químico del gobierno nota que la fórmula para la nueva medicina
y la de las tabletas de sal son muy similares. Sospechándose la posibilidad de
efectos secundarios tales como sed exagerada, hace que se mantenga en espera
la solicitud hasta una nueva investigación experimental.
El problema que deben resolver los químicos de la compañía, en este
momento, no es que las pastillas curen o no el pie de atleta, sino el ver si estas
pastillas causan mucha sed a las personas.
Se realizó un nuevo experimento para poner a prueba la hipótesis de que el
gobierno está equivocado en su apreciación. Tres condiciones (niveles) son
usadas para representar cada una de las magnitudes del problema. Una de las
dimensiones es la cantidad de la nueva droga que toma el paciente, y los tres
niveles son designados:

0 unidades
1 unidades
4 unidades

Debido a que antes se había observado que la eficiencia del medicamento


varía con la edad del consumidor, una segunda dimensión, la edad, fue usada
en el diseño y sus niveles fijados a los:

20 años
40 años
60 años

La variable dependiente, medida de la respuesta de la sed, es el número de


vasos de agua que el sujeto dice haber bebido en el día del experimento. Se
usan dos personas en cada una de las nueve celdillas del diseño. Los
participantes con 0 medicamentos tomaron un placebo (píldora de azúcar). No
se les dijo a los participantes el propósito del experimento hasta que terminó el
día. Los datos de los 18 participantes en los nueve grupos, pueden verse en la
siguiente tabla:

Estadística paramétrica 231


CALIFICACIONES DEL EXPERIMENTO CON MEDICAMENTOS

Dosis Edad 20 Edad 40 Edad 60

4 unidades 6 4 2
4 3 1
∑X1=10 ∑X2=7 ∑X3=3 ∑f1=20
2 unidades 2 2 2
4 3 2
∑X4 =6 ∑X5=5 ∑X6 =4 ∑f2=15
0 unidades 1 2 5
0 1 4
∑X7 =1 ∑X8 =3 ∑X9=9 ∑f4=13
∑C1 =17 ∑C2 =15 £ c3= 16 £ total 48

Hay N = 2 participantes por celdilla, cada celdilla representa una


combinación particular de dos dimensiones del diseño. El procedimiento a
seguir es el mismo, lo único que cambia es el número de categorías en las
variables.

TABLA DE PROCEDENCIA FINAL EN EL EXPERIMENTO DEL ANÁLISIS DE


MEDICAMENTO

Fuente de Variación se gi MC F

Intergrupos 35.00 8 4.37 5.60


Medicamento (M) 4.33 2 2.17 2.78
Edad (E) .33 2 0.17 0.22
MxE 30.33 4 7.58 9.72*
Intragrupos (error) 7.00 9 0.78
Total 42.00 17

* P ≤ .05.

En este caso no hubo diferencias por efectos principales, solo en la inte-


racción ya que de acuerdo a la regla de decisión la razón, F de tablas es: 4.26
para llegar al nivel de significancia de 0.05 con 2 y 9 gl. De acuerdo con la regla
de decisión 9.72 > 4.26  H1 se acepta, es decir hay una interacción entre el
medicamento y la edad para predecir el consumo de vasos de agua.

Sofía Rivera Aragón


232 Mirna García Méndez
Ejercicio SPSS

Con la finalidad de conocer si existen diferencias entre hombres y mujeres y


por ocupación en el estilo autoritario y el estilo laissez faire, así como si estas dos
variables interactúan para predecir estos estilos (Cruz, 2002) se aplicó el Anova
factorial.
Se plantearon las siguientes hipótesis:
Efecto principal sexo:

Ho No existen diferencias estadísticamente significativas en los estilos de


poder entre hombres y mujeres.
H1. Sí existen diferencias estadísticamente significativas en los estilos de
poder entre hombres y mujeres.

Efecto principal ocupación:

Ho No existen diferencias estadísticamente significativas en los estilos de


poder de acuerdo con la ocupación del participante.
H1. Sí existen diferencias estadísticamente significativas en los estilos de
poder de acuerdo con la ocupación del participante.

Interacción:

Ho. No habrá interacción entre sexo y ocupación.


H1. Habrá interacción entre sexo y ocupación.

Posteriormente una vez capturados los datos, se siguieron los pasos que a
continuación se encuentran:
Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del
mouse.

Estadística paramétrica 233


Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en
General Lineal Model se da clic y aparece otro menú, se coloca el cursor en Univariate y
se da clic.

Sofía Rivera Aragón


234 Mirna García Méndez
Paso 3. Al hacer clic en Univariate, se abre un menú que contiene las variables de
la investigación.

Paso 4. Las variables de estilos de poder se marcan con el cursor, se da clic en


el icono que está entre las variables de estudio y la siguiente ventana. Se pasan las
variables seleccionadas a la ventana vacía (dependent variables) donde se colocan las
variables dependientes y la variable de clasificación que en este caso son el sexo y
la ocupación, se les coloca donde están los factores (fixed factores).

Estadística paramétrica 235


Una vez definidas las variables, se da clic en OK y se muestra el
resultado del Anova factorial.14 La tabla 38 muestra los resultados
del Anova que son los que indican el valor de la prueba, el nivel de signi-

TABLA 38
ANOVA FACTORIAL

Case Processing Summary


Cases
Included Excluded Total
N Percent N Percent N Percent

269 90.6 28 9.4 297 100.0

Cell Means

Sexo Ocupación Stiauto N

Mean

Masculino 1 3.5235 17
2 3.8440 25
3 3.7089 15
4 3.5907 25
5 3.7708 24
Total 3.6972 106
Femenino 1 3.8222 27
2 3.8385 32
3 4.0524 28
4 3.8395 43
5 3.8848 33
Total 3.8822 163
Total 1 3.7068 44
2 3.8409 57
3 3.9326 43
4 3.7480 68
5 3.8368 57
Total 3.8093 269
a Grand Mean
b Stiauto by Sexo, Ocupación.

14 Con fines didácticos se muestran los resultados del Anova simple, tal como los

reporta el SPSS, sin embargo, nunca se presentan así en un reporte de investigación.

Sofía Rivera Aragón


236 Mirna García Méndez
Anova
Experimental Mean F Sig.
Method Sum of Square
Squares df

Stiauto Main Effects (Combined) 3,690 5 ,738 1,438 ,211


Sexo 2,220 1 2,220 4,325 ,039
Ocupación 1,491 4 ,373 726 ,575
2-Way Interactions Sexo * Ocupación 1,024 4 ,256 ,499 ,737
Model 4,714 9 ,524 1,021 ,424
Residual 132,928 259 ,513
Total 137,642 268 ,514

a Stiauto by Sexo, Ocupación

ficancia, el número de participantes considerados para el análisis, así como


los grados de libertad y el valor de la diferencia entre varianzas. Estos datos
deberán ser interpretados por el investigador, y de esta forma, responder a
las preguntas e hipótesis de investigación.

Reporte de investigación del


análisis factorial de
varianza

Para poder comprobar las hipótesis que se plantearon de si existen di-


ferencias por sexo y ocupación (variables de clasificación), así como en la
interacción de las mismas (sexo por ocupación), con respecto a los factores
de la escala estilos de poder (variables dependientes) se aplicó un análisis
factorial de varianza (Cruz, 2002). A continuación se mostrarán dos ejemplos
referentes al análisis realizado: en el primer ejemplo (factor autoritario) se
muestran una interacción significativa entre las variables de sexo por
ocupación. En el segundo ejemplo (factor laissez faire) se muestra un efecto
principal por ocupación y una interacción significativa.
De acuerdo con la tabla 39, podemos observar que para el
factor autoritario se encuentra una interacción significativa, en la que los
hombres que se perciben como más ásperos, violentos y bruscos son
los empleados con profesión, observando que la media más baja

Estadística paramétrica 237


la reportan los estudiantes. Sin embargo, todas las medias se observan por
debajo de la media teórica. Mientras que las mujeres que se perciben como más
ásperas y violentas son las empleadas con carrera técnica, la media más baja se
observa en las empleadas con profesión. Cabe resaltar que todas las medias se
encuentran por debajo de la media teórica. Con respecto a los efectos
principales por sexo y ocupación no se presentaron diferencias significativas
(véase tabla 39).

TABLA 39
ANÁLISIS DE VARIANZA PARA EL FACTOR AUTORITARIO

Media
Media Teórica F P
Autoritario Sexo
Hombres Mujeres
2.81 2.94 4 .986 .322
Ocupación
Empl. Empl. Empl.
Prof. Carr.Téc Oficio Estud. Hogar
2.88 3.06 3.26 2.83 2.69 4 .691 .599
interacción
Hombres Mujeres
Empleado c/
Profesión 3.00 2.71
Empleado c/
Carrera Técnica 2.96 3.11
Empleado c/ Oficio 2.83 2.87
Estudiantes 2.42 3.04
Hogar - 4 3.263 .022*

*p ≤ 0.05.

Con respecto al factor laissez faire, los resultados mostraron un efecto


principal por ocupación y en la interacción. Los estudiantes se perciben como
más permisivos y abiertos. La media más baja en este factor se encuentra en los
empleados con carrera técnica, no obstante esta diferencia, todos los grupos se
encuentran por arriba de la media teórica.

Sofía Rivera Aragón


238 Mirna García Méndez
Con respecto a la interacción en este mismo factor, se observa que los hombres
que se perciben como más liberales, permisivos y comprometidos, son los
empleados con oficio. La media más baja para el grupo de los hombres, fue
reportada por los empleados con profesión, sin embargo, pese a esta diferencia,
todas las medias están por debajo de la media teórica. Las mujeres que se
perciben como más abiertas, liberales y comprometidas son las estudiantes. La
media más baja se encuentra en el grupo de las empleadas con oficio, no
obstante esta diferencia, todas las medias se encuentran por arriba de la media
teórica. Finalmente en los efectos principales por sexo no existieron diferencias
significativas (véase tabla 40).

TABLA 40
ANÁLISIS DE VARIANZA PARA EL FACTOR LAISSES FAIRE

Media Media F P
teórica
Laisses Sexo
Faire Hombres Mujeres
5.37 5.25 4 1.067 .303
Ocupación
Empl. Empl. Empl.
Prof. Carr.Téc. Oficio Estud. Hogar
5.24 4.92 5.10 5.53 5.00 4 3.92 .004**
Interacción
Hombres Mujeres
Empleado c/
Profesión 5.22 5.26
Empleado c/
Carrera Técnica 5.51 4.59
Empleado c/ Oficio 5.75 4.66
Estudiantes 5.45 5.57
Hogar - - 4 3.80 .011*

*p ≤ 0.05, **p ≤ 0.01.

Estadística paramétrica 239


Apéndice
Tabla A
VALORES CRÍTICOS DE CHI CUADRADA

gl Probabilidad conforme a H0 de que X2 ≥ chi cuadrada


.99 .98 .95 .90 .80 .70 .50 .30 .20 .10 .05 .02
.01 .001
1 .00016. .00003 .0039 .016 .064 .15 .46 1.07 1.64 2.71 3.84 5.41 6.64 10.83
2 .02 .04 .10 .21 .45 .71 1.39 2.41 3.22 4.60 5.99 7.82 9.21 13.82
3 .12 .18 .35 .58 1.00 1.42 2.37 3.66 4.64 6.25 7.82 9.84 11.34 16.27
4 .30 .43 .71 1.06 1.65 2.20 3.36 4.88 5.99 7,78 4.49 11.67 13.28 18.46
5 .55 .75 1.14 1.61 2.34 3.00 4.35 6.06 7.29 9.24 11.07 13.39 15.09 20.52
.87 1.13 1.64 2.20 3.07 3.83 5.35 7.23 8.56 10.64 12.59 15.03 16.81 22.46
6
7 1.24 1.56 2.17 2.83 3.82 4.67 6.35 8.38 9.80 14.07 16.62 18.48 24.32
12..02
8 1.65 2.03 2.73 3.49 4.59 5.53 7.34 9.52 11.03 13.36 15.51 18.17 20.09 26.12
9 2.09 2.53 3.32 4.17 5.38 6.39 8.34 10.66 12.24 14.68 16.92 19.68 21.67 27.88
10 2.56 3.06 3.94 4.86 6.18 7.27 9.34 11.78 13.44 15.99 18.31 21.16 23.21 29.59
11 3.05 3.61 4.58 5.58 6.99 8.15 10.34 12.90 14.63 17.28 19.68 22.62 24.72 31.26
12 3.57 4.18 5.23 6.30 7.81 9.03 11.34 14.01 15.81 18.55 21.03 24.05 26.22 32.91
13 4,11 4.76 5.89 7.04 8.63 9.93 12.34 15.12 16.98 19.81 22.36 25.47 27.69 34.53
14 4.66 5.37 6.57 7.79 9.47 10.82 13.34 16.22 18.15 21.06 23.68 26.87 29.14 36.12
15 5.23 5.98 7.26 8.55 10.31 11.72 14.34 17.32 19.31 22.31 25.00 28.26 30.58 37.70
16 5.81 6.61 7.96 9.31 11.15 12.62 15.34 18.42 20.46 23.54 26.30 29.63 32.00 39.29
17 6,41 7.26 8.67 10.08 12.00 13.53 16.34 19.51 21.62 24.77 27.59 31.00 33.41 40.75
18 7.02 7.91 9.39 10.86 12.86 14.44 17.34 20.60 22.76 25.99 28.87 32.35 34.80 42.31
19 7.63 8.57 10.12 11.65 13.72 15.35 18.34 21.69 23.90 27.20 30.14 33.69 36.19 43.82
20 8.26 9.24 10.85 12.44 14.58 16.27 19.34 22.78 25.04 28.41 31.41 35.02 37.57 45.32
21 8.90 9.92 11.59 13.24 15.44 17.18 20.34 23.86 26.17 29.62 32.67 36.34 38.93 46.80
22 9.54 10.60 12.34 14.04 16.31 18.10 21.24 24.94 27.30 30.81 33.92 37.66 40.29 48.27
23 10.20 11.29 13.09 14.85 17.19 19.02 22.34 26.02 28.43 32.01 35.17 38.97 41.64 49.73
24 10.86 11.99 13.85 15.66 18.06 19.94 23.34 27.10 29.55 33.20 36.42 40.27 42.98 51.18
25 11.52 12.70 14.61 16.47 18.94 20.87 24.34 28.17 30.68 34.38 37.65 41.57 44.31 52.62
26 12,20 13.41 15.38 17.29 19.82 21.79 25.34 29.25 31.80 35.56 38.88 42.86 45.64 54.05
27 12.88 14.12 16.15 18.11 20.70 22.72 26.34 30.32 32.91 36.74 40.11 44.14 46.96 55.48
28 13.56 14.85 16.93 18.94 21,59 23.65 27.34 31.39 34.03 37,92 41.34 45.42 48.28 56.89
29 14.26 15.57 17.71 19.77 22.48 24.58 28.34 32.46 35.14 39.09 42.56 46.69 49.59 58.80
30 14.95 16.31 18.49 20.60 23.36 25.51 29.34 33.53 36.25 40.26 43.77 47.96 50.89 59.70

Fuente: S. Siegal y N.J. Castelan (2003), Estadística no paramétrica. Aplicada a las ciencias de la
conducta, 3a. reimp., México, Trillas.
T ABLA B
TABLA DE VALORES CRÍTICOS DE T EN LA PRUEBA DE LOS RANGOS SEÑALADOS
DE PARES IGUALADOS DE WILCOXON

Nivel de significación para prueba de una cola

.025 .01 .005


Nivel de significación para prueba de dos colas

.05 .02 .01


N
~ _
6 0
7 2 0 -

8 4 2 0
9 6 3 2
10 8 5 3
11 11 7 5
12 14 10 7
13 17 13 10
14 21 16 13
15 25 20 16
16 30 24 20
17 35 28 23
18 40 33 28
19 46 38 32
20 52 43 38
21 59 49 43
22 66 56 49
23 73 62 55
24 81 69 61
25 89 77 68
Fuente: N.M. Downie y R.W Heat (1973), Métodos estadísticos aplicados, México, Harla.

Sofía Rivera Aragón


244 Mirna García Méndez
T ABLA C
VALORES CRÍTICOS DE U DE MANN WHITNEY.
Valores críticos de U en un contraste unilateral al .005
y en un contraste bilateral al .002

n1 n2 10 11 12 13 14 15 16 17 18 19 20
9

1
2
3 0 0 0 0
4 0 0 0 1 1 1 2 2 3 3 3
5 1 1 2 2 3 3 4 5 5 6 7 7
6 2 3 4 4 5 6 7 8 9 10 11 12
7 3 5 6 7 8 9 10 11 13 14 15 16
3 5 5 8 9 11 12 14 15 17 18 20 21
9 7 8 10 12 14 15 17 19 21 23 25 26
10 7 10 12 14 17 19 21 23 25 27 29 32
11 10 12 15 17 20 22 24 27 29 32 34 37
12 12 14 17 20 23 25 28 31 34 37 40 42
13 14 17 20 23 26 29 32 35 38 42 45 48
14 15 19 22 25 29 32 36 39 43 46 50 54
15 17 21 24 28 32 36 40 43 47 51 55 59
16 19 23 27 31 35 39 43 48 52 56 60 65
52 57 61 66 70
17 21 25 29 34 38 43 47
56 61 66 71 76
18 23 27 32 37 42 46 51
60 66 71 77 82
19 25 29 34 40 45 50 55
65 70 76 82 88
20 26 32 37 42 48 54 59

Valores críticos de U en un contraste unilateral al .01


y en un contraste bilateral al .02
n1 n2 10 11 12 13 14 15 16 17 18 19 20
9

1
2 0 0 0 0 0 0 1 1
3 1 1 1 2 2 2 3 3 4 4 4 5
4 3 3 4 5 5 6 7 7 8 9 9 10
5 5 6 7 8 9 10 11 12 13 14 15 16
6 7 8 9 11 12 13 15 16 18 19 20 22
7 9 11 12 14 16 17 19 21 23 24 26 28
3 11 13 15 17 20 22 24 26 28 30 32 34
9 14 16 18 21 23 26 28 31 33 36 38 40

Apéndice 245
TABLA C (Continuación)

n2
n1 9 10 11 12 13 14 15 16 17 18 19 20
10 16 19 22 24 11 30 33 36 38 41 44 47
11 18 22 25 28 31 34 37 41 44 47 50 53
12 21 24 28 31 35 38 42 46 49 53 56 60
13 23 27 31 35 39 43 47 51 55 59 63 67
14 26 30 34 38 43 47 51 56 60 65 69 73
15 28 33 37 42 47 51 56 61 66 70 75 80
16 31 36 41 46 51 56 61 66 71 76 82 87
17 33 38 44 49 55 60 66 71 77 82 88 93
18 36 41 47 53 59 65 70 76 82 88 94 100
19 38 44 50 56 63 69 75 82 88 94 101 107
20 40 47 53 60 67 73 80 87 93 100 107 114
Fuente: N.M. Downie y R.W. Heat (1973), Métodos estadísticos aplicados. México, Harla.

Valores críticos de U en un contraste unilateral al .025


y en un contraste bilateral al .05

n2
n1 9 10 11 12 13 14 15 16 17 18 19 20

1
2 0 0 0 1 1 1 1 1 2 2 2 2
3 2 3 3 4 4 5 5 6 6 7 7 8
4 4 5 6 7 8 9 10 11 11 12 13 13
5 7 8 9 11 12 13 14 15 17 18 19 20
6 10 11 13 14 16 17 19 21 22 24 25 27
7 12 14 16 18 20 22 24 26 28 30 32 34
8 15 17 19 22 24 26 29 31 34 36 38 41
9 17 20 23 26 28 31 34 37 39 42 45 48
10 20 23 26 29 33 36 39 42 45 48 52 55
11 23 26 30 33 37 40 44 47 51 55 58 62
12 26 29 33 37 41 45 49 53 57 61 65 69
13 28 33 37 41 45 50 54 59 63 67 72 76
14 31 36 40 45 50 55 59 64 67 74 78 83
15 34 39 44 49 54 59 64 70 75 80 85 90
16 37 42 47 53 59 64 70 75 81 86 92 98
17 39 45 51 57 63 67 75 81 87 93 99 105
18 42 48 55 61 67 74 80 86 93 99 106 112
19 45 52 58 65 72 78 85 92 99 106 113 119
20 48 55 62 69 76 83 90 98 105 112 119 127

Sofía Rivera Aragón


246
Mirna García Méndez
Valores críticos de U en un contraste unilateral al .05
y en un contraste bilateral al. 10
ni n2 10 11 12 13 14 15 16 17 18 19 20
9
1 0 0
2 1 1 1 2 2 2 3 3 3 4 4 4
3 3 4 5 5 6 7 7 8 9 9 10 11
4 6 7 8 9 10 11 12 14 15 16 17 18
5 9 11 12 13 15 16 18 19 20 22 23 25
6 12 14 16 17 19 21 23 25 26 28 30 32
7 15 17 19 21 24 26 28 30 33 35 37 39
8 18 20 23 26 28 31 33 36 39 41 44 47
9 21 24 27 30 33 36 39 42 45 48 51 54
10 24 27 31 34 37 41 44 48 51 55 58 62
11 27 31 34 38 42 46 50 54 57 61 65 69
12 30 34 38 42 47 51 55 60 64 68 72 77
13 33 37 42 47 51 56 61 65 70 75 80 84
14 36 41 46 51 56 61 66 71 77 82 87 92
15 39 44 50 55 61 66 72 77 83 88 94 100
16 42 48 54 60 65 71 77 83 89 95 101 107
17 45 51 57 64 70 77 83 89 96 102 109 115
18 48 55 61 68 75 82 88 95 102 109 116 123
19 51 58 65 72 80 87 94 101 109 116 123 130
20 54 62 69 77 84 92 100 107 115 123 130 138

Tabla D
TABLA DE PROBABILIDADES ASOCIADAS CON VALORES TAN GRANDES COMO
VALORES OBSERVADOS DE H EN EL ANÁLISIS DE VARIANZA DE UNA CLASIFICACIÓN
POR RANGOS DE KRUSKAL WALLIS

Tamaño de muestras H Tamaño de muestras H P

n1 n2 n3 p n1 n2 n3

2 1 1 2.7000 .500 4 3 2 6.4444 .008


2 2 1 3.6000 .200 6.3000 .011
2 2 2 4.5714 .067 5.4444 .046
3.7143 .200 5.4000 .051
3 1 1 3.2000 .300 4.5111 .098
3 2 1 4.2857 .100 4.4444 .102
3.8571 .133 4 3 3 6.7455 .010
3 2 2 5.3572 .029 6.7091 .013

Apéndice 247
TABLA D (Continuación)

Tamaño de muestras H P Tamaño de muestras H P

n1 n2 n3 n1 n2 n3

4.7143 .048 5.7909 .046


4.5000 .067 5.7273 .050
4.4643 .105 4. 7091 .092
3 3 1 5.1429 .043 4.7000 .101
4.5714 .100 4 4 1 6.6667 .010
4.0000 .129 6. 1667 .022
3 3 2 6.2500 .011 4.9667 .048
5.3611 .032 4.8667 .054
5.1389 .061 4.1667 .082
4.5556 .100 4.0667 .102
4.2500 .121 4 4 2 7.0364 .006
3 3 3 7.2000 .004 6.8727 .011
6.4889 .011 5.4545 .046
5.6889 .029 5.2364 .052
5.6000 .050 4.5545 .098
5.0667 .086 4.4455 .103
4.6222 .100 4 4 3 7.1439 .010
4 1 1 3.5714 .200 7.1364 .011
4 2 1 4.8214 .057 5.5985 .049
4.5000 .076 5.5758 .051
4.0179 .114 4.5455 .099
4 2 2 6.0000 .014 4.4773 .102
5.3333 .033 4 4 4 7.6538 .008
5.1250 .052 7.5385 .011
4.4583 .100 5.6923 .049
4.1667 .105 5.6538 .054
4 3 1 5.8333 .021 4.6539 .097
5.2083 .050 4.5001 .104
5.0000 .057 5 1 1 3.8571 .143
4.0556 .093 5 2 1 5.2500 .036
3.8889 .129 5.0000 .048
4.4500 .071
4.2000 .095
4.0500 .119
5 2 2 6.5333 .008 5 4 4 7.7604 .009
6.1333 .013 7.7440 .011
5.1600 .034 5.6571 .049
5.0400 .056 5.6176 .050
4.3733 .090 4.6187 .100

Sofía Rivera Aragón


248 Mirna García Méndez
Tamaño de muestras H P Tamaño de muestras H P

n1 n2 n3 n1 n2 n3

4.2933 .122 4,5527 .102


5 3 1 6.4000 .012 5 5 1 7.3091 .009
4.9600 .048 6.8364 .011
4.8711 .052 5.1273 .046
4.0178 .095 4.9091 .053
3.8400 .123 4.1091 .086
5 3 2 6.9091 .009 4.0364 .105
6.8218 .010 5 5 2 7.3385 .010
5. 2509 ,049 7.2692 .010
5.1055 .052 5.3385 .047
4.6509 .091 5.2462 .051
4.4945 .101 4.6231 .097
5 3 3 7.0788 .009 4.5077 .100
6.9818 .011 5 5 3 7.5780 .010
5.6485 .049 7.5429 .010
5.5152 .051 5.7055 .046
4.5333 .097 5.6264 .051
4.4121 .109 4.5451 .100
5 4 1 6.9545 .008 4.5363 .102
6.8400 .011 5 5 4 7.8229 .010
4.9855 .044 7.7914 .010
4.8600 .056 5.6657 .049
3.9873 .098 5.6429 .050
3.9600 .102 4.5229 .099
5 4 2 7.2045 .009 4.5200 .101
7.1182 .010 5 5 5 8.0000 .009
5.2727 .049 7.9800 .010
5.2682 .050 5.7800 .049
4.5409 .098 5.6600 .051
4.5182 .101 4.5600 .100
5 4 3 7.4449 .010 4.5000 .102
7.3949 .011
5.6564 .049
5.6308 .050
4,5487 .099
4.5231 .103
Fuente: S. Siegal y N.J Castelan (2003), Estadística no paramétrica. Aplicada a las ciencias de la
conducta, 2a. ed., 3a. reimp., México, Trillas.

Apéndice 249
T ABLA E
VALORES CRÍTICOS DE R
Valores de r al nivel de confianza de 0.05 y 0.01

gl .05 .01

1 .99692 .999877
2 .95000 .990000
3 .8783 .95873
4 .8114 .91720
5 .7545 .8745
ó .7067 .8343
7 .6664 .7977
8 .6319 .7646
9 .6021 .7348
10 .5760 .7079
11 .5529 .6835
12 .5324 .6614
13 .5139 .6411
14 .4973 .6226
15 .4821 .6055
16 .4683 .5897
17 .4555 .5751
18 .4438 .5614
19 .4329 .5487
20 .4227 .5368
25 .3809 .4869
30 .3494 .4487
35 .3246 .4182
40 .3044 .3932
45 .2875 .3721
50 .2732 .3541
60 .2500 .3248
70 .2319 .301 7
80 .2172 .2830
90 .2050 .2673
Fuente: I. Levin y W.C. Levin (2002), Fundamentos de estadística en la investigación social, 2a.
ed., México, Oxford.

Sofía Rivera Aragón


250 Mirna García Méndez
T ABLA F
VALORES CRÍTICOS DE T
Valores de t al nivel de confianza de 0.05 y 0.01

gi .05 .01
i 12.706 63.657
2 4.303 9.925
3 3.182 5.841
4 2.776 4.604
5 2.571 4.032
6 2.447 3.707
7 2.365 3.499
8 2.306 3.355
9 2.262 3.250
10 2.228 3.169
11 2.201 3.106
12 2.179 3.055
13 2.160 3.012
14 2.145 2.977
15 2.131 2.947
16 2.120 2.921
17 2.110 2.898
18 2.101 2.878
19 2.093 2.861
20 2.086 2.845
21 2.080 2.831
22 2.074 2.819
23 2.069 2.807
24 2.064 2.797
25 2.060 2.787
26 2.056 2.779
27 2.052 2.771
28 2.048 2.763
29 2.045 2.756
30 2.042 2.750
40 2.021 2.704
60 2.000 2.660
120 1.980 2.617
OO
1.960 2.576
Fuente: J. Levin y W.C. Levin (2002), Fundamentos de estadística en la investigación social. 2a.
ed., México, Oxford.

Apéndice 251
T ABLA G
VALORES CRÍTICOS DE E
Valores de F al nivel de confianza de .05 y .01

gl 1 2 3 4 5 6 8 12

(gl para el numerador) P = .05


(gl para el 1 161.4 199.5 215.7 224.6 230.2 234. 238.9 243.9
denominador) 2 18.51 19.00 19.16 19.25 19.30 19.3 19.37 19.41
3 10.13 9.55 9.28 9.12 9.01 8,94 8.84 8.74
4 7.71 6.94 6.59 6.39 6.26 6.16 6.04 5.91
5 6.61 5.79 5.41 5.19 5.05 4.95 4.82 4.68
6 5.99 5.14 4.76 4.53 4.39 4.28 4.15 4.00
7 5.59 4.74 4.35 4.12 3.97 3,87 3.73 3.57
8 5.32 4.46 4.07 3.84 3.69 3.58 3.44 3,28
9 5.12 4.26 3.86 3.63 3.48 3.37 3.23 3.07
10 4.96 4.10 3.71 3.48 3.33 3.22 3.07 2.91
11 4.84 3,98 3.59 3.36 3.20 3.09 2.95 2.79
12 4.75 3.88 3.49 3.26 3.11 3.00 2,85 2.69
13 4.67 3.80 3.41 3.18 3.02 2.92 2,77 2.60
14 4.60 3.74 3.34 3.11 2.96 2.85 2.70 2.53
15 4.54 3.68 3.29 3.06 2.90 2.79 2.64 2.48
16 4.49 3.63 3.24 3.01 2,85 2.74 2.59 2.42
17 4.45 3.59 3.20 2.96 2.81 2.70 2.55 2.38
18 4.41 3.55 3.16 2.93 2.77 2.66 2.51 2.34
19 4.38 3.52 3.13 2.90 2.74 2.63 2.48 2,31
20 4.35 3.49 3.10 2.87 2.71 2.60 2.45 2,28
21 4.32 3.47 3.07 2.84 2.68 2.57 2.42 2.25
22 4.30 3.44 3.05 2.82 2.66 2.55 2.40 2.23
23 4.28 3.42 3.03 2.80 2.64 2.53 2,38 2.20
24 4.26 3.40 3.01 2.78 2.62 2.51 2.36 2.18
25 4.24 3.38 2.99 2.76 2.60 2.49 2.34 2.16
26 4.22 3.37 2.98 2.74 2.59 2.47 2.32 2.15
27 4.21 3.35 2.96 2.73 2.57 2.46 2.30 2.13
28 4.20 3.34 2.95 2.71 2.56 2.44 2.29 2.12
29 4.18 3.33 2.93 2.70 2.54 2.43 2.28 2,10
30 4.17 3.32 2.92 2.69 2.53 2.42 2.27 2.09
40 4.08 3.23 2.84 2.61 2.45 2.34 2.18 2.00
60 4.00 3.15 2.76 2.52 2.37 2.25 2.10 1.92
120 3.92 3.07 2.68 2.45 2,29 2.17 2.02 1.83
OO
3.84 2.99 2.60 2.37 2.21 2.09 1.94 1.75

Fuente: J. Levin y W.C. Levin (2002), Fundamentos de estadística en la investigación social, 2a.
ed., México, Oxford.

Sofía Rivera Aragón


252
Mirna García Méndez
gl 1 2 3 4 5 6 8 12

(gl para el numerador) P = .01


(gl para el 1 4052 4999 5403 5625 5764 5859 5981 6106
denominador) 2 98.49 99.01 99.17 99.25 99.30 99.33 99.36 99.42
3 34.12 30.81 29.46 28.71 28.24 27.91 27.49 27.05
4 21.20 18.00 16.69 15.98 15.52 15.21 14.80 14.37
5 16.26 13.27 12.06 11.39 10.97 10.67 10.27 9.89
6 13.74 10.92 9.78 9.15 8.75 8.47 8.10 7.72
7 12.25 9.55 8.45 7.85 7.46 7.19 6.84 6.47
8 11.26 8.65 7.59 7.01 6.63 6.37 6.03 5.67
9 10.56 8.02 6.99 6.42 6.06 5.80 5.47 5.11
10 10.04 7.56 6.55 5.99 5.64 5.39 5.06 4.71
11 9.65 7.20 6.22 5.67 5.32 5.07 4.74 4.40
12 9.33 6.93 5.95 5.41 5.06 4.82 4.50 4.16
13 9.07 6.70 5.74 5.20 4.86 4.62 4.30 3.96
14 8.86 6.51 5.56 5.03 4.69 4.46 4.14 3.80
15 8.68 6.36 5.42 4.89 4.56 4.32 4.00 3.67
16 8.53 6.23 5.29 4.77 4.44 4.20 3.89 3.55
17 8.40 6.11 5.18 4.67 4.34 4.10 3.79 3.45
18 8.28 6.01 5.09 4.58 4.25 4.01 3.71 3.37
19 8.18 5.93 5.01 4.50 4.17 3.94 3.63 3.30
20 8.10 5.85 4.94 4.43 4.10 3.87 3.56 3.23
21 8.02 5.78 4.87 4.37 4.04 3.81 3.51 3.17
22 7.94 5.72 4.82 4.31 3.99 3.76 3.45 3.12
23 7.88 5.66 4.76 4.26 3.94 3.71 3.41 3.07
24 7.82 5.61 4.72 4.22 3.90 3.67 3.36 3.03
25 7.77 5.57 4.68 4.18 3.86 3.63 3.32 2.99
26 7.72 5.53 4.64 4.14 3.82 3.59 3.29 2.96
27 7.68 5.49 4.60 4.11 3.78 3.56 3.26 2.93
28 7.64 5.45 4.57 4.07 3.75 3.53 3.23 2.90
29 7.60 5.42 4.54 4.04 3.73 3.50 3.20 2.87
30 7.56 5.39 4.51 4.02 3.70 3.47 3.17 2.84
40 7.31 5.18 4.31 3.83 3.51 3.29 2.99 2.66
60 7.08 4.98 4.13 3.65 3.34 3.12 2.82 2.50
120 6.85 4.79 3.95 3.48 3.17 2.96 2.66 2.34
OO
6.64 4.60 3.78 3.32 3.02 2.80 2.51 2.18

Apéndice 253
Bibliografía
ÁLVAREZ CÁCERES, R. (1995), Estadística multivariante y no paramétrica con SPSS. Aplicación
a las ciencias de la salud, España, Ediciones Díaz de Santos.
BARRAGÁN, L., J. Benavides, A.M. Brugman y E. Lucio (1988), "El uso del wais y
wisc en psicología clínica", en Programa de Publicaciones de Material Didáctico.
Evaluación de la Personalidad, unidad n. Universidad Nacional Autónoma de
México, Facultad de Psicología.
CAÑETAS, S. Rivera y R. Díaz-Loving (2000), "Desarrollo de un instrumento
multidimensional de satisfacción marital", La Psicología Social en México, viii,
pp. 266-274.
CLARK-CARTER, D. (2002), Investigación cuantitativa en psicología, México, Oxford.
CONOVER, W.J. (1980), Practical Nomparametric Statistics, 2a. ed., Nueva York, John
Wiley & Sons.
CORTÉS, S., D. Reyes, R. Díaz-Loving, S. Rivera y J. Monjaraz (1994), "Elaboración
y análisis psicométrico del inventario multifacético de satisfacción marital
(IMSM)". La Psicología Social en México, v, pp. 123-130.
CRUZ del C., C. (2002), Autoconcepto y estilos de poder en la pareja, tesis de licenciatura,
Facultad de Psicología, UNAM.
DÍAZ-LOVING, R. (1999), "Una teoría bio-psico-socio-cultural de la relación de
pareja", en R. Díaz-Loving (comp.), Antología psicosocial de la pareja, México,
Asociación Mexicana de Psicología Social, Miguel Ángel Porrúa.
DOLLAR, J., L. Doob, N.E. Miller, O.H. Mowrer y R.R. Sears (1939), Frustratation and
Agression, Newhaven, Yale University Press.
DOWNIE, N.M, y R.W Heath (1973), Métodos estadísticos aplicados, México, Haría.
KERLINGER, EN. y H.B. Lee (2001), Investigación del comportamiento. Métodos de
investigación en ciencias sociales, 4a. ed., México, McGraw-Hill.

257
NUNNALLY, J.C. e I.J. Bernestein (1995), Teoría psicométríca, 3a. ed., México,
McGraw-Hill.
LEVIN, J. y W.C. Levin (2002), Fundamentos de estadística en la investigación social, 2a.
ed., México, Oxford.
Pavaan, C.G. (2004), Actitud hacia el sida de adolescentes mexicanos, tesis de
licenciatura, Facultad de Psicología, UNAM.
RIVERA, S. y R. Díaz-Loving (2000), La cultura del poder en la pareja, México, Miguel
Ángel Porrúa.
RIVERA, S., R. Díaz-Loving, C. Cruz del Castillo y F Vidal (2004), "Negociación
del conflicto y satisfacción en la pareja", La Psicología Social en México, AMEPSO,
X, pp. 135-140.
ROMERO, A. y S. Rivera (2004), "¿Qué motiva a un hombre y a una mujer a ser
infiel?", La Psicología Social en México, AMEPSO, X, pp. 141-146.
ROMERO, PA. (2003), Historias de amor y la satisfacción en la relación de pareja, tesis de
licenciatura no publicada, México, Facultad de Psicología, Universidad
Nacional Autónoma de México.
ROSA, Jorge la (1986), Escalas de locus de control y autoconcepto, tesis de doctorado en
psicología social no publicada, México, Facultad de Psicología, UNAM.
RUNYON, R. y A. Haber (1987), Estadística para las ciencias sociales, Wilmington,
Delawere, Addison-Wesley Iberoamercana y México, Sistemas Técnicos de
Edición.
SIEGEL, S. y N.J. Castellan (2003), Estadística no paramétrica aplicada a las ciencias de la
conducta, 3a. reimp., México, Trillas.
VARGAS, I. M. García-Méndez, R. Díaz-Loving y S. Rivera (2004), ponencia en el
X Congreso Mexicano de Psicología Social, México, AMEPSO.
VIGANO, D. (1986), Autoritarismo y rendimiento escolar en adolescentes, "tesis
de maestría no publicada, México, Facultad de Psicología,. Universidad
Nacional Autónoma de México.
YOUNG R. y D. Veldman (1983), Introducción a la estadística aplicada a las ciencias de la
conducta, México, Trillas.
ZUNG, W., C. Richards y M. Short (1965), "Self-Rating Depression Scale in an
Outpatient Clinic", Arch Gen Psychiat, 13, pp. 508-515.

Sofía Rivera Aragón


268
Mirna García Méndez
Índice

PRÓLOGO
Rolando Díaz Loving ...................................................................................... 7

INTRODUCCIÓN ...................................................................................................... 11

Capítulo 1
MEDICIÓN ...................................................... ........................................................ 17
Escalas de medición ............................................................................................. 19
Nominal ............................................................................................................ 19
Ordinal .............................................................................................................. 20
Intervalar .................................................................................... ..................... 21
De razón ............................................................................................................ 22

Capítulo 2
ESTADÍSTICA DESCRIPTIVA.................................................................................... 25
Conocer el tipo de distribución ......................................................................... 27
Ejercicio SPSS ................................................................................................... 32
Representación gráfica ............................................. . ........................................ 37
Gráfica de barra ............................................................................................... 38
Gráfica de pastel o de sectores .................... ................................................ 40
Gráfica de histograma ............................................................................. . . 40
Gráfica de ojiva o de polígono de frecuencia acumulada …………… 42
Gráfica de polígonos de frecuencia ...................................................... .. . 43
Obtener medidas de tendencia central …………………………………….. 44
Media ................................................................................................................. 45
Mediana............................................................................................................. 49
Moda .............................................................................................................. .. 50
Ejercicio SPSS ................................................................................................... 51
Calcular medidas de dispersión (variabilidad) ............................................. 53
Rango (R) .......................................................................................................... 53
Desviación estándar ...................................................................................... 54
Varianza (s2 o σ ) ............................................................................................
2
57
Sesgo .................................................................................................................. 58
Curtosis (K) ....................................................................................................... 59
Error estándar (σ o e) ..................................................................................... 61
Ejercicio SPSS ................................................................................................ 62

Capítulo 3
ESTADÍSTICA INFERENCIAL ....................................................................................... 67
Aplicaciones de la estadística inferencial ....................................................... 69
Clasificación de la estadística inferencial ..................................................... 73
No paramétrica ............................................................................................... 73
Ventajas ............................................................................................................ 74
Desventajas .................................................................................................... 74
Paramétrica ...................................................................................................... 76

Capítulo 4
PRUEBAS DE LA ESTADÍSTICA NO PARAMÉTRICA .................................................... 81
Pruebas para una muestra simple ........................................................................ 83
Chi cuadrada (x2) ................................................................................................. 83
Ejercicio SPSS ....................................................................................................... 88
Pruebas para muestras relacionadas .................................................................... 91
McNemar .............................................................................................................. 92
Ejercicio SPSS ....................................................................................................... 96
t de Wilcoxon (tw) ............................................................................................ 100
Ejercicio SPSS ....................................................................................................... 103
Pruebas para muestras independientes ............................................................. 106
U de Mann Whitney (U) .................................................................................. 107
Ejercicio SPSS ....................................................................................................... 111
Análisis de varianza en una dirección por rangos de
KrusKal-Wallis (H) ........................................................................................... 117
Ejercicio SPSS ...................................................................................................120
Chi cuadrada para muestras independientes x 2 .......................................126
Ejercicio x 2 por homogeneidad ...................................................................126
Ejercicio SPSS ...................................................................................................131

Capítulo 5
ESTADÍSTICA PARAMÉTRICA..................................................................................... 137
Características .................................................................................................... 139
Pruebas paramétricas. Prueba de coeficiente de
correlación de producto-momento de Pearson .........................................140
Introducción .............................................................................. . ..................140
Definición .......................................................................................................140
Requisitos ............................................................................................ .. 141
Interpretación .................................................................................................142
Fórmula .................................................................................. ......................144
Regla de decisión para obtener la significancia ......................................145
Ejercicio SPSS ...................................................................................................148
Reporte de investigación de la correlación
producto-momento de Pearson ...............................................................152
t de student .............................................................................................. ......... 152
Introducción ...................................................................................................152
Definición .......................................................................................................154
Requisitos .......................................................................................................154
Clasificación de la prueba t ........................................................................155
Cálculo de t para muestras
independientes con N iguales ................................................................156
Cálculo de t para muestras
independientes con N desiguales ...........................................................161
Ejercicio SPSS .. ...............................................................................................166
Reporte de investigación de la prueba t
para muestras independientes ....................................................................168
Cálculo de t para muestras relacionadas ...................................................171
Ejercicio SPSS ...................................................................................................176
Reporte de investigación de la prueba t
para muestras relacionadas ......................................................................... 180
Análisis de varianza (Anova) ..........................................................................180
Introducción……………………………………………………………………...180
Definición………………………………………………………………………...182
Requisitos………………………………………………………………………...182
Análisis de varianza simple cuando
el tamaño (N) de los grupos es igual .................................................... 184
Análisis de varianza simple para N desiguales ...................................... 191
Ejercicio SPSS .................................................................................................. 199
Reporte de investigación del análisis de varianza simple…………… 203
Análisis de varianza de doble clasificación ............................................ 204
Ejercicio SPSS .................................................................................................. 218
Análisis factorial de varianza ..........................................................................222
Ejercicio SPSS .................................................................................................. 233
Reporte de investigación del análisis factorial de varianza . . . 237

APÉNDICE ................................................................................................................... 241

BIBLIOGRAFÍA ............................................................................................................ 255


ISBN 970-701 -587-X

También podría gustarte