Está en la página 1de 221

IBM

SPSS 24
Avanzado – Para Investigadores
AUMENTA TU PRODUCTIVIDAD
Universidad Continental
Material para fines de Estudio del Programa: IBM SPSS 24 – Nivel Avanzado

Queda prohibida la reproducción total o parcial del contenido de este documento en


cualquiera de sus formas, sean electrónicas o mecánicas, sin el consentimiento previo y por
escrito del autor y el Centro de Educación Continua.
SESIÓN

AL FINALIZAR LA PRESENTE SESIÓN, EL PARTICIPANTE ESTARÁ EN LA CAPACIDAD DE:

 Conocer conceptos básicos de la Estadística, Editar datos con SPSS, importar datos de otras
fuentes de datos y realizar un análisis descriptivo

TEMAS:

ANALISIS EXPLORATORIO Y DESCRIPCION DE DATOS. REPASO.


 Introducción a la Estadística. Editor de datos. Importación de datos. Tablas de
frecuencias, gráficos, medidas de resumen. Diagrama de Tallo y Hojas. Gráficos
de Cajas
INTRODUCCIÓN A LA ESTADÍSTICA

1. DEFINICIÓN
Definir la estadística es una tarea difícil porque tendríamos que definir cada una de las técnicas que
se emplean en los diferentes campos en los que interviene. Sin embargo, diremos, en forma general,
que “La ESTADISTICA es la ciencia que le facilita al hombre el estudio de datos masivos,
proporcionando un conjunto de métodos científicos para recolectar, resumir, clasificar, analizar e
interpretar el comportamiento de los datos con respecto a una característica, materia de estudio o
investigación, pasa de esa manera a sacar conclusiones valederas y efectuar predicciones
razonables de ellos y así mostrar una visión de conjunto clara y de más fácil apreciación con
respecto a la fuente de información que nos permiten tomar decisiones optimas en casos de
incertidumbre”
Estadística: Etimológicamente
El origen etimológico de la palabra “estadística” no está bien determinado, supuesto que existen distintas
opiniones y referencias. Para algunos viene de la voz griega STATERA que significa “balanza”, otros sostienen
que deriva del latín STATUS que significa “situación” mientras que algunos autores afirman que procede del
alemán STAAT que significa “estado” pues era función principal de los gobiernos de los estados establecer
registros de población, nacimientos, defunciones, etc.

2. RAMAS DE LA ESTADÍSTICA
La estadística se divide en dos ramas que no son independientes; por el contrario, son complementarias y entre
ambas dan la suficiente ilustración sobre una posible realidad futura, con el fin de que quien tenga poder de
decisión, tome las medidas necesarias para transformar ese futuro o para mantener las condiciones existentes.
En atención a su metodología, por sus procedimientos y alcances bien definidos, la ciencia estadística se
clasifica en:

1.1. Estadística descriptiva o deductiva:


Se encarga de la recolección, clasificación y descripción de datos muestrales o poblacionales, para su
interpretación y análisis. Su finalidad es obtener información, analizarla, elaborarla y simplificarla y
presentándolos en forma clara; eliminando la confusión característica de los datos preliminares lo
necesario para que pueda ser interpretada cómoda y rápidamente y, por tanto, pueda utilizarse
eficazmente para el fin que se desee.
Permite la elaboración de cuadros, gráficos e indicadores bien calculados; suficientemente claros, como
para disipar las dudas y la oscuridad de los datos masivos.
El análisis se limita en sí mismo a los datos coleccionados y no se realiza generalizaciones acerca de la
totalidad de donde provienen esas observaciones (población).
La Estadística Descriptiva no es más que el trabajo preliminar para el Estadística Inferencial.

1.2. Estadística inferencial o inductiva


La estadística inferencial sobre la base de la muestra estudiada saca conclusiones, o sea, hace
inferencia o inducción, en cuanto al universo o población, de donde se obtuvo dicha muestra,
basándose en los datos simplificados y analizados; detectando las interrelaciones que pueden
unirlos, las leyes que los rigen y eliminando las influencias del azar; llegando más allá de las
verificaciones físicas posibles.
¿Cómo se selecciona la muestra?, ¿cómo se realiza la inferencia?, y ¿qué grado de confianza se puede
tener en ella? son aspectos fundamentales de la estadística inferencial, para cuyo estudio se requiere
un alto nivel de conocimientos de estadística, probabilidad y matemáticas. Comprende la teoría de
estimación y prueba de hipótesis.

3. OBJETIVOS
Los objetivos de la estadística pueden ser clasificados en tres grandes capítulos: descripción, análisis y
predicción.

3.1 Descripción de grandes colecciones de datos empíricos


Reduciéndolos a un pequeño número de características que concentra la parte más importante
y significativa de la información proporcionada por los datos.
La descripción supone que los datos que vienen expresados en su forma natural deben ser clasificados
y presentados sistemáticamente en cuadros o tablas como una pequeña reducción de datos, esto se
obtiene cuando el comportamiento y características de los datos se expresan por un conjunto de
indicadores, medidas de resumen o estadígrafos.
La estadística de inicia estudiando el problema, puesto que es un trabajo preliminar de casi todas las
investigaciones estadísticas; de este modo tanto como la reducción como la descripción de la
información se estudia en la Estadística Descriptiva.
Es importante anotar que la descripción estadística de los fenómenos o hechos es el primer aspecto al
cual se redujo la ciencia estadística durante mucho tiempo, aplicándose especialmente a los datos
demográficos, sociales económicos, etc.

3.2 Análisis estadístico de datos experimentales y de los fenómenos observados, toda la


investigación estadística incluye un problema de análisis, con el objeto de formarse un concepto de
la población o universo y adoptar decisiones; en este caso no es necesario observar toda a una
población sino que será suficiente elegir una muestra representativa. La preocupación del análisis
estadístico es inferir propiedades para una población sobre la base de resultados muestrales
conocidos. Aquí se presenta varios problemas que presentan la Estadística, la estimación estadística,
el cálculo de probabilidades, las pruebas estadísticas, etc. Estos son aspectos que corresponde
esencialmente a la Inferencia Estadística.
Todo análisis debe suponer la elección adecuada de una muestra representativa, la que será estudiada en
detalle para obtener conclusiones o resultados, que dentro de ciertos márgenes de aceptación sean válidas a
toda la población de la cual fue elegida la muestra.

3.3 Predicción o comportamiento de los fenómenos en el futuro, lo cual constituye la máxima aspiración
practica de toda ciencia. Este objetivo de predicción y previsión está implícito tanto en la descripción como en
el análisis estadístico, puesto que en general interesa orientar la toma de decisiones con vigencia y afecto en
el futuro.
Naturalmente que las estimaciones y proyecciones dependen del grado de conocimiento del comportamiento
del pasado y presente de las variables en estudio.
Para concretar estos objetivos, la Estadística se vale por una parte del censo, que recopila datos del todo,
analiza la distribución y variación de las características de los elementos que componen una población
claramente definida; por otra parte del muestreo, que permite estimar o inferir características de un todo
considerando una parte representativa. Basándose en el análisis de experiencias y evaluaciones pasadas y
actuales, hace estimaciones de fenómenos y características para un futuro, propone valores esperados. La
estadística también se vale de una seria de artificios matemáticos y del cálculo de probabilidades, para definir
sobre la validez de supuestos, construir modelos y métodos estadísticos.

2 CONCEPTOS BÁSICOS

2.1 Población
Es el conjunto mayor o colección completa de todos los elementos (puntajes. personas, mediciones, etc.) que posee
al menos una característica común observable, cuyo estudio nos interesa o acerca de los cuales se desea información.
La población debe estar perfectamente definida en el tiempo y en el espacio, de modo que ante la presencia de un
potencial integrante de la misma, se pueda decidir si forma parte o no de la población bajo estudio. Por lo tanto, al definir
una población, se debe cuidar que el conjunto de elementos que la integran quede perfectamente delimitado.
La población puede ser según su tamaño de dos tipos:
Población finita: cuando se tiene un número determinado de elementos.
Población infinita: cuando el número de elementos es indeterminado, o tan grande que pudiese considerarse
infinitos.
Tamaño de la Población: Es el número total de elementos que tiene la población estudiada y se denota con la letra “N”

2.2 Muestra
Es un subconjunto de la población a la cual se le efectúa la medición con el fin de estudiar las propiedades de la
población de la cual es obtenida. Una muestra debe ser representativa, esto es, guarda las mismas características de
la población de donde fue seleccionada y debe ser adecuada en cuanto a la cantidad de elementos que debe tener
con respecto a la población.
Existen diversos métodos para calcular el tamaño de la muestra y también para seleccionar los elementos que la
conforman, pero es importante que sea representativa de la población y sus elementos escogidos al azar para asegurar
la objetividad de la investigación.
Tamaño de muestra: Es el número de elementos de la muestra y se denota con letra “n”

2.3 Dato
Es el valor, respuesta o registro que adquiere una característica o variable asociado a un elemento de la población o
muestra, como resultado de la observación, entrevista o recopilación en general. Puede ser un número, una palabra
o un símbolo.

2.4 Variable
Es una característica estudiada de las unidades estadísticas. Las variables se pueden clasificar en:
a) Variables Cualitativas o Estadísticas de Atributos
Cuando expresan una cualidad, característica o atributo, tiene carácter cualitativo, sus datos se expresan
mediante una palabra, no es numérico.
Por ejemplo; estado civil, los colores, lugar de nacimiento, profesiones, actividad económica, causas de
accidentes, etc.

b) Variables Cuantitativas
Cuando el valor de la variable se expresa por una cantidad, es de carácter numérico. El dato o valor puede
resultar de la operación de contar o medir, por ejemplo; edad, número de hijos por familia, ingresos, viviendas
por centro poblado, niveles de desempleo, producción, utilidades de empresas, etc.
Las variables cuantitativas pueden ser: Discreta y Continua.
- Variable Discreta
Cuando el valor de la variable resulta de la operación de contar, su valor está representado solo por
números naturales (enteros positivos), Ejemplos; hijos por familia, número de accidentes por día,
trabajadores por empresa, población por distritos, habitaciones por vivienda, etc.
- Variable Continua
Cuando la variable es susceptible de medirse, es toda variable cuyo valor se obtiene por medición o
comparación con una unidad o patrón de medida. Las variables continuas pueden tener cualquier valor
dentro de su rango o recorrido, por tanto se expresa por cualquier número real, Ejemplos; área de
parcelas, ingresos monetarios, producción de maíz, peso, estatura, tiempo de servicios, horas
trabajadas, niveles de empleo, etc.

4.5 Escala de Medición de una Variable


- Escala Nominal
Son aquellas variables que establecen la distinción de los elementos en diversas categorías, sin implicar algún
orden entre ellas, distribuye a la unidad de análisis en dos o más categorías. Ejemplos; sexo, estado civil,
deportes de práctica, profesiones, lugar de nacimiento, etc.
- Escala Ordinal
Aquellas variables que implican orden entre sus categorías, pero no grados de distancia igual entre ellas,
están referidas a un orden de jerarquía, donde las categorías expresan una posición de orden. Ejemplo; grado
de instrucción, clases sociales, grado de simpatía, rango de agresividad, orden de mérito, etc.
- Escala de Intervalo
Son aquellas que suponen a la vez orden y grados de distancia iguales entre las diversas categorías, pero no
tienen origen natural, sino convencional, tiene un cero relativo. Por ejemplo; coeficiente de inteligencia,
temperatura, puntuación obtenida en una escala, etc.
- Escala de Razón
Estas variables comprenden a la vez todos los casos anteriores, distinción, orden, distancia y origen único
natural; el valor se expresa con un número real tiene un cero absoluto. Por ejemplo; edad, peso, ingresos,
número de hijos, producción, accidentes de tránsito, etc.
ARCHIVO DE DATOS

4. EDITOR DE DATOS SPSS


Cuando hemos planificado una investigación se ha elaborado el instrumento de recolección de datos
(fuente primara), es de aquí de donde obtenemos las variables que van a ser creadas y utilizadas en
SPSS. Para realizar el ingreso de datos se puede hacer mediante el ingreso de datos directamente al
SPSS o importando los datos de otras bases de datos (Excel, Sql, Acces entre otros).
Para crear un archivo de datos o abrir un archivo de datos ya creado en SPSS siempre se abrirán dos
ventanas: el editor de datos y el visor de resultados

Visor de
Resultados

Editor de
Datos

El editor de datos es el archivo que contiene todas las variables y registros (datos). Mientras que el
Visor de Resultados presenta todos los procesos llevados a cabo con SPSS.

4.1 Editor de datos:


Esta ventana contiene el archivo de datos con el cual se realiza todos los análisis estadísticos.
Su ventana tiene una presentación de hoja de cálculo similar a la de Excel, diseñada para
crear y editar datos SPSS. Contiene una barra de título, barra de menú, barra de
Herramientas, dos hojas (vista de datos y vista de variables) con columnas y filas:

Barra de Menús
1.3.
Variables
Barra de
Herramientas

Casos

Dos Hojas:
Vista de Datos y
Vista de variables

4.2 Creación de variables:


Para crear y definir las variables en SPSS se realiza en la hoja Vista de variables, que contiene
la descripción de los atributos de cada una de ellas.
Esta Vista está dividida de la siguiente manera:
o Filas: se identificas las variables y se puede añadir o eliminar variables.
o Columnas: se encuentran los atributos de las variables mediante la definición del
Nombre de variable, Tipo de datos, Número de dígitos o caracteres, Número de
decimales, Etiquetas, Valor (si están predefinidos), Valores perdidos (definidos por el
usuario), Ancho de columna, Nivel de medida y su Rol.

Atributos de las variables


Variables

A continuación describiremos cada uno de estos:

A. Nombre de la variable :
Para definir el nombre de la variable se realiza en la columna “Nombre”. Se debe aplicar
las siguientes normas:
➢ Cada nombre de variable debe ser único; no se permiten
duplicados.
➢ Los nombres de variable pueden tener una longitud de hasta 64
caracteres y el primer carácter debe ser una letra, Los caracteres
posteriores puede ser cualquier combinación de letras, números
y caracteres que no sean signos de puntuación o signos de
operaciones aritméticas (+ - * /).
➢ Los nombres de variables no pueden contener espacios en blanco.
➢ El sub guión y los caracteres $, # y @ se pueden utilizar dentro de
los nombres de variable. Por ejemplo, A._$@#1 es un nombre de
variable válido.
➢ Las palabras reservadas, como ALL, AND, BY, EQ, GE, GT, LE, LT, NE, NOT, OR, TO y
WITH, no se pueden utilizar como nombres de variable.
➢ Los nombres de variable se pueden definir combinando de cualquier manera
caracteres en mayúsculas y en minúsculas, esta distinción entre mayúsculas y
minúsculas se conserva en lo que se refiere a la presentación.
➢ Cuando es necesario dividir los nombres largos de variable en varias líneas en los
resultados, SPSS intenta dividir las líneas aprovechando los sub guiones, los puntos y
cuando el contenido cambia de minúsculas a mayúsculas.
B. Tipo de variable :
El tipo de variable especifica los tipos de datos de cada variable se define en la columna
“Tipo”. Por defecto se asume que todas las variables nuevas son numéricas. Esto se
puede cambiar: si se elige la celda correspondiente y se hace clic en el Botón de edición:

se abrirá la siguiente ventana, en la cual se elegirá el tipo entre los que se tiene los
siguientes:

30450.362613
30,450.362613

30.450,362613

30.5E04

3-MAY-2010

$30,450.36

Mujer

Cada tipo de variable ayudará a una definición más clara y precisa para los resultados en
los procesos que se efectuarán con SPSS.
En moneda personalizada se pues ingresar una moneda como la nuestra S/. ingresando
al Menú Edición >> Opciones.

C. Ancho lógico:
Se define en la columna “Anchura”. Se identifica el número de caracteres que se pueden
usar para las diferentes categorías en la variable, por ejemplo la Variable Género tiene
dos categorías; Mujer y Varón. Estas dos categorías tienen 5 caracteres por tanto la
anchura debería fijarse en 6.
Pero si la variable se codifica; Mujer = 1 y Varón = 2, entonces se puede usar una anchura
de 2 caracteres.

D. Número de decimales:
En la columna “Decimales” se especifica el número de decimales visibles para las
variables numéricas. En el caso de tratarse de datos de moneda este número se fija
siempre en 02.

E. Etiqueta:
La columna “Etiquetas” sirve para dar una versión más amplia del nombre de la variable.
Se puede hacer Etiquetas de hasta 256 caracteres de longitud pueden contener espacios
y caracteres reservados que no se admiten en los nombres de variable. Estas etiquetas
son las que se muestran en los resultados del procesamiento, entonces cualquier error
en las etiquetas se mostrará en los resultados finales.

F. Valores:
Esta columna “Valores” sirve para codificar las categorías de las variables que están
predeterminadas. Por ejemplo para el caso de la variable Categoría ocupacional una de
sus categorías la hemos precodificado como 1=Directivo a este código se conocen
como Etiquetas de Valor
➢ Las etiquetas de valor pueden ocupar hasta 120 bytes.
➢ Las etiquetas de valor no están disponibles para las variables de cadena larga (una
etiqueta no debe tener más de ocho caracteres en este caso).
Para colocar las etiquetas debes elegir la celda en la columna Etiquetas y luego hacer
clic en el Botón de Edición:
Ejemplo; para la variable Categoría Ocupacional se pueden asignar:
1 = Directivo o profesional liberal

Para permitir que las etiquetas puedan dividirse en dos o más filas cuando se escriban
en los gráficos, se inserta \n en el lugar en el que se quiere que la etiqueta se divida.
Este caracter no se visualiza en los resultados:

G. Perdidos:
Esta columna “Perdidos” nos permite definir
valores o respuestas que SPSS no debe
tomar en cuenta salvo se lo indiquemos. Por
ejemplo si en Etiquetas de Valor 9 significa No
Sabe/No Responde se puede considerar que el
encuestado se niega a responder a la
pregunta y por ello debería declararse como un
Valor perdido
Se pueden introducir hasta tres valores
perdidos (individuales) de tipo discreto o un rango de valores perdidos o un rango más
un valor de tipo discreto.
➢ Sólo pueden especificarse rangos para las variables numéricas o cualitativas de
menos de 8 caracteres.
➢ No se pueden definir valores perdidos para variables de cadena larga (variables de
cadena de más de ocho caracteres).

H. Columnas:
Aquí se puede especificar un número de caracteres para el ancho física de la columna.
Los anchos de columna también se pueden cambiar en la Vista de datos pulsando y
arrastrando los bordes de las columnas.
Los formatos de columna afectan sólo a la presentación de valores en el Editor de datos.
Al cambiar el ancho de columna no se cambia el ancho definido de una variable. Si el
ancho real y definido de un valor es más ancho que la columna, aparecerán asteriscos
(*) en la Vista de datos.

I. Alienación:
Esta columna “Alineación” controla la presentación de los valores de los datos y/o de
las etiquetas de valor en la Vista de datos. La alineación por defecto es a la derecha para
las variables numéricas y a la izquierda para las variables de cadena. Este ajuste sólo
afecta a la presentación en la Vista de datos.

J. Escala de medición :
En la columna “Medida” se puede especificar el la Escala de medición (datos numéricos
de una escala de intervalo o de razón), Ordinal o Nominal. Los datos nominales y
ordinales pueden ser de cadena (alfanuméricos) o numéricos.
Nominal. Una variable cualitativa puede ser tratada como nominal cuando sus
valores representan diferencias entre sus categorías y no obedecen a una ordenación
establecida. Son ejemplos de variables nominales: el género, la región, la confesión
religiosa etc.

Ordinal. Una variable cuantitativa puede ser tratada como ordinal cuando sus
categorías muestran algún orden establecido. Por ejemplo: Los niveles educativos, los
niveles de satisfacción con un servicio, que vayan desde muy insatisfecho hasta muy
satisfecho. Se debe asignar a una variable Numérica Discreta para que las gráficas
correspondan al tipo de variable.

Escala. Una variable puede ser tratada como de escala cuando es cuantitativa (sea
de escala de intervalo o razón). Son ejemplos de variables de escala: la edad en años y
los ingresos en nuevos soles u otras.
K. Rol de la variable:
Esta columna “Rol” sirve para especificar la variable de acuerdo a su rol y
se muestran las opciones:
K.1. Entrada: Se refiere a variables que cumplen el rol de INDEPENDIENTE.
K.2. Objetivo: Aquellas que cumplan el rol de DEPENDIENTE
K.3. Ambos: Variables que cumplen los dos roles.
K.4. Ninguna:
K.5. Partición: Variable que se emplea para dividir en muestras la base de
datos.
K.6. Segmentar: Sirve para dividir los datos y hacer comparaciones entre segmentos
(usado con Marketing directo)

Cada variable puede figurar con roles definidos o no, dado que en algunas funciones se
puede definir de manera directa esto.

5. IMPORTAR DE DATOS DE OTRA BASE DE DATOS


En el caso de que se quiera tomar los datos de otra base de datos por ejemplo hecha en Excel se debe
seguir la siguiente secuencia de pasos:
a. La base datos en Excel debe tener las siguientes características mínimas:
- Debe ser un archivo Excel (en las versiones anteriores solo se reconoce archivos de Excel 97),
de preferencia mantenerlo cerrado al momento de importar.

1ª Fila:
La Primera
fila debe
contener los
nombres de
las Variables

2ª Fila
3ª Fila etc.
Registros de
entrevistado
s
b. Abra una base de Datos Nueva de SPSS (en blanco)
c. Hacer Clic en icono de Abrir documento de datos y se abre el cuadro dialogo Abrir datos y en él
se debe realizar lo siguiente:
Ubicar la
unidad donde
Hacer Clic
se guarda el
en “Abrir
archivo a
documento
exportar
de datos”
“Excel” u otro

2º Seleccionar
el archivo a
importar

1º Seleccionar 3º Clic en
el tipo de botón Abrir
archivo, para
nuestro caso
es Excel

d. Se elige el archivo Excel, clic en abrir:

Debe estar activada esta


opción siempre

Se debe elegir la Hoja de


trabajo donde se
encuentre los datos

Clic en Aceptar

e. Se producirá un nuevo archivo de SPSS conteniendo los datos de la base de datos de Excel:
f. En la hoja Vista de Variables debes editar las propiedades y características de las variables
completando así el trabajo de SPSS

Como se puede ver, se debe editar Tipo, Etiqueta, Valores, Perdidos, Medida, en esta hoja se ven
vacíos o con los valores que le asigna SPSS por defecto.

6. ANÁLISIS DESCRIPTIVO
La siguiente fase a la recolección de datos es la crítica de campo, lo que significa realizar la validación
y consistencia de los datos obtenidos durante el trabajo de campo y durante el ingreso de datos, con
la finalidad que la fase de procesamiento y análisis se realice en forma consistente y veraz ya que sus
resultados permitirán tomar decisiones para nuestra investigación.
El análisis descriptivo de los datos tiene por finalidad la presentación de los datos recopilados
mediante tablas de frecuencias, gráficos estadísticos y medidas de resumen.
En esta parte del curso vamos a describir dos procedimientos SPSS que permiten obtener la
información necesaria para caracterizar tanto variables cuantitativas y cuantitativas: procedimientos
Frecuencias y procedimiento Descriptivos.

6.1 Distribución de Frecuencias


Llamaremos distribución de frecuencias o tabla de frecuencias al arreglo de filas y columnas que
contiene al conjunto de clases junto a las frecuencias correspondientes a cada una de ellas. Una tabla
estadística sirve para clasificar y ordenar los datos estadísticos y puedes ser:
a. Tablas Univariantes o unidimensionales: Se denomina así a las tablas de frecuencias que
presentan información de una sola variable.
b. Tablas bivariantes o bidimensionales: Se denominan así a las tablas que presentan información
de dos variables en forma conjunta.
c. Tablas multivariantes o multidimensionales: Se denominan así a las tablas que presentan
información de más de dos variables en forma conjunta.

Para iniciar la organización de datos definiremos algunos conceptos:


1. Clase: Es una división de la variable. Se denota como subíndice con la letra “i” y el número total de clases
con “m”

2. Frecuencia: Es las veces que se repite una clase de la variable.


Estas son: Simples y Acumuladas
a. Frecuencias Simples: Son aquellas frecuencias que sólo correspondes a una clase.
b. Frecuencias Acumuladas: Aquellas frecuencias que se obtienen por la suma de dos o más clases de
la variable
Estas frecuencias simples y acumuladas también son:
a. Frecuencia Absoluta: Se obtiene por el conteo de datos de esta clase.
b. Frecuencia Relativa: Es el cociente entre las frecuencias absolutas de dicha clase y el número total
de observaciones.
c. Frecuencia Porcentual: Se obtiene como el producto entre las frecuencias relativas de dicha clase
por 100.

6.2 Cuadro y gráficos estadístico


Se utilizan para presentar la información estadística en forma ordenada y de fácil lectura para cualquier
usuario, se presenta en informes finales y tiene las siguientes partes:
a. Título adecuado: Claro y conciso, que responda a las preguntas: ¿Qué relaciona?, ¿cómo?, ¿cuándo?, y
¿dónde se hicieron las observaciones?
b. El cuerpo: o cuadro en sí, donde debe considerar el o los tipos de variables a relacionar, el público a quien
va dirigido y presentarse las frecuencias que sean más necesarias.
c. Notas Explicativas: En ella se presentan aclaraciones respecto a la información que se está presentando.
Esta componente es opcional.
d. Fuente: Corresponde al área de la empresa o institución responsable de la elaboración de la información.

6.3 Medidas descriptivas

El análisis estadístico propiamente dicho, parte de la búsqueda de parámetros sobre los cuales pueda recaer
la representación de toda la información, realizándose esta representación en las medidas descriptivas o
también denominadas medidas de resumen.
Las principales medidas descriptivas se clasifican en: Medidas de Tendencia Central y Posición, Medidas de
Dispersión, Medidas de Asimetría y Medidas de Kurtosis
1. Medidas de tendencia central y posición
Las medidas de tendencia central, llamadas así porque tienden a localizarse en el centro de la información.
De tendencia porque no necesariamente son valores que la distribución presenta, sino valores hacia los
cuales tiende o aproxima.
Centrales porque, normalmente, en el gráfico de frecuencias serán siempre valores medios centrales.
Las medidas de tendencia central responden a la necesidad de describir una colectividad en función de una
sola medida que la caracterice y distinga, ya sea porque son los más frecuentes (moda) o porque alrededor
de ellos se agrupa la mayor parte de la población o muestra (media o mediana).
Las medidas de tendencia central, son también medidas de posición ya que, de todas maneras ocupan un
lugar dentro de la información, los parámetros posicionales son muy útiles en la interpretación porcentual
de la información.
Este tipo de medidas son de gran importancia en el manejo de las técnicas estadísticas, sin embargo, su
interpretación no debe hacerse aisladamente de las medidas de dispersión, ya que la representatividad de
ellas está asociada con el grado de concentración de la información.
Las principales medidas de tendencia central y posición son:

a. Media aritmética
Definida matemáticamente como el cociente entre la suma de todos los valores de la variable y el número
de observaciones.
Media poblacional se simboliza mediante 
Media muestral se simboliza mediante x

Propiedades de la media aritmética


- La suma de las diferencias de los datos con respecto a la media aritmética es igual cero.

- La suma de las diferencias cuadráticas de los datos, con respecto a la Media Aritmética, es mínima.

- La media aritmética de una constante es la misma constante.

- Si a cada uno de los resultados le sumamos o le restamos una constante k , la media aritmética
queda alterada en esa constante.

- Si cada uno de los datos se multiplica por una constante k, entonces la media aritmética queda
multiplicada por esa constante.

- La media aritmética de la suma o diferencia de dos variables es la suma o diferencia de sus medias.

Ventajas de la media aritmética


- Es fácil de entender y usar.
- Hace uso de todos los datos de la distribución, por lo cual es una medida de tendencia central eficiente.
- Es el más conocido y popular de los promedios, el primero en el que piensan las personas, aunque no
sepan estadística.
- El hecho de que su definición no sea lógica sino matemática hace que sea la medida de tendencia central
usada con preferencia en Inferencia Estadística y en la mayoría de tests estadísticos.

Desventajas de la media aritmética


- Puede ser influenciada por valores extremos, que la hagan perder su valor como medida de tendencia
central
- En ciertos casos puede no representar un valor observable, lo cual en el caso de variables discretas resulta
artificioso.
- No puede calcularse para series cualitativas

- Resulta tedioso calcular la media debido a que utilizamos cada uno de los puntos de dato de nuestro
cálculo.

- Somos incapaces de calcular la media para un conjunto de datos que tiene clases de extremo abierto, ya
sea en el inferior o en el superior de la escala.

b. Mediana
Su definición no es matemática sino lógica, entendemos por mediana aquel valor de la variable que divide
en dos partes iguales a un conjunto ordenado de datos. Se simboliza con Me

c. Moda
Entendemos por moda el valor de la variable que más veces se repite, y en una distribución de frecuencias
el valor con mayor frecuencia absoluta simple. Se simboliza con Mo

d. Percentiles
Determina los valores de la variable debajo de los cuales caen determinados porcentajes de frecuencia.
Entre los percentiles más frecuentes encontramos:
Los cuartiles: dividen la serie en cuatro partes iguales, en cuatro intervalos incluyendo cada uno el 25% de
las observaciones (Q1, Q2 y Q3) que dejan por debajo de sí el 25%, 50% y 75%, respectivamente de los
valores de la serie.
Los deciles: dividen la serie en diez partes iguales cada una con el 10% de sus elementos (D1, D2, D3, D4,
D5, D6, D7, D8 y D9) que dejan por debajo de sí el 10%, 20%, 30%, 40%, 50%, 60%, 70%, 80% y 90%
respectivamente..

2. Medidas de dispersión
El análisis estadístico o el estudio de una serie estadística no puede quedarse sólo en el cálculo de las
medidas de tendencia central o de posición tales como la media, mediana, moda, percentiles, ya que no
estaríamos siendo absolutamente fieles a la realidad, suele existir datos extremos inferiores y superiores a
la media aritmética, los cuales no están siendo bien representados por este parámetro, hay veces que la
media, por sí sola, no es muy significativa. Además puede ocurrir que series absolutamente distintas pueden
tener medias iguales y este hecho no significa que las distribuciones sean exactamente iguales. Por lo tanto
es necesario profundizar en su estudio, para lo cual se requiere ver si los valores de la variable están muy o
poco separados de la media aritmética.
La media aritmética es más representativa cuanto más agrupados estén los valores de la serie respecto a
ella y al revés y a la mayor o menor separación de los valores respecto a la media se le llama dispersión o
variabilidad.
Para medir el grado de dispersión de una variable, se utilizan principalmente los siguientes indicadores o
medidas de dispersión:

a. Rango o recorrido
Es la medida de dispersión mas sencilla ya que solo considera los dos valores extremos de una colección de
datos, sin embargo, su mayor utilización está en el campo de la estadística no paramétrica.

b. Varianza
La varianza es uno de los parámetros más importantes en estadística paramétrica, se puede decir que,
teniendo conocimiento de la varianza de una población, se ha avanzado mucho en el conocimiento de la
población misma.
Numéricamente definimos la varianza, como desviación cuadrática media de los datos con respecto a la
media aritmética
La varianza nos mide la mayor o menor representatividad de la media aritmética
- Si la varianza es grande nos indica gran dispersión, la media aritmética no es representativa.
- Si casi todos los valores están muy cercanos a la media aritmética entonces la varianza se acercará a cero,
con lo que se dice que la serie es concentrada.
- La varianza nunca puede ser negativa.
De su forma de cálculo se desprenden dos problemas:
- Se expresa en unidades cuadradas (nuevos soles cuadrados, minutos cuadrados, etc.)
- si la media aritmética no es una buena medida de tendencia central, la varianza que se basa en ella
tampoco será una buena medida de dispersión.

Simbología

S2 : Varianza de la muestra

2 Varianza de la Población

c. Desviación estándar o típica


Para eliminar el problema de la elevación al cuadrado de la varianza, se realiza una transformación
consistente en calcular la raíz cuadrada de la varianza con lo que obtendríamos la desviación estándar o
típica.
Con lo que la desviación estándar o típica estará dada en las mismas unidades que los valores de la variable.
- La desviación estándar o típica siempre es positiva porque la varianza también lo es.
- La desviación estándar o típica es la medida de dispersión óptima, más exacta, más estable y más utilizada,
sirviendo de base para las medidas de asimetría, estadísticos típicas y correlación.
- Cuanto más se acerca a cero la desviación más concentrada es la serie.
- Suele decirse que cuando la desviación estándar o típica es menor que la media aritmética la serie es
concentrada y sí la desviación estándar o típica es mayor que la media aritmética la serie es dispersa.

d. Coeficiente de variabilidad
Con frecuencia nos interesa establecer comparaciones de la dispersión, entre diferentes muestras que
posean distintas unidades de medida (por ejemplo, nuevos soles con dólares), las medidas de dispersión
antes mencionadas no permiten realizar este tipo de comparaciones, pero es el coeficiente de variabilidad
quien nos ayuda a realizar estas comparaciones.
El coeficiente de variabilidad es una medida de dispersión relativa (sin unidades de medida) tiene en cuenta
el valor de la media aritmética, para establecer un número relativo, que hace comparable el grado de
dispersión entre dos o más variables, y se define como el cociente entre la desviación estándar y la media
aritmética.
Para determinar la homogeneidad (tiene menor variabilidad) de dos o más muestras que tienen diferente
unidad de medida, se elige aquella que tenga el menor CV.

3. Medidas de asimetría
La asimetría determina la deformación horizontal de la distribución de un conjunto de datos. Esto significa
que identifica si la distribución es simétrica o asimétrica.
Interpretación:
Si As = 0, La distribución es simétrica, esto es x = Me = Mo
Si As > 0, La distribución es asimétrica positiva, esto es Mo Me x

Si As < 0, La distribución es asimétrica negativa, esto es x Me Mo

4. Medidas de curtosis
La curtosis es la característica de una distribución de frecuencias en la cual se compara la dispersión de los
datos observados cercanos al valor central con la dispersión de los datos cercanos a ambos extremos de la
distribución, Se aplica cuando la distribución es simétrica.
Interpretación:
Si K tiende a 0 la distribución es normal
Si K tiende a 0.5 es leptocúrtica
Si K tiende a -0.5 es platicúrtica

7. Tabla de frecuencias con SPSS


La ejecución de este procedimiento resulta en un gran número de resultados gráficos y de tablas con
información numérica. Una vez decidida(s) la(s) variable(s) a analizar, se solicitan los estadísticos y
las gráficas que queremos obtener. Los estadísticos y la elección de uno u otro dependerá del tipo de
variable a analizar. En el caso de variables cuantitativas tiene sentido la solicitud de estadísticos de
centralización, dispersión y forma de la distribución, mientras que para el caso de variables
cualitativas esto no tiene sentido. En este segundo caso, el interés se centrará en la obtención de la
tabla de frecuencias.
Las tablas de frecuencias pueden ordenarse según el valor de la variable o según las frecuencias
observadas. Para aquellas variables con un gran número de valores diferentes se puede optar por
suprimir dicha tabla.
Si el objetivo del análisis se centra en realizar una descripción de la muestra estratificada según una
variable cualitativa, recuérdese la posibilidad de segmentar el archivo de acuerdo a dicho criterio.
Para efectuar este proceso se inicia ingresando al menú:
a. Analizar >> Estadísticos Descriptivos >> Frecuencias:

b. En el cuadro dialogo Frecuencias se debe:

En este
recuadro se
muestran las
variables que
se pueden
procesar. Elija
una variable

Para pasar la variable En este recuadro se muestran


seleccionada al otro recuadro en Se debe editar las opciones. . . . .
las variables que han sido
blanco se puede hacer Clic en el seleccionadas para procesar
botón o hacer doble clic en la
misma variable

Con esto ahora, si se trata de una variable numérica se pude pedir a SPSS realice el cálculo de
algunas medidas descriptivas:
❖ Haz clic en esta opción y nos dará la oportunidad de ingresar a un cuadro
dialogo en el debemos elegir las medidas Estdisticas que queremos que SPSS calcule de la
variable elegida:

Se debe activar cada medida que se desee calcule SPSS. Y luego hacer clic en Continuar.

Los Estadisticos son medidas que sólo se pueden calcular con varibles numéricas. Para las
variables Cualitativas intersa más las frecuencias y las proporciones de cada categoría.

❖ Si se hace clic en esta opción, se puede pedir que SPSS realice un gráfico
que resuma la información. De hecho debe elegirse un gráfico adecuado a la variable.

Una vez elegido el


tipo de Gráfico clic en
continuar

❖ Se emplea si se desea que los datos en la tabla de frecuencias se


presenten de manera ascendente o descendente. La segunda parte del cuadro dialogo se
emplea mejor cuando se está trabajando con dos o más variables:
Terminadas las
elecciones, clic en
continuar

Una vez terminados esos procesos se hace clic en:

Clic

Y se presentarán los resultados en el Visor de Resultados.

8. Descriptivos
Este proceso permite trabajar variables cuantitativas (de escala de intervalo o razón) con la finalidad
de calcular medidas descriptivas:
A. En el menú Analizar >> Estadísticos Descriptivos >> Descriptivos:
B. Al abrirse el cuadro dialogo Descriptivos, se debe elegir la variable con a que se quiere realizar
el análisis:

Clic

C. Al hacer clic en botón Opciones nos permitirá acceder a las opciones de cálculo de Medidas
estadísticas:

Clic
D. Para terminar se debe hacer clic en Aceptar lo que presentará los resultados en el Visor de
Resultados:

9. ANÁLISIS EXPLORATORIO DE DATOS


El procedimiento Explorar genera estadísticos de resumen y representaciones gráficas, bien para
todos los casos o bien de forma separada para grupos de casos. Existen numerosas razones para
utilizar este procedimiento: para inspeccionar los datos, identificar valores atípicos, obtener
descripciones, comprobar supuestos (normalidad y homogeneidad de varianzas) y caracterizar
diferencias entre subpoblaciones (grupos de casos). La inspección de los datos puede mostrar que
existen valores atípicos, valores extremos, discontinuidades en los datos u otras peculiaridades. La
exploración de los datos puede ayudar a determinar si son adecuadas las técnicas estadísticas que
está teniendo en consideración para el análisis de los datos. La exploración puede indicar que
necesita transformar los datos si la técnica necesita una distribución normal. O bien, el usuario puede
decidir que necesita utilizar pruebas no paramétricas. Se pueden crear gráficos de alta resolución
mediante los procedimientos del menú Gráficos y mediante muchos de los procedimientos del menú
Analizar.
A. En el menú Analizar >> Estadísticos Descriptivos >> Explorar:

B. En el cuadro dialogo Explorar, se debe elegir una variable:

❖ si se hace clic en esta opción se abre el cuadro dialogo en el que se pueden


elegir los datos estadísticos que deseamos que SPSS calcule de la variable elegida:
Descriptivos. Por defecto se muestran estas medidas de dispersión y de tendencia central. Éstas
últimas indican la localización de la distribución, e incluyen la media, la mediana y la media
recortada al 5%. Las medidas de dispersión muestran la disimilaridad de los valores, incluyen:
los errores típicos, la varianza, la desviación típica, el mínimo, el máximo, la amplitud y la
amplitud intercuartil. Los estadísticos descriptivos también incluyen medidas de la forma de la
distribución: la asimetría y la curtosis se muestran con sus errores típicos. También se muestra
el intervalo de confianza a un nivel del 95%; aunque se puede especificar otro nivel.
Estimadores robustos centrales. Alternativas robustas a la mediana y a la media muestral para
estimar la localización. Los estimadores calculados se diferencian por las ponderaciones que
aplican a los casos. Se muestran los siguientes: el estimador-M de Huber, el estimador en onda
de Andrew, el estimador-M redescendente de Hampel y el estimador biponderado de Tukey.
Valores atípicos. Muestra los cinco valores mayores y los cinco menores, con las etiquetas de
caso.
Percentiles. Muestra los valores de los percentiles 5, 10, 25, 50, 75, 90 y 95.

❖ esta opción es adecuada para realizar el análisis gráfico. Los Diagramas


de caja, los de tallo y hojas e histograma nos permiten definir la forma de las distribuciones y
datos extremos

Diagramas de caja. Estas alternativas controlan la presentación de los diagramas de caja


cuando existe más de una variable dependiente. Niveles de los factores juntos genera una
presentación para cada variable dependiente. En cada una se muestran diagramas de caja para
cada uno de los grupos definidos por una variable de factor. Dependientes juntas genera una
presentación para cada grupo definido por una variable de factor. En cada una se muestran
juntos los diagramas de caja de cada variable dependiente. Esta disposición es particularmente
útil cuando las variables representan una misma característica medida en momentos distintos.
Descriptivos. La sección Descriptivos permite seleccionar gráficos de tallo y hojas e
histogramas.
Gráficos con pruebas de normalidad. Muestra los diagramas de probabilidad normal y de
probabilidad sin tendencia. Se muestra el estadístico de Kolmogorov-Smirnov con un nivel de
significación de Lilliefors para contrastar la normalidad. Si se especifican ponderaciones no
enteras, se calculará el estadístico de Shapiro-Wilk cuando el tamaño de la muestra ponderada
esté entre 3 y 50. Si no hay ponderaciones o éstas son enteras, se calculará el estadístico
cuando el tamaño muestral esté entre 3 y 5000.

• Dispersión por nivel con prueba de Levene. Controla la transformación de los datos para
los diagramas de dispersión por nivel. Para todos los diagramas de dispersión por nivel se
muestra la pendiente de la línea de regresión y las pruebas robustas de Levene sobre la
homogeneidad de varianza. Si selecciona una transformación, las pruebas de Levene se
basarán en los datos transformados. Si no selecciona ninguna variable de factor, no se
generará ningún diagrama de dispersión por nivel. Estimación de potencia produce un
gráfico de los logaritmos naturales de las amplitudes intercuartiles respecto a los
logaritmos naturales de las medianas de todas las casillas, así como una estimación de la
transformación de potencia necesaria para conseguir varianzas iguales en las casillas. Un
diagrama de dispersión por nivel ayuda a determinar la potencia que precisa una
transformación para estabilizar (igualar) las varianzas de los grupos. Transformados
permite seleccionar una de las alternativas de potencia, quizás siguiendo las
recomendaciones de la estimación de potencia, y genera gráficos de los datos
transformados. Se trazan la amplitud intercuartil y la mediana de los datos transformados.
No transformados genera gráficos de los datos brutos. Es equivalente a una
transformación con una potencia de 1.
• Transformaciones de potencia A continuación aparecen las transformaciones de potencia
para los diagramas de dispersión por nivel. Para transformar los datos, deberá seleccionar
una potencia para la transformación.
Puede elegir una de las siguientes alternativas:
✓ Log natural. Transformación de logaritmo natural. Este es el método por defecto.
✓ 1/raíz cuadrada. Para cada valor de los datos se calcula el inverso de la raíz cuadrada.
✓ Recíproco. Se calcula el inverso de cada valor de los datos.
✓ Raíz cuadrada. Se calcula la raíz cuadrada de cada valor de los datos.
✓ Cuadrado. Se calcula el cuadrado de cada valor de los datos.
✓ Cubo. Se calcula el cubo de cada valor de los datos.


Valores perdidos. Controla el tratamiento de los valores perdidos:
✓ Excluir casos según lista. Los casos con valores perdidos para cualquier variable de
factor o variable dependiente se excluyen de todos los análisis. Este es el método por
defecto.
✓ Excluir casos según pareja. Los casos que no tengan valores perdidos para las variables
de un grupo (casilla) se incluyen en el análisis de ese grupo. El caso puede tener valores
perdidos para las variables utilizadas en otros grupos.
✓ Mostrar los valores. Los valores perdidos para las variables de factor se tratan como
una categoría diferente. Todos los resultados se generan para esta categoría adicional.
Las tablas de frecuencias incluyen categorías para los valores perdidos. Los valores
perdidos para una variable de factor se incluyen pero se etiquetan como perdidos.
Al terminar haz clic en Continuar.

C. Los resultados se verán en el Visor de Resultados una vez hagamos clic en Aceptar:

Explorar

Resumen del procesamiento de los casos

Casos

Válidos Perdidos Total

N Porcentaje N Porcentaje N Porcentaje

Edad del contratado 145 100,0% 0 0,0% 145 100,0%

Descriptivos

Estadístico Error típ.


Media 24,50 ,154

Límite inferior 24,20


Intervalo de confianza para la media al
95%
Límite superior 24,81

Media recortada al 5% 24,36

Mediana 24,00

Varianza 3,446

Edad del contratado Desv. típ. 1,856

Mínimo 22

Máximo 36

Rango 14

Amplitud intercuartil 3

Asimetría 2,055 ,201

Curtosis 9,727 ,400

Edad del contratado

Edad del contratado Stem-and-Leaf Plot

Frequency Stem & Leaf

13.00 22 . 0000000000000
.00 22 .
33.00 23 . 000000000000000000000000000000000
.00 23 .
34.00 24 . 0000000000000000000000000000000000
.00 24 .
27.00 25 . 000000000000000000000000000
.00 25 .
28.00 26 . 0000000000000000000000000000
.00 26 .
4.00 27 . 0000
.00 27 .
2.00 28 . 00
.00 28 .
1.00 29 . 0
.00 29 .
2.00 30 . 00
1.00 Extremes (>=36)

Stem width: 1
Each leaf: 1 case(s)
SESIÓN

AL FINALIZAR LA PRESENTE SESIÓN, EL PARTICIPANTE ESTARÁ EN LA CAPACIDAD DE:

 Reconocer los conceptos básicos y los métodos de Estimación de parámetros de: una
proporción, dos proporciones, de una media y diferencia de dos medias

TEMAS:

ESTIMACIÓN DE PARÁMETROS
 Elementos Básicos en Inferencia Estadística. Estimación puntual e intervalos de
confianza.
INTRODUCCIÓN A LA ESTADÍSTICA INFERENCIAL
La Inferencia Estadística es la rama de la ciencia estadística que se encarga del estudio de los métodos para
la obtención del modelo de probabilidad (forma funcional y parámetros que determinan la función de
distribución) que sigue una variable aleatoria de una determinada población, a través de una muestra
aleatoria seleccionada (parte de la población).
En la estadística inferencial se trabaja con dos métodos: Estimación de parámetros y Prueba de hipótesis
de parámetros.
En este capítulo aplicaremos los métodos de estimación de parámetros es con SPSS, iniciando con algunos
conceptos básicos:
a. Parámetro: Son las medidas descriptivas o de resumen que se obtienen sobre la población. Como
por ejemplo:

Medida descriptiva Símbolo


Media poblacional 
Varianza poblacional 2
Desviación estándar poblacional 
Proporción de éxito poblacional p

b. Estadísticos o Estadígrafo: Son las medidas descriptivas o de resumen que se obtienen sobre una
muestra y por lo tanto una estimación de los parámetros. Como por ejemplo:

Medida descriptiva Símbolo


Media muestral x
Varianza muestral s2
Desviación estándar muestral s
Proporción de éxito muestral p

c. Nivel de confianza: Es la probabilidad de que el intervalo construido en torno a un estadístico capte


el verdadero valor del parámetro. Se simboliza por (1 - ).

d. Error muestral o aleatorio: Es el error que se comete debido al hecho de que se obtienen
conclusiones sobre la población a partir de la observación de sólo una muestra de ella. Se define
como la diferencia entre un estadístico y su parámetro correspondiente y es el error máximo
estadístico de la muestra, válido para el conjunto de todas las distintas muestras que se pueden
tomar de la misma población. Es una medida de la variabilidad de las estimaciones de muestras
repetidas en torno al valor de la población, nos da una noción clara de hasta dónde y con qué
probabilidad una estimación basada en una muestra se aleja del valor que se hubiera obtenido por
medio de un censo completo. Siempre se comete un error, pero la naturaleza de la investigación
nos indicará hasta qué medida podemos cometerlo (los resultados se someten a error muestral e
intervalos de confianza que varían muestra a muestra). Se controla, se formula y se estima
mediante el diseño de la muestra

e. Error no muestral o sistemático: Estimación sesgada de la población debido a que la muestra ha


sido extraída de un marco muestral incompleto, porque algunas personas se negaron a participar
en la encuesta, en la recolección de datos, en la elaboración de los instrumentos de recolección, en
el análisis de datos, etc. Solo se controla mediante un sistema de prevención, capacitación e
inspección de todo el proceso de la encuesta.
Cuando se selecciona una muestra la intención primaria es conocer y analizar a la población de la
cual fue seleccionada, entonces es a partir de nuestros resultados muestrales que estimamos los
resultados de la población, a este proceso se le llama “estimación de parámetro”, siendo éste uno
de los métodos más importantes de la estadística inferencial.

f. Estimador: Sea X una variable aleatoria cuya función de probabilidad (o densidad de probabilidad
si es continua) depende de unos parámetros  1 ,..., k desconocidos. Representamos mediante
X 1 ,..., X n una muestra aleatoria simple de la variable. Se denomina estimador de un parámetro
θ i , a cualquier variable aleatoria θ̂ i que se exprese en función de la muestra aleatoria y que tenga
por objetivo aproximar el valor de θ i . Obsérvese que el estimador no es un valor concreto sino una
variable aleatoria, ya que aunque depende unívocamente de los valores de la muestra observados,
la elección de la muestra es un proceso aleatorio.
g. Estimación: Una vez que la muestra ha sido elegida, se denomina estimación al valor numérico que
toma el estimador sobre esa muestra. Se puede estimar mediante:
- Estimación puntual: Consiste en determinar un posible valor para el parámetro poblacional.
- Estimación por intervalos: consiste en determinar un posible rango de valores o intervalo, en
los que pueda precisarse, con una determinada probabilidad, que el valor de un parámetro.

1. ESTIMACIÓN DE UNA PROPORCIÓN POBLACIONAL


1.1. Teorema de la distribución de muestreo de una proporción muestral:
Sea x1, x2, …, xn una muestra aleatoria de tamaño n de una población de Bernoulli B(1,p) y la
proporción de éxitos en la muestra, siendo X una variable binomial B(n,p) entonces,

 p = E ( p) = p p(1 − p)
 p2 = Var( p) =
n
Para n suficientemente grande, la variable aleatoria z, tiene distribución aproximadamente
normal N(0,1)

1.2. Estimación de una proporción poblacional:


Desde el teorema de distribución de muestreo, obtenemos el intervalo de confianza al (1-)% de una
proporción poblacional y está dado por:
p− p
P( − z1−   z1− ) = 1 − 
2 p (1 − p ) 2

p(1 − p) p (1 − p)
P(− z1−  p − p  z1− ) = 1−
2 n 2 n
p(1 − p) p(1 − p)
P(− p − z1−  − p  − p + z1− ) = 1−
2 n 2 n

p(1 − p) p(1 − p)
P( p − z1−  p  p + z1− ) =1−
2 n 2 n

Entonces el intervalo de confianza al (1- )% está dado por:

p(1 − p) p(1 − p)
p − z1−  pˆ  p + z1−
2 n 2 n

en forma abreviada es: p  z  p(1 − p)


1−
2 n

donde el error muestral de una proporción esta dado por:


p(1 − p)
E = z1−
2 n

1.3. Estimación de una proporción poblacional con SPSS


En el programa SPSS no hay una utilidad específica para estimar la proporción, pero ésta puede
considerarse un caso particular de estimación de una media, utilizando la opción de prueba T
para una muestra, sin embargo como se sabe la prueba T es indicado para realizar inferencias
acerca de una media poblacional si la muestra es grande, el valor de la prueba T se aproxima a
la prueba Z que es la prueba indicada tanto para medias como para proporciones. Esto es
recomendable para muestras extremadamente grandes de tamaños menores o iguales a 1000,
para muestras menores se recomienda utilizar otros paquetes estadísticos en cuanto a la
estimación del intervalo de una o dos proporciones.
Para utilizar la prueba T, la variable debe estar convenientemente codificada. Para ello, la
característica cuya proporción desea estimarse debe mostrarse con el valor 1, mientras que el
resto se muestra con el valor 0. Si no es así, recodificar la variable. Si la variable sigue el patrón
indicado, utilizar el intervalo de confianza para la media.
Supongamos que se desea estimar al 95% de confianza el porcentaje de empleados que son
hombres entonces realizamos los siguientes pasos:
Paso 1: Verificar que la variable a estimar este convenientemente codificada, como
observamos la variable de interés no se encuentra adecuadamente codificada.
Están
codificados con
letras “h” y “m”

Paso 2: Debemos transformar el valor de la categoría de interés a 1=Hombres y el resto 0=Mujeres


utilizando la opción Recodificar en distinta variable del menú Transformar

Se mostrará la siguiente ventana de diálogo: 3. Renombramos


y escribimos su
etiqueta de la
nueva variable

2. Pasamos la
variable al sector
de variable de
1. Seleccionamos entrada
la variable a
transformar 4. Hacemos clic en
el botón

Aquí vamos a modificar el valor de los datos antiguos a valores nuevos h=1 y m=0
2. Valor nuevo
1. Valor antiguo
4. Así los demás valores

3. Clic

5. Clic en
continuar y luego
aceptar

Y en vista de variables se genera la nueva variable

Se debe definir las etiquetas de los valores nuevos en la variable


creada

En vista de variables se observa la nueva variable creada y editada

Paso 3: Obtener el intervalo de confianza


En el menú Analizar, seleccionamos Estadísticos descriptivos y luego explorar
Se abrirá la siguiente ventana
2. la pasamos a la
celda lista de 4. clic en botón
dependientes estadísticos

1. Seleccionamos
la variable a
procesar

5.Indicar el nivel
de confianza por
defecto es 95%

3. Seleccionamos
la opción
Estadísticos

Obtenemos el resultado en el Visor de resultados de SPSS

El 54% de los empleados son varones, y al 95% de confianza se estima que el porcentaje real de empleados
varones se encuentra entre el 50% y el 59%.
2. ESTIMACIÓN DE LA DIFERENCIA DE DOS PROPORCIONES
POBLACIONALES

2.1. Teorema de la distribución de la diferencia de dos proporciones


muestrales
Vamos a considerar que tenemos dos poblaciones de modo que en cada una de ellas
estudiamos una variable aleatoria dicotómica (Bernoulli) de parámetros respectivos p1 y p2. De
cada población vamos a extraer muestras de tamaño n1 y n2
Si las muestras son suficientemente grandes ocurre que ( p1 − p 2 ) siguen una distribución normal
( p1 − p 2 ) − ( p1 − p2 )
z=
p1 (1 − p1 ) p2 (1 − p2 )
+
n1 n2

2.2. Estimación de la diferencia de dos proporciones poblacionales


Por el mismo razonamiento que en el caso de una población llegamos a que una aproximación para un
intervalo de confianza al nivel (1-)% para la diferencia de proporciones de dos poblaciones es:
p 1 (1 − p 1 ) p 2 (1 − p 2 ) p 1 (1 − p 1 ) p 2 (1 − p 2 )
( p 1 − p 2 ) − z1− +  pˆ 1 − pˆ 2  ( p 1 − p 2 ) − z1− +
2 n1 n2 2 n1 n2

Donde el error de estimación está dado por:

p1 (1 − p1 ) p 2 (1 − p 2 )
E =  z1− +
2 n1 n2

2.3. Estimación de la diferencia de dos proporciones poblacional con SPSS


En el programa SPSS tampoco existe una utilidad específica para estimar la diferencia de dos
proporciones, pero ésta puede considerarse un caso particular de estimación de dos medias,
utilizando la opción de prueba T para dos muestra independientes, sin embargo como se sabe
la prueba T es indicado para realizar inferencias acerca de dos poblaciones si las muestras son
grandes, el valor de la prueba T se aproxima a la prueba Z que es la prueba indicada tanto para
medias como para proporciones. Esto es recomendable para muestras extremadamente
grandes de tamaños menores o iguales a 1000, para muestras menores se recomienda utilizar
otros paquetes estadísticos en cuanto a la estimación del intervalo de una o dos proporciones.
Para utilizar la prueba T, la variable debe estar convenientemente codificada. Para ello, la
característica cuya proporción desea estimarse debe mostrarse con el valor 1, mientras que el
resto se muestra con el valor 0. Si no es así, recodificar la variable. Si la variable sigue el patrón
indicado, utilizar el intervalo de confianza para la diferencia de dos medias.
Supongamos que se desea estimar al 95% de confianza si existe diferencia significativa en el
porcentaje de empleados hombres entre administrativos y directivos entonces realizamos los
siguientes pasos:
Paso 1: Verificar que la variable a estimar este convenientemente codificada, en nuestro caso
seguiremos utilizando la variable género creada en Estimación de una proporción poblacional
con SPSS.
Paso 2: Obtener el intervalo de confianza
En el menú Analizar, seleccionamos Comparar medias y luego Prueba T para muestras
independientes

Se abrirá la siguiente ventana

1. Seleccione la
variable a
comprar: Género

2. Seleccione la 4. Seleccione las categorías


variable a de las variables de
agrupar: agrupación:
Categoría laboral Grupo 1 : Administrativos
Grupo 2 : Directivos
3. Hacer clic para
definir los grupos 5. Clic en
Continuar y luego
Aceptar
Obtenemos los siguientes resultados
Podemos observar que tanto el límite inferior y superior son negativos, entonces el valor “cero” no
se encuentra en el intervalo, entonces decimos que si existe diferencia significativa en la proporción
de hombres entre administrativos y directivos y además que existen mayor proporción de hombres
entre los directivos (100%)

3. ESTIMACIÓN DE UNA MEDIA POBLACIONAL


3.1. Teoremas de la distribución de una media muestral:
Teorema 1: Población con varianza poblacional conocida
Sea x1, x2, …, xn una muestra aleatoria de tamaño “n” de una población con media μ y varianza 2.
Si x es la media muestral, entonces

E(x) =  Var ( x ) =  2 / n
Para “n” suficientemente grande, la variable aleatoria z, tiene distribución aproximadamente
normal N(0,1)
x−
z=
/ n
La varianza de la media muestral es válida, si el muestreo es con o sin reemplazo de una población
infinita, o con reemplazo en una población finita de tamaño N.
Otros Casos
x
- Por el teorema anterior para n suficientemente grande, la media muestral tiene distribución
aproximadamente normal con media μ y varianza 2/n. Esta aproximación es buena si n ≥ 30, sin
importar si la población es discreta o continua.
- Si la muestra aleatoria es escogida de una población normal N(μ,2), entonces, la distribución de
es normal N(μ,x2/n), para cualquier tamaño de muestra n ≥ 2.

Teorema 2: Población con varianza poblacional desconocida


Sea x1, x2, …, xn una muestra aleatoria de tamaño n de una población con distribución normal N(μ,
2), donde la varianza poblacional 2 es desconocida, entonces, la variable aleatoria t, tiene
distribución t-student con n-1 grados libertad.
x−
t=
s/ n
Caso de población finita
- Si el muestreo es sin reemplazo en una población finita de tamaño N, la varianza de la distribución
de x es:

2  N −n
 x2 =  
n  N −1 
N −n
Donde el factor de corrección para poblaciones finitas es:
N −1

1.1 Estimación de la media poblacional


Cuando la varianza poblacional es conocida, el intervalo de confianza al (1- )% esta dado por:

 
x − z  ˆ  x + z
2 n 2 n
Donde el error muestral está dado por

E = z / 2
n
Cuando la varianza poblacional es desconocida, el intervalo de confianza al (1- ) % está dado por:
t1− ,( n −1)
s t1− ,( n −1)
s
x− 2
 ˆ  x + 2
n n

El error muestral está dado por:


t1− ,( n −1)
s
E= 2
n
Diagrama de flujo para la selección de la distribución para Estimar una media poblacional

1.2 Estimación de la media poblacional con SPSS


Supongamos que deseamos estimar el tiempo promedio de educación que tienen los empleados con 95%
de confianza.
En el menú Analizar, seleccionamos Estadísticos descriptivos y luego explorar

Se abrirá la siguiente ventana


2. la pasamos a la
4. clic en botón
celda lista de
dependientes estadísticos

1. Seleccionamos
la variable
cuantitativa a
procesar
5.Indicar el nivel
de confianza por
defecto es 95%

3. Seleccionamos
la opción
Estadísticos

Obtenemos el resultado en el Visor de resultados de SPSS


El tiempo promedio de educación de los empleados es de 13.5 años y al 95% de confianza se estima que la
media real de todos los empleados se encuentra entre 13.23 y 13,75 años.
2. ESTIMACIÓN DE LA DIFERENCIA DE DOS MEDIAS POBLACIONALES

2.1 Distribución de la diferencia de dos medias muestrales


Consideremos el caso en que tenemos dos poblaciones de modo que la característica que
estudiamos en ambas (X1 y X2) son variables aleatorias.
En cada una de estas poblaciones se extrae mediante muestreo aleatorio simple, muestras que no
tienen que ser necesariamente del mismo tamaño (respectivamente n1 y n2)

Si se conocen las varianzas poblacionales x1 − x 2 sigue una distribución normal para n1 y n2


suficientemente grande y la variable Z está dada por:
( x1 − x 2 ) − ( 1 −  2 )
z=
 12  22
+
n1 n2

x1 − x 2
Si no se conocen las varianzas poblacionales y no se hace una suposición sobre su igualdad
sigue una distribución t – student está dada por:
( x1 − x 2 ) − ( 1 −  2 )
t=
s12 s22
+
n1 n2

Grados de libertad (gl): Se elige el menor entre n1-1 y n2-1

Si no se conocen las varianzas poblacionales y se hace una suposición sobre su igualdad


x1 − x 2 sigue una distribución t – student está dada por:
( x1 − x 2 ) − ( 1 −  2 )
t=
s 2p s 2p
+
n1 n2

Grados de libertad (gl): está dado por n1+n2-2 y s 2p está dado por:

(n1 − 1) s12 − (n2 − 1) s22


s 2p =
n1 + n2 − 2
2.2 Estimación de la diferencia de dos medias poblacionales
 12  22  12  22
( x1 − x 2 ) − z1− +  1 −  2  ( x1 − x 2 ) + z1− +
2 n1 n2 2 n1 n2
 12  22
E = z1− +
2 n1 n2

s12 s22 s12 s22


( x1 − x 2 ) − t gl ,1− +  1 −  2  ( x1 − x 2 ) + t gl ,1− +
2 n1 n2 2 n1 n2

s12 s22
E = t gl ,1− +
2 n1 n2

s 2p s 2p s 2p s 2p
( x1 − x 2 ) − t gl ,1− +  1 −  2  ( x1 − x 2 ) + t gl ,1− +
2 n1 n2 2 n1 n2

s 2p s 2p
E = t gl ,1− +
2 n1 n2

2.3 Estimación de la diferencia de dos medias poblacionales con SPSS


Supongamos que deseamos estimar si existe diferencia significativa entre el salario entre hombres y
mujeres al 95% de confianza
En el menú Analizar, seleccionamos Comparar medias y luego Prueba T para muestras independientes

Se abrirá la siguiente ventana

1. Seleccione la
variable a
comprar: Salario
2. Seleccione la 4. Seleccione las categorías
variable a de las variables de
agrupar: Género agrupación:
Grupo 1 : Hombres
5. Clic en
Grupo 2 : Mujeres
Continuar y luego
3. Hacer clic para Aceptar
definir los grupos

Obtenemos los siguientes resultados, en el visor de resultados del SPSS

Como se dijo en la teoría debemos


Primero: determinar si las muestras provienen de poblaciones con varianzas iguales
La prueba de Levene es un método de prueba de hipótesis que prueba si las varianzas de dos poblaciones
son iguales
Ho: σ1 = σ2
H1: σ1 ≠ σ2
α = 0.05
Como el valor de Sig = 0 es menor que el nivel de significación α = 0.05 se rechaza la hipótesis nula. Por lo
tanto las muestras del salario provienen de poblaciones con varianzas diferentes.
Segundo: Elegimos la fila a interpretar
Entonces elegimos para interpretar el segundo intervalo de confianza para la diferencia de medias
En el cual observamos que el valor “0” no se encuentra en el intervalo por lo tanto si existe diferencia
significativa entre el salario de hombres y mujeres además que los empleados varones ganan mucho más
que las mujeres al 95% de confianza.
SESIÓN

AL FINALIZAR LA PRESENTE SESIÓN, EL PARTICIPANTE ESTARÁ EN LA CAPACIDAD DE:

 Conocer conceptos básicos y los métodos de pruebas de hipótesis paramétricas

TEMAS:

PRUEBAS DE SIGNIFICACIÓN ESTADÍSTICA PARAMÉTRICA


 Prueba T para una muestra: De una proporción y de una media.
 Prueba T para dos Muestras Independientes. De dos proporción y de dos
medias de muestras independientes.
CONTRASTACIÓN O PRUEBA DE HIPÓTESIS PARAMÉTRICAS (PARTE I)

1. INTRODUCCIÓN
La inferencia estadística utiliza dos métodos muy importantes uno de ellos se ha visto en la sesión anterior
como estimar los parámetros de una población a partir de valores de una muestra, pero otro de los métodos
muy importantes es la contrastación o prueba de Hipótesis que se utiliza para tomar decisiones de los
parámetros de la población en base a datos de una muestra. Para iniciar este capítulo primero es
importante tener claros algunos conceptos básicos.

1.1. HIPÓTESIS:
Cualquier afirmación o conjetura que se hace a cerca de algo.

1.2. HIPÓTESIS ESTADÍSTICA


Cualquier afirmación o conjetura que se hace a cerca del parámetro de una o más poblaciones
Ejemplo:
El promedio ponderado de los alumnos de UCCI en el semestre 2012-2 es superior a 14

1.3. PRUEBA DE HIPÓTESIS ESTADÍSTICA


Proceso para la toma de decisiones de aceptar o rechazar la Hipótesis Nula H0 en contraposición de la
hipótesis alternativa H1 basándose en los resultados de una muestra

1.4. HIPÓTESIS NULA (H0)


Es la hipótesis que es aceptada provisionalmente como verdadera y cuya validez será sometida a
comprobación

1.5. HIPÓTESIS ALTERNATIVA (H1)


Es una hipótesis contraria a la hipótesis nula, se acepta en caso que la hipótesis nula sea rechazada.

1.6. PLANTEAMIENTO DE HIPÓTESIS


0 es el valor del parámetro desconocido 

1) H0:  = 0 2) H0:  ≤ 0 3) H0:  ≥ 0


H1:  ≠ 0 H1:  > 0 H1:  < 0

1.7. TIPOS DE PRUEBAS DE HIPÓTESIS


Depende de la hipótesis alternativa
Prueba de Hipótesis unilateral o Prueba de una cola Prueba de Hipótesis Bilateral o
Prueba de dos colas
H0:  = 0 y H1 :  > 0
H0:  = 0 y H1 :  ≠ 0
H0:  = 0 y H1 :  < 0

1.8. ERROR TIPO I Y II


DECISIÓN H0 VERDADERA H0 FALSA

ACEPTAR H0 CORRECTO (1-) ERROR TIPO II ()

ERROR TIPO I CORRECTO


RECHAZAR H0
 (1-)

Nivel de Significación () Potencia de una Prueba (β)


Es la probabilidad de cometer un error de tipo I Es la probabilidad de cometer un error de tipo II
 = P(error tipo I)  = P(error tipo II)
 = P(rechazar H0 cuando es verdadera)  = P(aceptar H0 cuando es falsa)

1.9. REGLA DE DECISIÓN


Método tradicional
Es la división de la distribución muestral del estadístico de la prueba en dos partes mutuamente
excluyentes:
Región Crítica (RC): región de rechazo de H0
Región de Aceptación (RA): región de no rechazo de H0
Depende de la hipótesis alternativa H1 del nivel de significación y la distribución muestral del
estadístico.

Prueba de Hipótesis Bilateral o Prueba de Hipótesis unilateral o Prueba de Hipótesis unilateral


Prueba de dos cola Prueba de una cola o Prueba de una cola
H0:  = 0 y H1 :  ≠ 0 H0:  = 0 y H1 :  < 0 H0:  = 0 y H1 :  > 0

Método del valor de p (p-value)


Este método se aplica principalmente en resultados de procesos estadísticos mediante software
estadísticos. El valor de “p” obtenido en el proceso se debe comparar con el nivel de significancia (α) y
se debe tener en cuenta el tipo de prueba en que se encuentra.

Si es prueba de una cola Si es prueba de dos colas


Rechace Ho si el valor de p ≤ α Rechace Ho si el valor de p ≤ α/2
No rechace Ho si el valor de p > α No rechace Ho si el valor de p > α/2

Métodos de Intervalo de confianza


Como el estimado del intervalo de confianza de un parámetro de la población contiene los valores
posibles de tal parámetro, rechace la aseveración de que el parámetro de la población tiene un valor
que no está incluido en el intervalo de confianza

1.10. ESTADÍSTICO DE PRUEBA


En un valor que se utiliza para tomar la decisión sobre la hipótesis nula.
Se calcula convirtiendo al estadístico muestral en una puntuación de una distribución de probabilidad.

1.11. PASOS PARA REALIZAR UNA PRUEBA DE HIPÓTESIS


• Plantear la hipótesis nula H0 y alternativa H1
• Elegir el nivel de significación ()
• Elegir y estimar el estadístico de prueba
• Establecer la regla de decisión
• Tomar la decisión
• Conclusión

2. PRUEBA DE HIPÓTESIS CONSPSS


1. PRUEBA DE HIPÓTESIS DE UNA PROPORCIÓN POBLACIONAL
Nos hemos planteado la siguiente hipótesis de investigación:
“De las población que trabajan en la ciudad la mayoría son hombres”
Paso 1: Planteamos las hipótesis estadísticas
Ho: p = 0,5
H1: p > 0,5
Paso 2: Elegimos el nivel de significancia
α = 0,05
Paso 3: Elegir y estimar el estadístico de prueba con SPSS
Recordemos que SPSS no tiene un método directo para realizar una prueba de hipótesis de una proporción,
debemos seguir usando el artificio de transformar las categorías de la variable en 1: la categoría a probar y
0: las que no corresponde a esa categoría.
Para nuestro ejemplo la variable género cuyas categorías 1: son hombres y 0: mujeres
Luego elegir en la pestaña Analizar /Comparar medias /Prueba t para una muestra

Tenemos el siguiente cuadro de dialogo, en el cual debemos seleccionar la variable a contrastar (para
nuestro ejemplo Género) y el valor de la prueba (para nuestro ejemplo 0,5)

Obtenemos el siguiente resultado en el visor de resultados de SPSS

Estadísticos para una muestra

N Media Desviación típ. Error típ. de la


media

Género 474 ,54 ,499 ,023

Como observamos los resultados muestran dos tablas. La primera tabla muestra las medidas descriptivas
de la variable analizada (género) donde N indica el número de datos analizados en nuestro caso 474 datos,
la media que en nuestro caso nos indica en porcentaje de varones de esa muestra (0,54) o sea el 54% son
varones, la desviación típica que está dado por p * (1 − p ) = 0.499 y el error típico de la media es
p * (1 − p)
= 0.499 utilizados para poder estimar el intervalo de confianza de la proporción.
n

Prueba para una muestra

Valor de prueba = 0.5

T gl Sig. (bilateral) Diferencia de 95% Intervalo de confianza para la


medias diferencia

Inferior Superior

Género 1,935 473 ,054 ,044 ,00 ,09

La siguiente tabla nos muestran los resultados de la prueba de hipótesis, donde observamos la columna de
Sig (bilateral) que en realidad es el valor p que lo comparamos con el valor de α = 0,05 siendo p = 0,054 > α
= 0,05
Paso 4: Establecer la regla de decisión
Nuestra regla de decisión será p = 0,054 > α = 0,05
Paso 5: Tomar la decisión
Por lo explicado en la página 43 se decide No Rechazar o Aceptar Ho
Paso 6: Conclusión
Por lo tanto se puede concluir que “no existe evidencia suficiente para concluir que la mayoría de la
población que trabajan en la ciudad son hombres”
También se puede realizar el siguiente proceso, usando el cuadro de diálogo antiguo
Seleccionamos la prueba no paramétrica Binomial de la siguiente manera:

En el cuadro de diálogo que se muestra seleccionamos la variable a ser evaluada y hacemos clic en Aceptar
En el visor de resultados se muestra la siguiente tabla, que se puede utilizar también en el Paso 3

También se puede usar los cuadros de diálogos nuevos de la siguiente manera:


Se tiene el siguiente cuadro de diálogo, en la pestaña Objeto seleccionamos la primera opción

En la pestaña Campos seleccionamos la variable a probar en el campo de prueba


En la pestaña Configuración elegimos Personaliza prueba y hacemos clic en el botón Opciones

Se muestra el siguiente cuadro de diálogo, donde seleccionamos el valor del parámetro en Proporción
hipotetizada y luego clic en Aceptar

Se mostrará el siguiente cuadro y hacer clic en Ejecutar

Se mostrará el siguiente resultado en el archivo de visor de resultados, el cual también puede ser usado en
el Paso 3
2. PRUEBA DE HIPÓTESIS DE LA DIFERENCIA DE DOS PROPORCIONES POBLACIONALES
Supongamos que se ha planteado la siguiente hipótesis de investigación:
“La proporción de hombres y mujeres que trabajan de una ciudad son iguales”
Paso 1: Planteamos las hipótesis estadísticas
Ho: p1 = p2
H1: p1 ≠ p2
Paso 2: Elegimos el nivel de significancia
α = 0,05
Paso 3: Elegir y estimar el estadístico de prueba con SPSS
Recordemos que SPSS no tiene un método directo para realizar una prueba de hipótesis de una proporción,
debemos seguir usando el artificio de transformar las categorías de la variable en 1: la categoría a probar y
0: las que no corresponde a esa categoría.
Para nuestro ejemplo la variable género cuyas categorías 1: son hombres y = mujeres
Luego elegir en la pestaña Analizar /Comparar medias /Medias

Tenemos el siguiente cuadro de dialogo


Obtenemos el siguiente resultado en el visor de resultados de SPSS

Estadísticos para una muestra

N Media Desviación típ. Error típ. de la


media

Género 474 ,54 ,499 ,023

Prueba para una muestra

Valor de prueba = 0.5

t gl Sig. (bilateral) Diferencia de 95% Intervalo de confianza para la


medias diferencia

Inferior Superior

Género 1,935 473 ,054 ,044 ,00 ,09

La segunda tabla nos muestran los resultados de la prueba de hipótesis, donde observamos la columna de
Sig (bilateral) que en realidad es el valor p que lo comparamos con el valor de α = 0,05 siendo p = 0,054 > α
= 0,05
Paso 4: Establecer la regla de decisión
Nuestra regla de decisión será p = 0,054 > α = 0,05
Paso 5: Tomar la decisión
Por lo explicado en la página 43 se decide No Rechazar o Aceptar Ho
Paso 6: Conclusión
Por lo tanto se puede concluir que “la proporción de hombre es igual a la proproción de mujeres que
trabajan”

También se puede usar los cuadros de diálogos nuevos de Prueba no paramétrica de la siguiente manera:
Se tiene el siguiente cuadro de diálogo, en la pestaña Objeto seleccionamos la primera opción

En la pestaña Campos seleccionamos la variable a probar en el campo de prueba

En la pestaña Configuración elegimos Personaliza prueba y hacemos clic en el botón Opciones


Se muestra el siguiente cuadro de diálogo, donde seleccionamos el valor del parámetro en Proporción
hipotetizada y luego clic en Aceptar

Se mostrará el siguiente cuadro y hacer clic en Ejecutar

Se mostrará el siguiente resultado en el archivo de visor de resultados, el cual también puede ser usado en
el Paso 3
3. PRUEBA DE HIPÓTESIS DE UNA MEDIA POBLACIONAL
Supongamos que nos hemos planteado la siguiente hipótesis de investigación:
“El ingreso promedio anual de los trabajadores de la ciudad es superior a 25 mil nuevos soles”
Paso 1: Planteamos las hipótesis estadísticas
Ho: µ1 = 25 000
H1: µ1 ≠ 25 000
Paso 2: Elegimos el nivel de significancia
α = 0,05
Paso 3: Elegir y estimar el estadístico de prueba con SPSS
Realizamos los siguiente pasos Analizar /Comparar medias /Medias

Se muestra el siguiente cuadro de dialogo, en el cual seleccionamos la(s) variable (s) a contrastar para el
ejemplo Salario actual y el valor del prueba para nuestro caso 25000
Obtenemos el siguiente resultado en el visor de resultados de SPSS

Prueba T
Esta primera tabla nos muestras los resultados de los estadísticos (medidas descriptivas de la muestra)
donde el salario promedio anual de los 474 empleados entrevistados es de 34 075.661 dólares con una
variación de ± 784.3 dólares

Estadísticos para una muestra

N Media Desviación típ. Error típ. de la


media

Salario actual 474 $34,419.5675 $17,075.66146 $784.31111

El segundo cuadro muestra los resultados de la prueba de hipótesis, donde observamos la columna de Sig
(bilateral) que en realidad es el valor p que lo comparamos con el valor de α = 0,05 siendo p = 0,0 < α = 0,05

Prueba para una muestra

Valor de prueba = 25000

t gl Sig. (bilateral) Diferencia de medias 95% Intervalo de confianza para la


diferencia

Inferior Superior

Salario actual 12,010 473 ,000 $9,419.56751 $7,878.4025 $10,960.7326

Paso 4: Establecer la regla de decisión


Nuestra regla de decisión será p = 0,0 > α = 0,05
Paso 5: Tomar la decisión
Por lo explicado en la página 43 se decide Rechazar Ho
Paso 6: Conclusión
Por lo tanto se puede concluir que “El ingreso promedio anual de los trabajadores de la ciudad es superior
a 25 mil nuevos soles”
4. PRUEBA DE HIPÓTESIS DE LA DIFERENCIA DE DOS MEDIAS POBLACIONALES DE MUESTRAS
INDEPENDIENTES
Supongamos que nos hemos planteado la siguiente hipótesis de investigación:
“Existe diferencia significativa entre los ingresos de hombres y mujeres de esta ciudad”
Paso 1: Planteamos las hipótesis estadísticas
Ho: µ1 = µ2
H1: µ1 ≠ µ2
Paso 2: Elegimos el nivel de significancia
α = 0,05
Paso 3: Elegir y estimar el estadístico de prueba con SPSS
Realizamos los siguiente pasos Analizar /Comparar medias /Prueba t para muestras independientes

Se muestra el siguiente cuadro de dialogo, en el cual seleccionamos la(s) variable (s) a contrastar para el
ejemplo Salario actual y la variable de agrupación (para nuestro caso Género).
Además se debe especificar los valores definidos para cada grupo de la prueba (grupo 1= Varones =1 y
grupo 2 = Mujeres = 0)
Obtenemos el siguiente resultado en el visor de resultados de SPSS

Prueba T
Esta primera tabla nos muestras los resultados de los estadísticos (medidas descriptivas de la muestra) de
cada grupo:

- El salario actual de los 258 varones es de 41 441.78 dólares al año con una variación de ± 19 499,97
dólares
- El salario actual de los 216 mujeres es de 26 031.92 dólares al año con una variación de ± 514.26
dólares

Estadísticos de grupo

Género N Media Desviación típ. Error típ. de la


media

Hombre 258 $41,441.7829 $19,499.21374 $1,213.96802


Salario actual
Mujer 216 $26,031.9213 $7,558.02145 $514.25822

El segundo cuadro muestra los resultados de la prueba de hipótesis

Como dice la teoría se debe contrastar primero si las poblaciones tienen muestras iguales diferentes lo cual
se realiza con la prueba de Levene, planteándose las siguientes hipótesis

H 0 :  12 =  22 Las varianza de las poblaciones son homogéneas

H1 :  12   22 Las varianza de las poblaciones no son homogéneas

α = 0,05

Al ser una prueba de dos colas obtenemos que p=0.0 < α = 0,05 entonces rechazamos Ho

Por lo tanto las varianzas de las poblaciones son homogéneas

Entonces procedemos a usar los resultados de la primera fila para realizar la hipótesis de la diferencia de
medias
Prueba de muestras independientes

Prueba de Levene Prueba T para la igualdad de medias


para la igualdad
de varianzas

F Sig. t gl Sig. Diferencia de Error típ. de la 95% Intervalo de confianza para


(bilateral) medias diferencia la diferencia

Inferior Superior

Se han asumido 119,669 ,000 10,945 472 ,000 $15,409.86165 $1,407.90634 $12,643.32193 $18,176.40137
varianzas iguales
Salario
actual
No se han asumido 11,688 344,262 ,000 $15,409.86165 $1,318.40050 $12,816.72773 $18,002.99557
varianzas iguales

La columna de Sig (bilateral) que en realidad es el valor p que lo comparamos con el valor de α = 0,05 siendo
p = 0,0 < α = 0,05
Paso 4: Establecer la regla de decisión
Nuestra regla de decisión será p = 0,0 < α = 0,05
Paso 5: Tomar la decisión
Por lo explicado en la página 43 se decide Rechazar Ho
Paso 6: Conclusión
Por lo tanto se puede concluir que “Existe diferencia significativa entre los ingresos de hombres y mujeres
de esta ciudad”, además el sueldo de los varones es mucho más alto que el de las mujeres.
SESIÓN

AL FINALIZAR LA PRESENTE SESIÓN, EL PARTICIPANTE ESTARÁ EN LA CAPACIDAD DE:

 Conocer conceptos básicos y los métodos de pruebas de hipótesis paramétricas

TEMAS: PRUEBAS DE SIGNIFICACIÓN ESTADÍSTICA PARAMÉTRICA

 Prueba T para dos Muestras relacionadas.


 Análisis de varianza de un factor
 Análisis de varianza de dos factores
CONTRASTACIÓN O PRUEBA DE HIPÓTESIS PARAMÉTRICAS (PARTE II)

En este capítulo continuamos con las pruebas de hipótesis paramétricas


5. PRUEBA DE HIPÓTESIS DE LA DIFERENCIA DE DOS MEDIAS POBLACIONALES DE MUESTRAS
RELACIONADAS
Supongamos que nos hemos planteado la siguiente hipótesis de investigación:
“Existe diferencia significativa entre el salario inicial y salario actual de los trabajadores de esta ciudad”
Paso 1: Planteamos las hipótesis estadísticas
Ho: µd = 0
H1: µd ≠ 0
Paso 2: Elegimos el nivel de significancia
α = 0,05
Paso 3: Elegir y estimar el estadístico de prueba con SPSS
Realizamos los siguiente pasos Analizar /Comparar medias /Prueba t para muestras relacionadas

Se muestra el siguiente cuadro de dialogo, en el cual seleccionamos las variables a contrastar para el
ejemplo Salario actual en la variables 1 Salario inicial en la variable 2.
Si deseamos estimar el intervalo e confianza de la diferencia de medias hacemos clic en el botón Opciones
e ingresamos el nivel de confianza del intervalo a estimar.

Obtenemos el siguiente resultado en el visor de resultados de SPSS

Prueba T
Esta primera tabla nos muestras los resultados de los estadísticos (medidas descriptivas de la muestra) de
cada variable (antes y después):

- El salario promedio actual de los 474 empleados es de 34 419.57 dólares al año con una variación
de ± 17 075,66 dólares
- El salario promedio inicial de los 474 empleados es de 17 016.09 dólares al año con una variación
de ± 7 870.64 dólares

Estadísticos de muestras relacionadas

Media N Desviación típ. Error típ. de la


media

Salario actual $34,419.5675 474 $17,075.66146 $784.31111


Par 1
Salario inicial $17,016.0865 474 $7,870.63815 $361.51038

La segunda tabla muestra las correlaciones entre las variables, donde la correlación (r) = 0.88 es fuerte
positiva entre el salario actual y salario inicial, por lo tanto a mayor salario inicial se obtendrá una mayor
salario actual.

Correlaciones de muestras relacionadas

N Correlación Sig.

Par 1 Salario actual y Salario inicial 474 ,880 ,000

La tercera tabla muestra los resultados de la prueba de hipótesis, donde la columna de Sig (bilateral) que
en realidad es el valor p lo comparamos con el valor de α = 0,05 siendo p = 0,0 < α = 0,05

Prueba de muestras relacionadas

Diferencias relacionadas t gl Sig.


(bilateral)
Media Desviación típ. Error típ. de 95% Intervalo de confianza
la media para la diferencia

Inferior Superior

Salario actual - $17,403.48101 $10,814.61996 $496.73195 $16,427.40671 $18,379.5553 35,036 473 ,000
Par 1
Salario inicial 1

Paso 4: Establecer la regla de decisión


Nuestra regla de decisión será p = 0,0 < α = 0,05
Paso 5: Tomar la decisión
Por lo explicado en la página 43 se decide Rechazar Ho
Paso 6: Conclusión
Por lo tanto se puede concluir que “Existe diferencia significativa entre el salario inicial y salario actual de
los trabajadores de esta ciudad”
ANALISIS DE VARIANZA
Hasta el tema anterior hemos aplicado los métodos de Contrastación o Prueba de Hipótesis a una o dos
poblaciones, pero muchas veces necesitamos tomar decisiones con respecto a las medias de más de dos
poblaciones.
El Análisis de Varianza se utiliza para probar o contrastar si tres o más poblaciones tienen la misma media,
pero se comparan las varianzas muestrales, se basa en una comparación de la cantidad de variación en cada
uno de los tratamientos Este método se aplica en estudios experimentales.
Al igual que en temas anteriores necesitamos iniciar este tema con algunos conceptos básicos.
Unidades Experimentales: Objetos que reciben el tratamiento
Factor: Es la fuerza o la variable cuyo impacto en tales unidades experimentales se desea medir
Tratamientos: Niveles del factor
Modelo de Efectos Fijos: En el cual se seleccionan tratamientos específicos antes del estudio.
Modelos de Efectos aleatorios: En el cual los tratamientos se seleccionan aleatoriamente de una población
de niveles posibles.

DISEÑO COMPLETAMENTE ALEATORIZADO (ANOVA DE UN FACTOR)

Llamado también Análisis de varianza (ANOVA) de una vía o un factor. Sirve para comparar varios grupos
de una variable cuantitativa, es una extensión de a prueba t para dos muestras. Los grupos están definidos
por una variable categórica (nominal u ordinal) a la que llamaremos variable independiente o factor y a la
variable cuantitativa (de intervalo o razón) en la queseamos comprar los grupos será la variable
dependiente.
Se le denomina completamente aleatorizado, ya que las unidades experimentales son asignadas
aleatoriamente a cada tratamiento.
Este método además de determinar que existen diferencias entre las medias, es posible que desee saber
qué medias difieren. Existen dos tipos de contrastes para comparar medias: a priori y post hoc. Los
contrastes a priori se plantean antes de ejecutar el experimento y los contrastes post hoc se realizan
después de haber llevado a cabo el experimento. También puede contrastar las tendencias existentes a
través de las categorías.
Las hipótesis que se contrastan son las siguientes:
H 0 : 1 = 2 = ... = c
H1 : Al menos una de las medias es diferente
Si las medias poblacionales son iguales, eso significará que los grupos no difieren en la variable dependiente
y que, en consecuencia, la variable independiente o factor es independiente de la variable dependiente.

Fuentes de variación consideradas dentro del diseño


1. Variación total: Variación entre el número total de las observaciones
2. Variación entre muestras o entre tratamientos: Variación entre las diferentes muestras
3. Variación dentro de la muestra o del error: Variación dentro de un tratamiento
El análisis de varianza se basa en que la variabilidad total de la muestra puede descomponerse en la
variabilidad debido a la diferencia entre grupos o tratamientos y la debida debido a la diferencia dentro de
los grupos o tratamientos

TABLA DE ANALISIS DE VARIANZA

Fuente de variación Suma de Grados de Cuadrado medio Valor F


cuadrados libertad

Entre tratamientos SCTR c -1 CMTR = SCTR/( c – 1)


Del error SCE n–c CME = SCE/(n-c) F= CMTRA/CME
Variación Total SCT n–1
ANOVA DE UN FACTOR CON SPSS

Supongamos que nos planteamos la siguiente hipótesis a contrastar “que el tiempo promedio de
trabajo dentro de la empresa es significativamente entre las diferentes categorías laborales”

Paso 1: Planteamos las hipótesis


H 0 : 1 =  2 =  3
H1: Al menos una de las medias es diferente

Paso 2: Elegimos el nivel de significancia


α = 0,05

Paso 3: Elegir y estimar el estadístico de prueba con SPSS


Seleccionamos la pestaña Analizar luego la opción Comparar medias y encontraremos ANOVA de un
factor

Se mostrará la siguiente ventana de diálogo en la cual debemos de seleccionar la variable dependiente


(en nuestro caso Experiencia laboral en la empresa) y la variable factor o variable dependiente (en
nuestro ejemplo Categoría laboral)
El botón Contrastes

Permite realizar comparaciones de tendencia y definir cualquier otro tipo de comparaciones entre
medias que se nos ocurra plantear. Puede dividir las sumas de cuadrados inter-grupos en
componentes de tendencia o especificar contrastes a priori.

Polinómico: Divide las sumas de cuadrados inter-grupos en componentes de tendencia. Puede


contrastar la existencia de tendencia en la variable dependiente a través de los niveles ordenados de
la variable de factor. Por ejemplo, podría contrastar si existe una tendencia lineal (creciente o
decreciente) en el salario, a través de los niveles ordenados de la titulación mayor obtenida.
Orden: Se puede elegir un orden polinómico 1º, 2º, 3º, 4º o 5º
Coeficientes: Se utiliza para realizar contrastes a priori especificados por el usuario que serán
contrastados mediante el estadístico t. Introduzca un coeficiente para cada grupo (categoría) de la
variable factor y pulse en Añadir después de cada entrada. Cada nuevo valor se añade al final de la
lista de coeficientes. Para especificar conjuntos de contrastes adicionales, pulse en Siguiente. Utilice
Siguiente y Anterior para desplazarse por los conjuntos de contrastes.
El orden de los coeficientes es importante porque corresponden con el orden ascendente de los
valores de las categorías de la variable de factor. El primer coeficiente en la lista corresponde con el
menor de los valores de grupo en la variable de factor y el último coeficiente corresponde con el valor
más alto. Por ejemplo, si existen seis categorías en la variable factor, los coeficientes
–1, 0, 0, 0, 0,5 y 0,5 contrastan el primer grupo con los grupos quinto y sexto. Para la mayoría de las
aplicaciones, la suma de los coeficientes debería ser 0. Los conjuntos que no sumen 0 también se
pueden utilizar, pero aparecerá un mensaje de advertencia

El botón Post hoc


Al pulsar el botón Post hoc o comparaciones a posteriori se va a seleccionar el procedimiento que se va
a utilizar para saber que media difiere de las otras
Una vez que se ha determinado que existen diferencias entre las medias, las pruebas de rango post
hoc y las comparaciones múltiples por parejas permiten determinar qué medias difieren. Las pruebas
de rango identifican subconjuntos homogéneos de medias que no se diferencian entre sí. Las
comparaciones múltiples por parejas contrastan la diferencia entre cada pareja de medias y generan
una matriz donde los asteriscos indican las medias de grupo significativamente diferentes a un nivel
alfa de 0,05.

Asumiendo varianzas iguales


La prueba de la diferencia honestamente significativa de Tukey, la GT2 de Hochberg, la prueba de
Gabriel y la prueba de Scheffé son pruebas de comparaciones múltiples y pruebas de rango. Otras
pruebas de rango disponibles son la b de Tukey, S-N-K (Student-Newman-Keuls), Duncan, R-E-G-W F
(prueba F de Ryan-Einot-Gabriel-Welsch), R-E-G-W Q (prueba de rango de Ryan-Einot-Gabriel-Welsch)
y Waller-Duncan. Las pruebas de comparaciones múltiples disponibles son Bonferroni, Diferencia
honestamente significativa de Tukey, Sidak, Gabriel, Hochberg, Dunnett, Scheffé y DMS (diferencia
menos significativa).

DMS: Utiliza pruebas t para realizar todas las comparaciones por pares entre las medias de los grupos.
La tasa de error no se corrige para realizar múltiples comparaciones.
Bonferroni: Utiliza las pruebas de t para realizar comparaciones por pares entre las medias de los
grupos, pero controla la tasa de error global estableciendo que la tasa de error de cada prueba sea
igual a la tasa de error por experimento dividida entre el número total de contrastes. Así, se corrige el
nivel crítico por el hecho de que se están realizando múltiples comparaciones.
Sidak: Prueba de comparaciones múltiples por parejas basada en un estadístico t. La prueba de Sidak
corrige el nivel de significación para las comparaciones múltiples y da lugar a límites más estrechos
que los de Bonferroni.
Scheffé: Realiza comparaciones múltiples conjuntas por parejas para todas las parejas de
combinaciones de las medias posibles. Utiliza la distribución muestral F. Puede utilizarse para
examinar todas las combinaciones lineales de grupos de medias posibles, no sólo las comparaciones
por parejas.
R-E-G-W F: Procedimiento múltiple por pasos de Ryan-Einot-Gabriel-Welsch que se basa en una
prueba F.
R-E-G-W Q: Procedimiento múltiple por pasos de Ryan-Einot-Gabriel-Welsch que se basa en el rango
estudentizado.
S-N-K: Realiza todas las comparaciones por parejas entre las medias utilizando la distribución del rango
de Student. Con tamaños de muestras iguales, también compara pares de medias dentro de
subconjuntos homogéneos utilizando un procedimiento por pasos Las medias se ordenan de mayor a
menor y se comparan primero las diferencias más extremas.
Tukey: Utiliza el estadístico del rango estudentizado para realizar todas las comparaciones por pares
entre los grupos. Establece la tasa de error por experimento como la tasa de error para el conjunto de
todas las comparaciones por pares.
Tukey-b: Prueba que emplea la distribución del rango estudentizado para realizar comparaciones por
pares entre los grupos. El valor crítico es el promedio de los valores correspondientes a la diferencia
honestamente significativa de Tukey y al método de Student-Newman-Keuls.
Duncan: Realiza comparaciones por pares utilizando un orden por pasos idéntico al orden usado por
la prueba de Student-Newman-Keuls, pero establece un nivel de protección en la tasa de error para la
colección de contrastes, en lugar de usar una tasa de error para los contrastes individuales. Utiliza el
estadístico del rango estudentizado.
GT2 de Hochberg: Prueba de comparaciones múltiples y de rango que utiliza el módulo máximo
estudentizado. Es similar a la prueba de la diferencia honestamente significativa de Tukey.
Gabriel: Prueba de comparación por parejas que utiliza el módulo máximo estudentizado y que es
generalmente más potente que la GT2 de Hochberg, si los tamaños de las casillas son desiguales. La
prueba de Gabriel se puede convertir en liberal cuando los tamaños de las casillas varían mucho.
Waller-Duncan: Prueba de comparaciones múltiples basada en un estadístico t. Utiliza la aproximación
Bayesiana.
Dunnett: Prueba de comparaciones múltiples por parejas que compara un conjunto de tratamientos
respecto a una única media de control. La última categoría es la categoría de control por defecto. Si lo
desea, puede seleccionar la primera categoría. Para comprobar que la media de cualquier nivel del
factor (excepto la categoría de control) no es igual a la de la categoría de control, utilice una prueba
bilateral. Para contrastar si la media en cualquier nivel del factor es menor que la de la categoría de
control, seleccione <Control. Para contrastar si la media en cualquier nivel del factor es mayor que la
de la categoría de control, seleccione >Control.

No asumiendo varianzas iguales

Las pruebas de comparaciones múltiples que no suponen varianzas iguales son T2 de Tamhane, T3 de
Dunnett, Games-Howell y C de Dunnett.
T2 de Tamhane: Prueba de comparaciones múltiples por parejas basada en una prueba t. Esta prueba
es adecuada cuando las varianzas son desiguales.
T3 de Dunnett: Prueba de comparación por parejas basada en el módulo máximo estudentizado. Esta
prueba es adecuada cuando las varianzas son desiguales.
Games-Howell: Prueba de comparación por parejas que es en ocasiones liberal. Esta prueba es
adecuada cuando las varianzas son desiguales.
C de Dunnett: Prueba de comparación por parejas basada en el rango estudentizado. Esta prueba es
adecuada cuando las varianzas son desiguales.

Nota: Posiblemente le resulte más fácil interpretar el resultado de los contrastes post hoc si desactiva
Ocultar filas y columnas vacías en el cuadro de diálogo Propiedades de tabla (en una tabla pivote
activada, seleccione Propiedades de tabla en el menú Formato).

EL botón opciones permiten seleccionar:


Estadísticos:
Descriptivos: Ofrece estadísticos descriptivos referidos tanto a cada
grupo como al total muestral.
Efectos aleatorios y fijos: Los niveles de un factor pueden establecerse de dos maneras distintas:
fijándolos (se utilizan solamente los niveles que se desea estudiar o los niveles que posee la variable,
es la forma habitual de proceder) o seleccionándolos aleatoriamente entre la población de posible
niveles del factor. En el primer caso se habla de factor de efectos fijos; en el segundo de factor de
efectos aleatorios. Si se elige esta opción, el visor ofrece distintos estadísticos para cada tipo de
efectos.
Prueba de homogeneidad de las varianzas: El estadístico F del ANOVA de un factor se basa en el
cumplimiento de dos supuestos fundamentales: normalidad y homocedasticidad. Normalidad significa
que la variable dependiente se distribuye normalmente en todas las poblaciones muestreadas; si los
tamaños de los grupos son grandes, el estadístico F se comporta razonablemente incluso con
distribuciones poblacionales sensiblemente alejadas de la normalidad. Homocedasticidad o
igualdad de varianzas significa que todas las poblaciones muestreadas poseen la misma varianza; con
grupos de distinto tamaño, el incumplimiento de este supuesto debe ser cuidadosamente vigilado.
Esta opción permite contrastar este supuesto mediante la prueba de Levene.
Brown-Forsythe y Welch: Representan una alternativa robusta al estadístico F del ANOVA cuando no
se puede asumir que las varianzas son iguales.
Gráfico de las medias: Permite obtener un gráfico de líneas con la variable factor en el eje horizontal
y la variable dependiente en el vertical (igual que el gráfico de perfil en el Anova con más de dos
factores).
Valores perdidos: Los casos con valores perdidos pueden excluirse del análisis utilizando criterios
diferentes:
- Excluir casos según análisis. Excluye del ANOVA los casos que tienen algún valor perdido en la
variable factor o en la variable dependiente que está siendo analizada. Es la opción por
defecto.
- Excluir casos según lista. Excluye de todos los ANOVA solicitados los casos que tienen algún
valor perdido en la variable factor o en cualquiera de las variables trasladadas a la lista
Dependientes

Luego hacer clic en el botón Aceptar


Obteniendo los siguientes resultados
ANOVA de un factor

En la primera tabla se muestran las medidas descriptivas de la variable independiente de cada factor
establecido con su respectivo intervalo de confianza.

Descriptivos

Experiencia laboral en la empresa (meses)

N Media Desviación Error Intervalo de confianza para la Mínimo Máximo


típica típico media al 95%

Límite inferior Límite superior

Administrativo 363 81,07 10,110 ,531 80,02 82,11 63 98

Directivo 27 81,56 8,487 1,633 78,20 84,91 67 95

Seguridad 84 81,15 10,410 1,136 78,90 83,41 64 98

Total 474 81,11 10,061 ,462 80,20 82,02 63 98

En el segundo cuadro se realiza la prueba de homogeneidad de las varianzas mediante los siguientes
pasos

H 0 :  12 =  22 =  32

H1: Al menos una de las varianzas es diferente a las demás

Como sig = 0,344 > 0.05 = α entonces aceptamos la hipótesis nula, lo que indica que las varianzas son
homogéneas

Prueba de homogeneidad de varianzas

Experiencia laboral en la empresa (meses)

Estadístico de gl1 gl2 Sig.


Levene

1,071 2 471 ,344

Como se cumple la condición de homogeneidad interpretamos los resultados de la tabla ANOVA

ANOVA de un factor

Experiencia laboral en la empresa (meses)


Suma de Gl Media cuadrática F Sig.
cuadrados

Inter-grupos 6,227 2 3,114 ,031 ,970

Intra-grupos 47872,068 471 101,639

Total 47878,295 473

Paso 4: Establecer la regla de decisión


Nuestra regla de decisión será sig = 0,97 > α = 0,05
Paso 5: Tomar la decisión
Por lo explicado en la página 43 se decide no Rechazar Ho
Paso 6: Conclusión
Por lo tanto se puede concluir que “el tiempo promedio de trabajo dentro de la empresa no son
significativamente entre las diferentes categorías laborales” lo que indica que tienen el mismo tiempo
promedio en la empresa.
Al haber aceptado la hipótesis nula no aplica el método de comparaciones múltiples.

Comparaciones múltiples

Variable dependiente: Experiencia laboral en la empresa (meses)


DMS

(I) Categoría (J) Categoría Diferencia de Error Sig. Intervalo de confianza al 95%
laboral laboral medias (I-J) típico
Límite inferior Límite superior

Directivo -,489 2,011 ,808 -4,44 3,46


Administrativo
Seguridad -,089 1,221 ,942 -2,49 2,31

Administrativo ,489 2,011 ,808 -3,46 4,44


Directivo
Seguridad ,401 2,230 ,857 -3,98 4,78

Administrativo ,089 1,221 ,942 -2,31 2,49


Seguridad
Directivo -,401 2,230 ,857 -4,78 3,98
SESIÓN

AL FINALIZAR LA PRESENTE SESIÓN, EL PARTICIPANTE ESTARÁ EN LA CAPACIDAD DE:

TEMAS:

PRUEBAS NO PARAMÉTRICAS

Las pruebas no paramétricas hacen supuestos mínimos acerca de la distribución subyacente de los datos. Las
pruebas que están disponibles en estos cuadros de diálogo, se pueden agrupar en tres categorías amplias en
función de cómo se organizan los datos:
Una prueba para una muestra analiza un campo.
Una prueba para muestras relacionadas compara dos o más campos para el mismo conjunto de casos.
Una prueba para muestras independientes analiza un campo que se agrupa por categorías de otro campo.

Pruebas no paramétricas para una muestra


Una prueba no paramétricas para una muestra identifica diferencias en campos únicos mediante una o más
pruebas no paramétricas. Las pruebas no paramétricas no dan por hecho que sus datos sigan la distribución
normal.

Pestaña Objetivo de Pruebas no paramétricas para una muestra

¿Cuál es su objetivo? Los objetivos le permiten especificar rápidamente ajustes de prueba diferentes y comunes.

Comparar automáticamente datos observados con el valor hipotetizado. Este objetivo aplica la prueba binomial
a campos categóricos con sólo dos categorías, la prueba de chi-cuadrado al resto de campos categóricos y la
prueba de Kolmogorov-Smirnov a campos continuos.

Probar la aleatoriedad de la secuencia. Este objetivo utiliza la prueba de rachas para comprobar la aleatoriedad
de la secuencia observada de valores de datos.

Análisis personalizado. Seleccione esta opción si desea modificar manualmente la configuración de la prueba
de la pestaña Configuración. Tenga en cuenta que esta configuración se selecciona automáticamente si realiza
cambios posteriores a muchas opciones de la pestaña Configuración que sean incompatibles con los del objetivo
seleccionado actualmente.

Para obtener Pruebas no paramétricas para una muestra


Seleccione en los menús:
Analizar > Pruebas no paramétricas > Una muestra...
Pulse en Ejecutar.
Si lo desea, puede:
➢ Especifique un objetivo en la pestaña Objetivos.
➢ Especifique asignaciones de campo en la pestaña Campos.
➢ Especifique la configuración de experto en la pestaña Configuración.

Pestaña Campos
Pestaña Campos de Pruebas no paramétricas para una muestra

La pestaña Campos especifica los campos que se deben comprobar.


Utilizar papeles predefinidos. Esta opción utiliza información de campos existentes. Todos los campos con un
papel predefinido como Entrada o Ambos se utilizarán como campos de prueba. Al menos un campo de prueba
es necesario.
Utilizar asignaciones de campos personalizadas. Esta opción le permite sobrescribir papeles de campos.
Después de seleccionar esta opción, especifique los campos siguientes.
Campos de prueba. Seleccione uno o más campos de prueba.
Pestaña Configuración
La pestaña Configuración contiene diferentes grupos de ajustes que puede modificar para ajustar con precisión
la forma en que el algoritmo procesa sus datos. Si realiza algún cambio en la configuración por defecto que sea
incompatible con el objetivo seleccionado actualmente, la pestaña Objetivo se actualiza automáticamente para
seleccionar la opción Personalizar análisis.
Seleccionar pruebas
Configuración de Pruebas de Pruebas no paramétricas para una muestra
Estos ajustes especifican las pruebas que realizarán en los campos especificados en la pestaña Campos.
Seleccione automáticamente las pruebas en función de los datos. Esta configuración aplica la prueba binomial a
campos categóricos con sólo dos categorías válidas (sin valores ausentes), la prueba de chi-cuadrado al resto de
campos categóricos y la prueba de Kolmogorov-Smirnov a campos continuos.
Personalizar pruebas. Esta configuración permite especificar las pruebas que se ejecutarán.
Comparar la probabilidad binaria observada con el valor hipotetizado (prueba binomial). La prueba binomial se
puede aplicar a todos los campos. Produce una prueba de una muestra que comprueba si la distribución
observada de un campo de marca (un campo categórico con sólo dos categorías) es el mismo que lo que se
espera de una distribución binomial especificada.
Además, puede solicitar intervalos de confianza. Consulte Opciones de prueba binomiales para obtener
información sobre la configuración de prueba.
Comparar las probabilidades observadas con el valor hipotetizado (prueba de chi-cuadrado).
La prueba de chi-cuadrado se aplica a campos nominales y ordinales. Produce una prueba de una muestra que
calcula un estadístico chi-cuadrado basado en las diferencias entre las frecuencias observadas y esperadas de las
categorías de un campo. Consulte Opciones de prueba de chi-cuadrado para obtener información sobre la
configuración de prueba.
Probar la distribución observada con el valor hipotetizado (prueba de Kolmogorov-Smirnov). La prueba de
Kolmogorov-Smirnov se aplica a los campos continuos. Produce una prueba de una muestra de si la función de
distribución acumulada de muestra de un campo es homogénea con una distribución uniforme, normal, Poisson
o exponencial. Consulte Opciones de Kolmogorov-Smirnov para obtener información sobre la configuración de
prueba.
Comparar mediana con el valor hipotetizado (prueba de Wilcoxon de los rangos con signo). La prueba de
Wilcoxon de los rangos con signo se aplica a campos continuos. Produces una prueba para una muestra del valor
de mediana de un campo. Especifique un número como la mediana hipotetizada.
Probar la aleatoriedad de la secuencia (prueba de rachas). La prueba de rachas se aplica a todos los
campos. Produces una prueba de una muestra de si la secuencia de valores de un campo de dicotomías es
aleatoria. Consulte Prueba de rachas: Opciones para obtener información sobre la configuración de prueba.

Opciones de prueba binomiales


Opciones de prueba binomiales de Pruebas no paramétricas para una muestra
La prueba binomial está diseñada para campos de marca (campos categóricos con sólo dos categorías), pero se
aplica a todos los campos mediante reglas para definir “éxito”.
Proporción hipotetizada. Especifica la proporción esperada de registros definidos como “éxitos” o p.
Especifique un valor mayor que 0 y menor que 1. El valor por defecto es 0,5.

Intervalo de confianza. Los siguientes métodos permiten calcular intervalos de confianza de datos binarios:
Clopper-Pearson (exacto). Un intervalo exacto basado en la distribución binomial acumulada.
Jeffreys. Un intervalo Bayesian basado en la distribución posterior de p que utiliza la opción Jeffreys anterior.
Cociente de verosimilitudes. Un intervalo basado en la función de verosimilitud para p.
Definir éxito para campos categóricos. Especifica cómo se define “éxito”, el valor(s) de datos se comprueba en
la proporción hipotetizada, en los campos categóricos.
Utilizar primera categoría encontrada en los datos realiza la prueba binomial que utiliza el primer valor
encontrado en la muestra para definir “éxito”. Esta opción sólo es aplicable a los campos nominal u ordinal con
sólo dos valores; el resto de campos categóricos especificados en la pestaña Campos en los que se utiliza esta
opción no se comprobarán. Ésta es la opción por defecto.
Especificar valores de éxito realiza la prueba binomial que utiliza la lista especificada de valores para definir
“éxito”. Especifique una lista de valores de cadena o numérico. No es necesario que los valores de la lista estén
en la muestra.

Definir éxito para campos continuos. Especifica cómo se define “éxito”, el valor(s) de datos se comprueba en el
valor de prueba, en los campos categóricos. Éxito se define como valores iguales o menores que un punto de
corte.
Punto medio de muestra define el punto de corte en la media de los valores mínimo o máximo.
Punto de corte personalizado permite especificar un valor para el punto de corte.

Opciones de prueba de chi-cuadrado


Opciones de prueba de chi-cuadrado de Pruebas no paramétricas para una muestra
Todas las categorías tienen la misma probabilidad. Produce la misma frecuencia entre todas las categorías en la
muestra. Ésta es la opción por defecto.
Personalizar probabilidad esperada. Permite especificar frecuencias desiguales para una lista de categorías
específica. Especifique una lista de valores de cadena o numérico. No es necesario que los valores de la lista
estén en la muestra. En la columna Categoría, especifique los valores de categorías. En la columna Frecuencia
relativa, especifique un valor superior a 0 para cada categoría. Las frecuencias personalizadas se consideran
porcentajes de forma que, por ejemplo, especificar frecuencias de 1, 2 y 3 es equivalente a especificar
frecuencias de 10, 20 y 30, y especificar que 1/6 de los registros se esperan en la primera categoría, 1/3 en la
segunda y 1/2 en la tercera. Si se especifican probabilidades esperadas personalizadas, los valores de categorías
personalizadas deben incluir todos los valores de campo de los datos; de lo contrario la prueba no se realiza en
ese campo.

Opciones de Kolmogorov-Smirnov
Opciones de Kolmogorov-Smirnov para pruebas no paramétricas para una muestra

Este cuadro de diálogo especifica las distribuciones que se deben comprobar y los parámetros de las distribución
hipotetizada.

Normal. Utilizar datos muestrales utiliza la media observada y la desviación típica, Personalizado le permite
especificar valores.
Uniforme. Utilizar datos muestrales utiliza los valores observados mínimos y máximos,
Personalizado le permite especificar valores.

Exponencial. Media muestral utiliza la media observada, Personalizado le permite especificar valores.

Poisson. Media muestral utiliza la media observada, Personalizado le permite especificar valores.
204

Capítulo 27

Prueba de rachas: Opciones

Figura 27-7
Opciones de prueba de rachas de Pruebas no paramétricas para una muestra

La prueba está diseñada para campos de marca (campos categóricos con sólo dos categorías), pero se puede aplica
a todos los campos mediante reglas para definir grupos.

Definir grupos para campos categóricos


Sólo hay 2 categorías en la muestra realiza la prueba de rachas utilizando los valores encontrados en la muestra
para definir los grupos. Esta opción sólo es aplicable a los campos nominal u ordinal con sólo dos valores; el resto de
campos categóricos especificados en la pestaña Campos en los que se utiliza esta opción no se comprobarán.
Recodificar datos en 2 categorías realiza la prueba de rachas utilizando la lista de valores especificada para definir
uno de los grupos. El resto de valores de muestra definen el otro grupo. No es necesario que todos los valores de
la lista estén presentes en la muestra, pero debe haber al menos un registro en cada grupo.

Definir punto de corte para campos continuos. Especifica cómo se definen los grupos para campos continuos. El
primer grupo se define como valores iguales o menores que un punto de corte.
Mediana muestral define el punto de corte en la mediana muestral.
Media muestral define el punto de corte en la media muestral.
Personalizado permite especificar un valor para el punto de corte.
205

Pruebas no paramétricas

Opciones de prueba

Figura 27-8
Configuración de Opciones de pruebas de Pruebas no paramétricas para una muestra

Nivel de significación. Especifica el nivel de significación (alfa) de todas las pruebas. Especifica un valor numérico
entre 0 y 1. 0,05 es el valor por defecto.

Intervalo de confianza (%). Esto especifica el nivel de confianza de todos los intervalos de confianza producidos.
Especifica un valor numérico entre 0 y 100. 95 es el valor por defecto.

Casos excluidos. Especifica cómo se determinan las pruebas caso por caso.
Excluir casos según lista significa que los registros con valores perdidos de cualquier campo que se nombran en la
pestaña Campos se excluyen de todos los análisis.
Excluir casos según prueba significa que los registros con valores perdidos para un campo que se utiliza para una
prueba específica se omiten de esa prueba. Si se realizan varias pruebas en el análisis, cada prueba se evalúa por
separado.

Opciones de Kolmogorov-Smirnov

Figura 27-9
Configuración de Valores perdidos de Pruebas no paramétricas para una muestra
Valores definidos como perdidos por el usuario para campos categóricos. Para que un registro se incluya en el análisis,
los campos categóricos deben tener valores válidos para dicho caso. Estos controles permiten decidir si los valores
definidos como perdidos por el usuario se deben tratar como válidos entre los campos categóricos. Los valores
perdidos por el sistema y perdidos para campos continuos siempre se tratan como no válidos.

Pruebas no paramétricas de muestras independientes

Las pruebas no paramétricas de muestras independientes identifican diferencias entre dos o más grupos utilizando
una o más pruebas no paramétricas. Las pruebas no paramétricas no dan por hecho que sus datos sigan la
distribución normal.
206

Capítulo 27

Figura 27-10
Pestaña Objetivo de Pruebas no paramétricas de muestras independientes

¿Cuál es su objetivo? Los objetivos le permiten especificar rápidamente ajustes de prueba diferentes y comunes.
Comparar automáticamente distribuciones entre grupos. Este objetivo aplica la prueba U de Mann-Whitney para
datos con 2 grupos o la prueba ANOVA de 1 vía de Kruskal-Wallis para datos con grupos k .
Comparar medianas entre grupos. Este objetivo utiliza la prueba de la mediana para comparar las medianas
observadas entre grupos.
Análisis personalizado. Seleccione esta opción si desea modificar manualmente la configuración de la prueba de
la pestaña Configuración. Tenga en cuenta que esta configuración se selecciona automáticamente si realiza
cambios posteriores a muchas opciones de la pestaña Configuración que sean incompatibles con los del objetivo
seleccionado actualmente.

Para obtener pruebas no paramétricas para muestras independientes

Seleccione en los menús:


Analizar > Pruebas no paramétricas > Muestras independientes...
E Pulse en Ejecutar.

Si lo desea, puede:
Especifique un objetivo en la pestaña Objetivos.
Especifique asignaciones de campo en la pestaña Campos.
Especifique la configuración de experto en la pestaña Configuración.
207

Pruebas no paramétricas

Pestaña Campos

Figura 27-11
Pestaña Campos de Pruebas no paramétricas de muestras independientes

La pestaña Campos especifica los campos que se deben comprobar y el campo que se utilizará para definir grupos.

Utilizar papeles predefinidos. Esta opción utiliza información de campos existentes. Todos los campos continuos
con un papel predefinido como Destino o Ambos se utilizarán como campos de prueba. Si hay un único campo
categórico con un papel predefinido como Entrada se utilizará como un campo de agrupación. De lo contrario, no
se utilizará por defecto ningún campo de agrupación y deberá utilizar asignaciones de campos personalizadas. Se
requiere al menos un campo de prueba y un campo de agrupación.

Utilizar asignaciones de campos personalizadas. Esta opción le permite sobrescribir papeles de campos. Después de
seleccionar esta opción, especifique los campos siguientes.
Campos de prueba. Seleccione uno o más campos continuos.
Grupos. Seleccione un campo categórico.
Pestaña Configuración

La pestaña Configuración contiene diferentes grupos de ajustes que puede modificar para ajustar con precisión con
la que el algoritmo procesa sus datos. Si realiza algún cambio en la configuración por defecto que sea incompatible
con el objetivo seleccionado actualmente, la pestaña Objetivo se actualiza automáticamente para seleccionar la
opción Personalizar análisis.
208

Capítulo 27

Seleccionar pruebas

Figura 27-12
Configuración de Seleccionar pruebas de Pruebas no paramétricas para una muestra

Estos ajustes especifican las pruebas que realizarán en los campos especificados en la pestaña
Campos.

Seleccione automáticamente las pruebas en función de los datos. Esta configuración aplica la prueba U de
Mann-Whitney para datos con 2 grupos o la prueba ANOVA de 1 vía de Kruskal-Wallis para datos con grupos k .

Personalizar pruebas. Esta configuración permite especificar las pruebas que se ejecutarán.
Comparar distribuciones entre grupos. Producen pruebas para muestras independientes si las muestras son de la
misma población.
U de Mann-Whitney (2 muestras) utiliza el nivel de cada caso para comprobar si los grupos se extraen de la misma
población. El primer valor del campo de agrupación define el grupo de control y el segundo define el grupo de
comparación. Si el campo de agrupación tiene más de dos valores, esta prueba no se ejecuta.
Kolmogorov-Smirnov (2 muestras) es sensible a cualquier diferencia en la mediana, dispersión, asimetría, etcétera
entre las dos distribuciones. Si el campo de agrupación tiene más de dos valores, esta prueba no se ejecuta.
Probar la aleatoriedad de la secuencia (Wald-Wolfowitz para 2 muestras) produce una prueba con pertenencia al
grupo como criterio. Si el campo de agrupación tiene más de dos valores, esta prueba no se ejecuta.
209

Pruebas no paramétricas

ANOVA de 1 vía de Kruskal-Wallis (k muestras) es una extensión de la prueba U de Mann-Whitney y el análogo


no paramétrico de análisis de varianza de un factor. Opcionalmente puede solicitar múltiples comparaciones de
las muestras k, en comparaciones múltiples todo por parejas o comparaciones por pasos en sentido descendente.
Probar alternativas ordenadas (prueba de Jonckheere-Terpstra para k muestras) es una alternativa más potente
que Kruskal-Wallis si las muestras k tienen un orden natural. Por ejemplo, las
k poblaciones pueden representar k temperaturas ascendentes. Se contrasta la hipótesis de que diferentes
temperaturas producen la misma distribución de respuesta, con la hipótesis alternativa de que cuando la
temperatura aumenta, la magnitud de la respuesta aumenta. La hipótesis alternativa se encuentra aquí
ordenada; por tanto, la prueba de Jonckheere-Terpstra es la prueba más apropiada. Especifique el orden de las
hipótesis alternativas; De menor a mayor estipula una hipótesis alternativa de que el parámetro de ubicación del
primer grupo no es igual que el segundo, que a su vez no es igual que el tercero, etcétera; De mayor a menor
estipula una hipótesis alternativa de que el parámetro de ubicación del primer grupo no es igual que el segundo,
que a su vez no es igual que el tercero, etcétera. Opcionalmente puede solicitar múltiples comparaciones de las
muestras k, en comparaciones múltiples todo por parejas o comparaciones por pasos en sentido descendente.
Comparar rangos entre grupos. Produces una prueba de muestras independientes de si las muestras tienen el
mismo rango. Reacciones extremas de Moses (2 muestras) comprueba un grupo de control con un grupo de
comparación. El primer valor en orden ascendente del campo de agrupación define el grupo de control y el
segundo define el grupo de comparación. Si el campo de agrupación tiene más de dos valores, esta prueba no se
ejecuta.
Comparar medianas entre grupos. Produces una prueba de muestras independientes de si las muestras tienen
la misma mediana. Prueba de la mediana (k muestras) puede utilizar la mediana muestral combinada (calculada
con todos los registros del conjunto de datos) o un valor personalizado como la mediana hipotetizada.
Opcionalmente puede solicitar
múltiples comparaciones de las muestras k, en comparaciones múltiples todo por parejas o comparaciones por
pasos en sentido descendente.
Estimar intervalos de confianza entre grupos. Hodges-Lehman (2 muestras) produce una estimación muestras
independientes y el intervalo de confianza para la diferencia en las medianas de los dos grupos. Si el campo de
agrupación tiene más de dos valores, esta prueba no se ejecuta.

Opciones de prueba

Figura 27-13
Configuración de Opciones de prueba de Pruebas no paramétricas para una muestra
210

Capítulo 27

Nivel de significación. Especifica el nivel de significación (alfa) de todas las pruebas. Especifica un valor numérico
entre 0 y 1. 0,05 es el valor por defecto.

Intervalo de confianza (%). Esto especifica el nivel de confianza de todos los intervalos de confianza producidos.
Especifica un valor numérico entre 0 y 100. 95 es el valor por defecto.

Casos excluidos. Especifica cómo se determinan las pruebas caso por caso. Excluir casos según lista significa que los
registros con valores perdidos de cualquier campo que se nombran en cualquier subcomando se excluyen de todos
los análisis. Excluir casos según prueba significa que los registros con valores perdidos para un campo que se utiliza
para una prueba específica se omiten de esa prueba. Si se realizan varias pruebas en el análisis, cada prueba se
evalúa por separado.

Valores definidos como perdidos por el usuario

Figura 27-14
Configuración de Valores definidos como perdidos por el usuario de Pruebas no paramétricas para una
muestra

Valores definidos como perdidos por el usuario para campos categóricos. Para que un registro se incluya en el
análisis, los campos categóricos deben tener valores válidos para dicho caso. Estos controles permiten decidir si los
valores definidos como perdidos por el usuario se deben tratar como válidos entre los campos categóricos. Los
valores perdidos por el sistema y perdidos para campos continuos siempre se tratan como no válidos.

Pruebas no paramétricas de muestras relacionadas

Identifica diferencias entre dos o más campos relacionados mediante una o más pruebas no paramétricas. Las
pruebas no paramétricas no dan por hecho que sus datos sigan la distribución normal.

Consideraciones sobre los datos Cada registro corresponde a un asunto concreto para el que se almacenan dos o
más medidas relacionadas en campos separados del conjunto de datos. Por ejemplo, es posible analizar un estudio
sobre la efectividad de un plan de dietas mediante pruebas no paramétricas de muestras relacionadas si el peso de
cada sujeto se mide a intervalos regulares y se almacena como campos como Peso previo a la dieta, Peso intermedio
y Peso tras la dieta. Estos campos están “relacionados”.
211

Pruebas no paramétricas

Figura 27-15
Pestaña Objetivo de Pruebas no paramétricas de muestras relacionadas

¿Cuál es su objetivo? Los objetivos le permiten especificar rápidamente ajustes de prueba diferentes y comunes.
Comparar automáticamente datos observados con datos hipotetizados. Este objetivo aplica la prueba de McNemar
a datos categóricos cuando se especifican 2 campos, la prueba Q de Cochran datos categóricos cuando se especifican
más de 2 campos, la prueba de Wilcoxon de los rangos con signo a datos continuos cuando se especifican 2 campos
y ANOVA de 2 vías de Friedman por rangos a datos continuos cuando se especifican más de 2 campos.
Análisis personalizado. Seleccione esta opción si desea modificar manualmente la configuración de la prueba de
la pestaña Configuración. Tenga en cuenta que esta configuración se selecciona automáticamente si realiza cambios
posteriores a muchas opciones de la pestaña Configuración que sean incompatibles con los del objetivo
seleccionado actualmente.

Cuando se especifican campos de diferentes niveles de medición, primero se separan por nivel de medición y
después se aplica la prueba adecuada a cada grupo. Por ejemplo, si selecciona Comparar automáticamente datos
observados con el valor hipotetizado como objetivo y especifica
3 campos continuos y 2 campos nominales, se aplicará la prueba de Friedman a los campos continuos y la prueba
de McNemar a los campos nominales.

Para obtener pruebas no paramétricas para muestras relacionadas

Elija en los menús:


Analizar > Pruebas no paramétricas > Muestras relacionadas...

E Pulse en Ejecutar.

Si lo desea, puede:
Especifique un objetivo en la pestaña Objetivos.
212

Capítulo 27

Especifique asignaciones de campo en la pestaña Campos.


Especifique la configuración de experto en la pestaña Configuración.

Pestaña Campos

Figura 27-16
Pestaña Campos de Pruebas no paramétricas de muestras relacionadas

La pestaña Campos especifica los campos que se deben comprobar.

Utilizar papeles predefinidos. Esta opción utiliza información de campos existentes. Todos los campos con un papel
predefinido como Destino o Ambos se utilizarán como campos de prueba. Se requieren al menos dos campos de
prueba.

Utilizar asignaciones de campos personalizadas. Esta opción le permite sobrescribir papeles de campos. Después
de seleccionar esta opción, especifique los campos siguientes:
Campos de prueba.Seleccione dos o más campos. Cada campo corresponde a una muestra relacionada diferente.
Pestaña Configuración

La pestaña Configuración contiene diferentes grupos de ajustes que puede modificar para ajustar con precisión con
la que el procedimiento procesa sus datos. Si realiza algún cambio en la configuración por defecto que sea
incompatible con el resto de objetivos, la pestaña Objetivo se actualiza automáticamente para seleccionar la
opciónPersonalizar análisis.
213

Pruebas no paramétricas

Seleccionar pruebas

Figura 27-17
Configuración de Seleccionar pruebas de Pruebas no paramétricas para muestras relacionadas

Estos ajustes especifican las pruebas que realizarán en los campos especificados en la pestaña
Campos.

Seleccione automáticamente las pruebas en función de los datos. Esta configuración aplica la prueba de
McNemar a datos categóricos cuando se especifican 2 campos, la prueba Q de Cochran datos categóricos cuando
se especifican más de 2 campos, la prueba de Wilcoxon de los rangos con signo a datos continuos cuando se
especifican 2 campos y ANOVA de 2 vías de Friedman por rangos a datos continuos cuando se especifican más de
2 campos.

Personalizar pruebas. Esta configuración permite especificar las pruebas que se ejecutarán.
Probar si hay cambios en datos binarios. Prueba de McNemar (2 muestras) se puede aplicar a campos
categóricos. Produce una prueba de muestras relacionadas de si las combinaciones de valores entre dos campos
de marca (campos categóricos con dos valores únicamente) son igualmente probables. Si hay más de dos campos
especificados en la pestaña Campos, esta prueba no se realiza. Consulte Prueba de McNemar: Definir éxito para
obtener información sobre la configuración de prueba. Q de Cochran (k muestras) se puede aplicar a campos
categóricos. Produce una prueba de muestras relacionadas de si las combinaciones de valores entre k campos de
marca (campos categóricos con dos valores únicamente) son igualmente probables. Opcionalmente puede
solicitar múltiples comparaciones de las muestras k, en comparaciones múltiples todo por parejas o
comparaciones por pasos en sentido descendente. Consulte Q de Cochran: Definir éxito para obtener información
sobre la configuración de prueba.
Probar si hay cambios en datos multinomiales. Prueba de homogeneidad marginal (2 muestras) produce una
prueba de muestras relacionadas de combinaciones de valores entre dos campos ordinales emparejados
igualmente probables. La prueba de homogeneidad marginal se suele utilizar en situaciones de medidas
repetidas. Se trata de una extensión de la prueba de
214

Capítulo 27

McNemar a partir de la respuesta binaria a la respuesta multinomial. Si hay más de dos campos especificados en
la pestaña Campos, esta prueba no se realiza.
Comparar diferencia de la mediana con el valor hipotetizado. Cada una de estas pruebas producen una prueba
de muestras relacionadas de si la diferencia de la mediana entre dos campos continuos es diferente de 0. Si hay
más de dos campos especificados en la pestaña Campos, estas pruebas no se realizan.
Estimar intervalo de confianza. Produce un cálculo de muestras relacionadas y un intervalo de confianza para la
diferencia de la mediana entre dos campos continuos emparejados. Si hay más de dos campos especificados en la
pestaña Campos, esta prueba no se realiza.
Cuantificar asociaciones. Coeficiente de concordancia de Kendall (k muestras) produce un coeficiente de
concordancia entre evaluadores, donde cada registro es un valor de evaluador de varios elementos (campos).
Opcionalmente puede solicitar múltiples comparaciones de las muestras k, en comparaciones múltiples todo por
parejas o comparaciones por pasos en sentido descendente.
Comparar distribuciones. ANOVA de 2 vías de Friedman por rangos (k muestras) produce una muestra relacionada
de si las muestras relacionadas k se han extraído de la misma población. Opcionalmente puede solicitar múltiples
comparaciones de las muestras k, en comparaciones múltiples todo por parejas o comparaciones por pasos en
sentido descendente.

Prueba de McNemar: Definir éxito

Figura 27-18
Prueba de McNemar de Pruebas no paramétricas para muestras relacionadas: configuración de Definir éxito

La prueba de McNemar está diseñada para campos de marca (campos categóricos con sólo dos categorías), pero se
aplica a todos los campos categóricos mediante reglas para definir “éxito”.

Definir éxito para campos categóricos. Especifica cómo se define “éxito” en los campos categóricos.
Utilizar primera categoría encontrada en los datos realiza la prueba que utiliza el primer valor encontrado en la
muestra para definir “éxito”. Esta opción sólo es aplicable a los campos nominal u ordinal con sólo dos valores; el
resto de campos categóricos especificados en la
215

Pruebas no paramétricas

pestaña Campos en los que se utiliza esta opción no se comprobarán. Este es el método por defecto.
Especificar valores de éxito realiza la prueba que utiliza la lista especificada de valores para definir “éxito”.
Especifique una lista de valores de cadena o numérico. No es necesario que los valores de la lista estén en la
muestra.

Q de Cochran: Definir éxito

Figura 27-19
Prueba Q de Cochran de Pruebas no paramétricas para muestras relacionadas: Definir éxito

La prueba de Q de Cochran está diseñada para campos de marca (campos categóricos con sólo dos categorías),
pero se aplica a todos los campos categóricos mediante reglas para definir “éxito”.

Definir éxito para campos categóricos. Especifica cómo se define “éxito” en los campos categóricos.
Utilizar primera categoría encontrada en los datos realiza la prueba que utiliza el primer valor encontrado en la
muestra para definir “éxito”. Esta opción sólo es aplicable a los campos nominal u ordinal con sólo dos valores;
el resto de campos categóricos especificados en la pestaña Campos en los que se utiliza esta opción no se
comprobarán. Este es el método por defecto.
Especificar valores de éxito realiza la prueba que utiliza la lista especificada de valores para definir “éxito”.
Especifique una lista de valores de cadena o numérico. No es necesario que los valores de la lista estén en la
muestra.

Opciones de prueba
Figura 27-20
Configuración de Opciones de prueba de Pruebas no paramétricas para muestras relacionadas
216

Capítulo 27

Nivel de significación. Especifica el nivel de significación (alfa) de todas las pruebas. Especifica un valor numérico
entre 0 y 1. 0,05 es el valor por defecto.

Intervalo de confianza (%). Esto especifica el nivel de confianza de todos los intervalos de confianza producidos.
Especifica un valor numérico entre 0 y 100. 95 es el valor por defecto.

Casos excluidos. Especifica cómo se determinan las pruebas caso por caso.
Excluir casos según lista significa que los registros con valores perdidos de cualquier campo que se nombran en
cualquier subcomando se excluyen de todos los análisis.
Excluir casos según prueba significa que los registros con valores perdidos para un campo que se utiliza para una
prueba específica se omiten de esa prueba. Si se realizan varias pruebas en el análisis, cada prueba se evalúa por
separado.

Valores definidos como perdidos por el usuario

Figura 27-21
Configuración de Valores definidos como perdidos por el usuario de Pruebas no paramétricas para muestras
relacionadas

Valores definidos como perdidos por el usuario para campos categóricos. Para que un registro se incluya en el
análisis, los campos categóricos deben tener valores válidos para dicho caso. Estos controles permiten decidir si los
valores definidos como perdidos por el usuario se deben tratar como válidos entre los campos categóricos. Los
valores perdidos por el sistema y perdidos para campos continuos siempre se tratan como no válidos.
217

Pruebas no
paramétricas

Vista de modelos

Figura 27-22
Vista de modelos de pruebas no paramétricas

Este procedimiento crea un objeto Visor de modelos en el visor. Al activar (pulsando dos veces)
este objeto se obtiene una vista interactiva del modelo. La vista de modelos se compone de una ventana con dos
paneles, la vista principal en la parte izquierda y la vista relacionada o auxiliar de la derecha.

Existen dos vistas principales:


Resumen de hipótesis. Esta es la vista por defecto.Si desea obtener más información, consulte el tema Resumen de
hipótesis el p. 218.
Resumen de intervalo de confianza. Si desea obtener más información, consulte el tema
Resumen de intervalo de confianza el p. 220.

Hay siete vistas relacionadas/auxiliares:


Prueba de una muestra. Es la vista por defecto si se han solicitado pruebas de una muestra. Si desea obtener más
información, consulte el tema Pruebas de una muestra el p. 220.
Prueba de muestras relacionadas. Es la vista por defecto si se han solicitado pruebas de muestras relacionadas y no
pruebas de una muestra. Si desea obtener más información, consulte el tema Prueba de muestras relacionadas el p.
225.
Prueba de muestras independientes. Es la vista por defecto si no se han solicitado pruebas de muestras relacionadas
ni pruebas de una muestra. Si desea obtener más información, consulte el tema Prueba de muestras independientes
el p. 232.
Información de campos categóricos. Si desea obtener más información, consulte el tema
Información de campos categóricos el p. 240.
Información de campos continuos. Si desea obtener más información, consulte el tema
Información de campos continuos el p. 241.
218

Capítulo 27

Comparaciones por parejas. Si desea obtener más información, consulte el tema


Comparaciones por parejas el p. 242.
Subconjuntos homogéneos. Si desea obtener más información, consulte el tema Subconjuntos homogéneos el p.
243.

Resumen de hipótesis

Figura 27-23
Resumen de hipótesis
La vista Resumen de modelos es una instantánea, un resumen de un vistazo de las pruebas no paramétricas. Enfatiza
las hipótesis y decisiones nulas, centrando la atención en los valores
p más significativos.
Cada fila corresponde a una prueba distinta. Al pulsar en una fila se muestra información adicional acerca de la
prueba en la vista vinculada.
219

Pruebas no paramétricas

Al pulsar en el encabezado de cualquier columna las filas se ordenan por los valores de esa columna.
El botón Restablecer le permite devolver el Visor de modelos a su estado original.
La lista desplegable Filtro de campos le permite mostrar únicamente las pruebas que incluyeron el campo
seleccionado. Por ejemplo, si selecciona Salario inicial en la lista desplegable Filtro de campos, sólo se mostrarán
dos pruebas en el Resumen de hipótesis.

Figura 27-24
Resumen de hipótesis; filtrado por Salario inicial
220

Capítulo 27

Resumen de intervalo de confianza

Figura 27-25
Resumen de intervalo de confianza

Resumen de intervalo de confianza le muestra los intervalos de confianza producidos por las pruebas no
paramétricas.
Cada fila corresponde a un intervalo de confianza distinto.
Al pulsar en el encabezado de cualquier columna las filas se ordenan por los valores de esa columna.

Pruebas de una muestra

La vista de prueba de una muestra incluye detalles relacionados con cualquier prueba no paramétrica de una
muestra solicitada. La información que se muestra depende de la prueba seleccionada.
La lista desplegable Prueba le permite seleccionar un tipo concreto de prueba de una muestra.
La lista desplegable Campo(s) le permite seleccionar un campo que se haya comprobado mediante la prueba
seleccionada en la lista desplegable Prueba.
221

Pruebas no paramétricas

Prueba binomial

Figura 27-26
Vista de prueba de una muestra, prueba binomial

La prueba binomial muestra un gráfico de barras apiladas y una tabla de pruebas.


El gráfico de barras apiladas muestra las frecuencias observadas e hipotetizadas de las categorías “éxito” y “fallo”
del campo de prueba, con los “fallos” apilados sobre los “éxitos”. Al pasar el ratón sobre una barra se muestran
los porcentajes de categoría en una sugerencia. Las diferencias visibles en las barras indican que el campo de
prueba puede no tener la distribución binomial hipotetizada.
La tabla muestra detalles de la prueba.
222

Capítulo 27

Prueba de chi-cuadrado

Figura 27-27
Vista de prueba de una muestra, prueba de chi-cuadrado

La vista Prueba de chi-cuadrado muestra un gráfico de barras apiladas y una tabla de pruebas.
El gráfico de barras agrupadas muestra las frecuencias observadas e hipotetizadas para cada categoría del campo
de pruebas. Al pasar el ratón sobre una barra se muestran las frecuencias observadas e hipotetizadas y sus
diferencias (residuales) en una sugerencia. Las diferencias visibles entre las barras observadas y las hipotetizadas
indican que el campo de prueba puede no tener la distribución hipotetizada.
La tabla muestra detalles de la prueba.
223

Pruebas no paramétricas

Prueba de Wilcoxon de los rangos con signo

Figura 27-28
Vista de prueba de una muestra, prueba de Wilcoxon de los rangos con signo

La vista Prueba de Wilcoxon de los rangos con signo muestra un histograma y una tabla de pruebas.
El histograma incluye líneas verticales que muestran las medianas observadas e hipotéticas.
La tabla muestra detalles de la prueba.
224

Capítulo 27

Prueba de rachas

Figura 27-29
Vista de prueba de una muestra, prueba de rachas

La vista Prueba de rachas muestra un gráfico y una tabla de pruebas.


El gráfico muestra la distribución normal con el número observado de rachas marcado con una línea vertical.
Tenga en cuenta que cuando se realiza la prueba exacta, ésta no se basa en la distribución normal.
La tabla muestra detalles de la prueba.
225

Pruebas no paramétricas

Prueba de Kolmogorov-Smirnov

Figura 27-30
Vista de prueba de una muestra, prueba de Kolmogorov-Smirnov

La vista Prueba de Kolmogorov-Smirnov muestra un histograma y una tabla de pruebas.


El histograma incluye una superposición de la función de densidad de probabilidad para la distribución exponencial,
Poisson, normal o uniforme hipotetizada. Tenga en cuenta que la prueba se basa en distribuciones acumuladas, y las
Diferencias más extremas indicadas en la tabla deben interpretarse con respecto a las distribuciones acumuladas.
La tabla muestra detalles de la prueba.
Prueba de muestras relacionadas

La vista de prueba de una muestra incluye detalles relacionados con cualquier prueba no paramétrica de una
muestra solicitada. La información que se muestra depende de la prueba seleccionada.
226

Capítulo 27

La lista desplegable Prueba le permite seleccionar un tipo concreto de prueba de una muestra.
La lista desplegable Campo(s) le permite seleccionar un campo que se haya comprobado mediante la prueba
seleccionada en la lista desplegable Prueba.

Prueba de McNemar

Figura 27-31
Vista de prueba de muestras relacionadas, prueba de McNemar

La vista Prueba de McNemar muestra un gráfico de barras apiladas y una tabla de pruebas.
El gráfico de barras agrupadas muestra las frecuencias observadas e hipotetizadas para las casillas no diagonales de
la tabla 2×2 definida por los campos de prueba.
La tabla muestra detalles de la prueba.
227

Pruebas no paramétricas

Prueba de los signos

Figura 27-32
Vista de prueba de muestras relacionadas, prueba de los signos

La vista Prueba de los signos muestra un histograma apilado y una tabla de pruebas.
El histograma apilado muestra las diferencias entre los campos, usando el signo de la diferencia como el campo
de apilado.
La tabla muestra detalles de la prueba.
228

Capítulo 27

Prueba de Wilcoxon de los rangos con signo

Figura 27-33
Vista de prueba de muestras relacionadas, prueba de Wilcoxon de los rangos con signo

La vista Prueba de Wilcoxon de los rangos con signo muestra un histograma apilado y una tabla de pruebas.
El histograma apilado muestra las diferencias entre los campos, usando el signo de la diferencia como el campo
de apilado.
La tabla muestra detalles de la prueba.
229

Pruebas no paramétricas

Prueba de homogeneidad marginal

Figura 27-34
Vista de prueba de muestras relacionadas, prueba de homogeneidad marginal

La vista Prueba de homogeneidad marginal muestra un gráfico de barras apiladas y una tabla de pruebas.
El gráfico de barras agrupadas muestra las frecuencias observadas para las casillas no diagonales de la tabla
definida por los campos de prueba.
La tabla muestra detalles de la prueba.
230

Capítulo 27

Prueba Q de Cochran

Figura 27-35
Vista de prueba de muestras relacionadas, prueba Q de Cochran

La vista Prueba Q de Cochran muestra un gráfico de barras apiladas y una tabla de pruebas.
El gráfico de barras apiladas muestra las frecuencias observadas de las categorías “éxito” y “fallo” de los campos de
prueba, con los “fallos” apilados sobre los “éxitos”. Al pasar el ratón sobre una barra se muestran los porcentajes de
categoría en una sugerencia.
La tabla muestra detalles de la prueba.
231

Pruebas no paramétricas

Análisis de dos factores de Friedman de varianza por rangos

Figura 27-36
Vista de prueba de muestras relacionadas, análisis de dos factores de Friedman de varianza por rangos

La vista Análisis de dos factores de Friedman de varianza por rangos muestra histogramas panelados y una tabla
de pruebas.
Los histogramas muestran la distribución observada de rangos, panelados por los campos de pruebas.
La tabla muestra detalles de la prueba.
232

Capítulo 27

Coeficiente de concordancia de Kendall

Figura 27-37
Vista de la prueba de muestras relacionadas, coeficiente de concordancia de Kendall

La vista Coeficiente de concordancia de Kendall muestra histogramas panelados y una tabla de pruebas.
Los histogramas muestran la distribución observada de rangos, panelados por los campos de pruebas.
La tabla muestra detalles de la prueba.

Prueba de muestras independientes

La vista Prueba de muestras independientes incluye detalles relacionados con cualquier prueba no paramétrica de
muestras independientes solicitada. La información que se muestra depende de la prueba seleccionada.
La lista desplegable Prueba le permite seleccionar un tipo concreto de prueba de muestra independiente.
La lista desplegable Campo(s) le permite seleccionar una combinación de prueba y campo de agrupación que se
haya comprobado mediante la prueba seleccionada en la lista desplegable Prueba.
233

Pruebas no paramétricas

Prueba de Mann-Whitney

Figura 27-38
Vista de prueba de muestras independientes, prueba de Mann-Whitney

La vista Prueba de Mann-Whitney muestra un gráfico de pirámide de población y una tabla de pruebas.
El gráfico de pirámide de población muestra histogramas seguidos en función de las categorías del campo de
agrupación, anotando el número de registros de cada grupo y el rango promedio del grupo.
La tabla muestra detalles de la prueba.
234

Capítulo 27

Prueba de Kolmogorov-Smirnov

Figura 27-39
Vista de prueba de muestras independientes, prueba de Kolmogorov-Smirnov

La vista Prueba de Kolmogorov-Smirnov muestra un gráfico de pirámide de población y una tabla de pruebas.
El gráfico de pirámide de población muestra histogramas seguidos en función de las categorías del campo de
agrupación, anotando el número de registros de cada grupo. Las líneas de distribución acumulada observadas
pueden mostrarse u ocultarse pulsando el botón Acumulado.
La tabla muestra detalles de la prueba.
235

Pruebas no paramétricas

Prueba de rachas de Wald-Wolfowitz

Figura 27-40
Vista de prueba de muestras independientes, prueba de rachas de Wald-Wolfowitz

La vista Prueba de rachas de Wald-Wolfowitz muestra un gráfico de barras apiladas y una tabla de pruebas.
El gráfico de pirámide de población muestra histogramas seguidos en función de las categorías del campo de
agrupación, anotando el número de registros de cada grupo.
La tabla muestra detalles de la prueba.
236

Capítulo 27

Prueba de Kruskal-Wallis

Figura 27-41
Vista de prueba de muestras independientes, prueba de Kruskal-Wallis

La vista Prueba de Kruskal-Wallis muestra diagramas de caja y una tabla de pruebas.


Se muestran diagramas de caja distintos para cada categoría del campo de agrupación. Al pasar el ratón sobre
un cuadro se muestra la el rango promedio en una sugerencia.
La tabla muestra detalles de la prueba.
237

Pruebas no paramétricas

Prueba de Jonckheere-Terpstra

Figura 27-42
Vista de prueba de muestras independientes, prueba de Jonckheere-Terpstra

La vista Prueba de Jonckheere-Terpstra muestra diagramas de caja y una tabla de pruebas.


Se muestran diagramas de caja distintos para cada categoría del campo de agrupación.
La tabla muestra detalles de la prueba.
238

Capítulo 27

Prueba de Moses de reacción extrema

Figura 27-43
Vista de prueba de muestras independientes, prueba de Moses de reacción extrema

La vista Prueba de Moses de reacción extrema muestra diagramas de caja y una tabla de pruebas.
Se muestran diagramas de caja distintos para cada categoría del campo de agrupación. Las etiquetas de punto
pueden mostrarse u ocultarse pulsando el botón ID de registro.
La tabla muestra detalles de la prueba.
239

Pruebas no paramétricas

Prueba de la mediana

Figura 27-44
Vista de prueba de muestras independientes, prueba de la mediana

La vista Prueba de la mediana muestra diagramas de caja y una tabla de pruebas.


Se muestran diagramas de caja distintos para cada categoría del campo de agrupación.
La tabla muestra detalles de la prueba.
240

Capítulo 27

Información de campos categóricos

Figura 27-45
Información de campos categóricos

La vista Información de campos categóricos muestra un gráfico de barras para el campo categórico seleccionado en
la lista desplegable Campo(s). La lista de campos disponibles está restringida a los campos categóricos utilizados en
la prueba seleccionada actualmente en la vista Resumen de hipótesis.
Al pasar el ratón sobre una barra se muestran los porcentajes de categoría en una sugerencia.
241

Pruebas no paramétricas

Información de campos continuos

Figura 27-46
Información de campos continuos

La vista Información de campos continuos muestra un histograma del campo continuo seleccionado en la lista
desplegable Campo(s). La lista de campos disponibles está restringida a los campos continuos utilizados en la prueba
seleccionada actualmente en la vista Resumen de hipótesis.
242

Capítulo 27

Comparaciones por parejas

Figura 27-47
Comparaciones por parejas

La vista Comparaciones por parejas muestra un gráfico de distancias de red y una tabla de comparaciones
producidas por pruebas no paramétricas de muestras k cuando se solicitan múltiples comparaciones de pares.
El gráfico de distancias de red es una representación gráfica de la tabla de comparaciones en la que las distancias
entre nodos de la red corresponden a las diferencias entre las muestras. Las líneas amarillas corresponden a
diferencias estadísticamente importantes, mientras que las líneas negras corresponden a diferencias no
significativas. Al pasar el ratón por una línea de la red se muestra una sugerencia con la significación corregida de
la diferencia entre los nodos conectados por la línea.
La tabla de comparaciones muestra los resultados numéricos de todas las comparaciones de parejas. Cada fila
corresponde a una comparación de parejas distinta. Al pulsar en el encabezado de cualquier columna las filas se
ordenan por los valores de esa columna.
243

Pruebas no paramétricas

Subconjuntos homogéneos

Figura 27-48
Subconjuntos homogéneos

La vista Subconjuntos homogéneos muestra una tabla de comparaciones generadas por pruebas no paramétricas de
muestras k cuando se solicitan múltiples comparaciones por pasos.
Cada fila del grupo Muestra corresponde a una muestra relacionada distinta (representada en los datos mediante
campos distintos). Las muestras que no son muy diferentes estadísticamente se agrupan en los mismos
subconjuntos de color, y hay una columna separada por cada subconjunto identificado. Cuando todas las muestras
son muy diferentes estadísticamente, hay un subconjunto separado para cada muestra. Si ninguna de las muestras
es muy diferente estadísticamente, hay un único subconjunto.
Se calcula una estadística de prueba, un valor de significación y un valor de significación corregida para cada
subconjunto que contenga más de una muestra.

Funciones adicionales del comando NPTESTS


Con el lenguaje de sintaxis de comandos también podrá:
Especificar pruebas para una muestra, para muestras independientes y para muestras relacionadas en una única
ejecución del procedimiento.

Si desea información detallada sobre la sintaxis, consulte la referencia de sintaxis de comandos


(Command Syntax Reference).
244

Capítulo 27

Cuadros de diálogo antiguos

Hay diferentes cuadros de diálogo “antiguos” que también realizan pruebas no paramétricas. Estos cuadros de
diálogo admiten la funcionalidad que ofrece la opción Pruebas exactas.

Prueba de chi-cuadrado. Tabula una variable en categorías y calcula un estadístico de chi-cuadrado basándose en las
diferencias entre las frecuencias observadas y las esperadas.

Prueba binomial. Compara la frecuencia observada en cada categoría de una variable dicotómica con las frecuencias
esperadas en la distribución binomial.

Prueba de rachas. Comprueba si el orden de aparición de dos valores de una variable es aleatorio.

Prueba de Kolmogorov-Smirnov para una muestra. Compara la función de distribución acumulativa observada de
una variable con una distribución teórica especificada, que puede ser normal, uniforme, exponencial o de Poisson.

Pruebas para dos muestras independientes. Compara dos grupos de casos en una variable. Se encuentran
disponibles la prueba U de Mann-Whitney, la prueba de Kolmogorov-Smirnov para dos muestras, la prueba de Moses
de reacciones extremas y la prueba de rachas de Wald-Wolfowitz.

Pruebas para dos muestras relacionadas. Compara las distribuciones de dos variables. La prueba de Wilcoxon de
los rangos con signo, la prueba de signos y la prueba de McNemar.

Pruebas para varias muestras independientes. Compara dos o más grupos de casos en una variable. Se encuentran
disponibles la prueba de Kruskal-Wallis, la prueba de la mediana y la prueba de Jonckheere-Terpstra.

Pruebas para varias muestras relacionadas. Compara las distribuciones de dos o más variables. Se encuentran
disponibles la prueba de Friedman, la W de Kendall y la Q de Cochran.

Además, para todas las pruebas citadas anteriormente están disponibles los cuartiles y la media, la desviación típica,
el mínimo, el máximo y, por último, el número de casos no perdidos.

Prueba de chi-cuadrado
El procedimiento Prueba de chi-cuadrado tabula una variable en categorías y calcula un estadístico de chi-cuadrado.
Esta prueba de bondad de ajuste compara las frecuencias observadas y esperadas en cada categoría para contrastar
que todas las categorías contengan la misma proporción de valores o que cada categoría contenga una proporción
de valores especificada por el usuario.

Ejemplos. La prueba de chi-cuadrado podría utilizarse para determinar si una bolsa de caramelos contiene en
igualdad de proporción caramelos de color azul, marrón, verde, naranja, rojo y amarillo. También podría utilizarse
para ver si una bolsa de caramelos contiene un 5% de color azul, un 30% de color marrón, un 10% de color verde,
un 20% de color naranja, un 15% de color rojo y un 15% de color amarillo.

Estadísticos. Media, desviación típica, mínimo, máximo y cuartiles. Número y porcentaje de casos perdidos y no
perdidos; número de casos observados y esperados de cada categoría; residuos y estadístico de chi-cuadrado.
245

Pruebas no paramétricas

Datos. Use variables categóricas numéricas ordenadas o no ordenadas (niveles de medida ordinal
o nominal). Para convertir las variables de cadena en variables numéricas, utilice el procedimiento
Recodificación automática, disponible en el menú Transformar.

Supuestos. Las pruebas no paramétricas no requieren supuestos sobre la forma de la distribución subyacente.
Se asume que los datos son una muestra aleatoria. Las frecuencias esperadas para cada categoría deberán ser
1 como mínimo. No más de un 20% de las categorías deberán tener frecuencias esperadas menores que 5.

Para obtener una prueba de chi-cuadrado

E Elija en los menús:


Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > Chi-cuadrado...

Figura 27-49
Cuadro de diálogo Prueba de chi-cuadrado

E Seleccione una o más variables de contraste. Cada variable genera una prueba independiente.
E Si lo desea, puede pulsar en Opciones para obtener estadísticos descriptivos, cuartiles y controlar el tratamiento
de los datos perdidos.

Prueba de chi-cuadrado: Rango y valores esperados

Rango esperado. Por defecto, cada valor distinto de la variable se define como una categoría. Para establecer
categorías dentro de un rango específico, seleccione Usarrango especificado e introduzca valores enteros para
los límites inferior y superior. Se establecerán categorías para cada valor entero dentro del rango inclusivo y los
casos con valores fuera de los límites se excluirán. Por
246

Capítulo 27

ejemplo, si se especifica 1 como límite inferior y 4 como límite superior, únicamente se utilizarán los valores enteros
entre 1 y 4 para la prueba de chi-cuadrado.

Valores esperados. Por defecto, todas las categorías tienen valores esperados iguales. Las categorías pueden tener
proporciones esperadas especificadas por el usuario. Seleccione Valores, introduzca un valor mayor que 0 para cada
categoría de la variable de contraste y, a continuación, pulse en Añadir. Cada vez que se añade un valor, éste aparece
al final de la lista de valores. El orden de los valores es importante; corresponde al orden ascendente de los valores
de categoría de la variable de contraste. El primer valor de la lista corresponde al valor de grupo mínimo de la
variable de contraste y el último valor corresponde al valor máximo. Los elementos de la lista de valores se suman
y, a continuación, cada valor se divide por esta suma para calcular la proporción de casos esperados en la categoría
correspondiente. Por ejemplo, una lista de valores de 3, 4, 5, 4 especifica unas proporciones esperadas de 3/16,
4/16, 5/16 y 4/16.

Prueba de chi-cuadrado: Opciones

Figura 27-50
Cuadro de diálogo Prueba de chi-cuadrado: Opciones

Estadísticos. Puede elegir uno o los dos estadísticos de resumen.


Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.

Valores perdidos. Controla el tratamiento de los valores perdidos.


Excluir casos según prueba. Cuando se especifican varias pruebas, cada una se evalúa separadamente respecto a
los valores perdidos.
Excluir casos según lista. Los casos con valores perdidos para cualquier variable se excluyen de todos los análisis.
Funciones adicionales del comando NPAR TESTS (prueba de chi-cuadrado)

Con el lenguaje de sintaxis de comandos también podrá:


Especificar diferentes valores mínimo y máximo o las frecuencias esperadas para diferentes variables (mediante el
subcomando CHISQUARE).
Contrastar la misma variable respecto a las diferentes frecuencias esperadas, o bien usar diferentes rangos
(mediante el subcomando EXPECTED).
247

Pruebas no paramétricas

Si desea información detallada sobre la sintaxis, consulte la referencia de sintaxis de comandos


(Command Syntax Reference).

Prueba binomial

El procedimiento Prueba binomial compara las frecuencias observadas de las dos categorías de una variable
dicotómica con las frecuencias esperadas en una distribución binomial con un parámetro de probabilidad
especificado. Por defecto, el parámetro de probabilidad para ambos grupos es 0,5. Para cambiar las probabilidades,
puede introducirse una proporción de prueba para el primer grupo. La probabilidad del segundo grupo será 1 menos
la probabilidad especificada para el primer grupo.

Ejemplo. Si se lanza una moneda al aire, la probabilidad de que salga cara es 1/2. Basándose en esta hipótesis, se
lanza una moneda al aire 40 veces y se anotan los resultados (cara o cruz). De la prueba binomial, podría deducir
que en 3/4 de los lanzamientos salió cara y que el nivel crítico es pequeño (0,0027). Estos resultados indican que no
es verosímil que la probabilidad de que salga cara sea 1/2; probablemente la moneda presenta una tendencia a caer
por un sentido determinado.

Estadísticos. Media, desviación típica, mínimo, máximo, número de casos no perdidos y cuartiles.

Datos. Las variables de contraste deben ser numéricas y dicotómicas. Para convertir las variables de cadena en
variables numéricas, utilice el procedimiento Recodificación automática, disponible en el menú Transformar. Una
variable dicotómica es una variable que sólo puede tomar dos valores posibles: sí o no, verdadero o falso, 0 ó 1, etc.
El primer valor encontrado en los datos define el primer grupo y el otro valor define el segundo grupo. Si las variables
no son dicotómicas, debe especificar un punto de corte. El punto de corte asigna los casos con valores menores o
iguales que el punto de corte del primer grupo y asigna el resto de los casos a un segundo grupo.

Supuestos. Las pruebas no paramétricas no requieren supuestos sobre la forma de la distribución subyacente. Se
asume que los datos son una muestra aleatoria.

Para obtener una prueba binomial

E Elija en los menús:


Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > Binomial...
248

Capítulo 27

Figura 27-51
Cuadro de diálogo Prueba binomial

E Seleccione una o más variables de contraste numéricas.

E Si lo desea, puede pulsar en Opciones para obtener estadísticos descriptivos, cuartiles y controlar el tratamiento
de los datos perdidos.

Prueba binomial: Opciones

Figura 27-52
Cuadro de diálogo Prueba binomial: Opciones
Estadísticos. Puede elegir uno o los dos estadísticos de resumen.
Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.

Valores perdidos. Controla el tratamiento de los valores perdidos.


Excluir casos según prueba. Cuando se especifican varias pruebas, cada una se evalúa separadamente respecto
a los valores perdidos.
Excluir casos según lista. Se excluirán de todos los análisis los casos con valores perdidos de cualquier variable.
249

Pruebas no paramétricas

Funciones adicionales del comando NPAR TESTS (Prueba binomial)

Con el lenguaje de sintaxis de comandos también podrá:


Seleccionar grupos específicos (y excluir otros grupos) si una variable tiene más de dos categorías (mediante el
subcomando BINOMIAL).
Especificar diferentes probabilidades o puntos de corte para diferentes variables (mediante el subcomando
BINOMIAL).
Contrastar la misma variable respecto a diferentes probabilidades o puntos de corte (mediante el subcomando
EXPECTED).

Si desea información detallada sobre la sintaxis, consulte la referencia de sintaxis de comandos


(Command Syntax Reference).

Prueba de rachas

El procedimiento Prueba de rachas contrasta si es aleatorio el orden de aparición de dos valores de una variable. Una
racha es una secuencia de observaciones similares. Una muestra con un número excesivamente grande o
excesivamente pequeño de rachas sugiere que la muestra no es aleatoria.

Ejemplos. Suponga que se realiza una encuesta a 20 personas para saber si comprarían un producto. Si todas estas
personas fueran del mismo sexo, se pondría seriamente en duda la supuesta aleatoriedad de la muestra. La prueba
de rachas se puede utilizar para determinar si la muestra fue extraída de manera aleatoria.

Estadísticos. Media, desviación típica, mínimo, máximo, número de casos no perdidos y cuartiles.

Datos. Las variables deben ser numéricas. Para convertir las variables de cadena en variables numéricas, utilice el
procedimiento Recodificación automática, disponible en el menú Transformar.

Supuestos. Las pruebas no paramétricas no requieren supuestos sobre la forma de la distribución subyacente. Utilice
muestras de distribuciones de probabilidad continua.

Para obtener una prueba de rachas

E Elija en los menús:


Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > Rachas...
250

Capítulo 27

Figura 27-53
Adición de un punto de corte personalizado

E Seleccione una o más variables de contraste numéricas.

E Si lo desea, puede pulsar en Opciones para obtener estadísticos descriptivos, cuartiles y controlar el tratamiento
de los datos perdidos.

Prueba de rachas: punto de corte

Punto de corte. Especifica un punto de corte para dicotomizar las variables seleccionadas. Puede utilizar como
punto de corte los valores observados para la media, la mediana o la moda, o bien un valor especificado. Los casos
con valores menores que el punto de corte se asignarán a un grupo y los casos con valores mayores o iguales que
el punto de corte se asignarán a otro grupo. Se lleva a cabo una prueba para cada punto de corte seleccionado.

Prueba de rachas: Opciones

Figura 27-54
Cuadro de diálogo Prueba de rachas: Opciones
Estadísticos. Puede elegir uno o los dos estadísticos de resumen.
251

Pruebas no paramétricas

Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.

Valores perdidos. Controla el tratamiento de los valores perdidos.


Excluir casos según prueba. Cuando se especifican varias pruebas, cada una se evalúa separadamente respecto a
los valores perdidos.
Excluir casos según lista. Los casos con valores perdidos para cualquier variable se excluyen de todos los análisis.

Funciones adicionales del comando NPAR TESTS (Prueba de rachas)

Con el lenguaje de sintaxis de comandos también podrá:


Especificar puntos de corte diferentes para las distintas variables (con el subcomando RUNS).
Contrastar la misma variable con distintos puntos de corte personalizados (con el subcomando
RUNS).

Si desea información detallada sobre la sintaxis, consulte la referencia de sintaxis de comandos


(Command Syntax Reference).

Prueba de Kolmogorov-Smirnov para una muestra

El procedimiento Prueba de Kolmogorov-Smirnov para una muestra compara la función de distribución acumulada
observada de una variable con una distribución teórica determinada, que puede ser la normal, la uniforme, la de
Poisson o la exponencial. La Z de Kolmogorov-Smirnov se calcula a partir de la diferencia mayor (en valor absoluto)
entre las funciones de distribución acumuladas teórica y observada. Esta prueba de bondad de ajuste contrasta si
las observaciones podrían razonablemente proceder de la distribución especificada.

Ejemplo. Muchas pruebas paramétricas requieren que las variables se distribuyan de forma normal. La prueba de
Kolmogorov-Smirnov para una muestra se puede utilizar para comprobar que una variable (por ejemplo ingresos)
se distribuye normalmente.
Estadísticos. Media, desviación típica, mínimo, máximo, número de casos no perdidos y cuartiles.

Datos. Utilice variables cuantitativas (a nivel de medida de razón o de intervalo).

Supuestos. La prueba de Kolmogorov-Smirnov asume que los parámetros de la distribución de contraste se han
especificado previamente. Este procedimiento estima los parámetros a partir de la muestra. La media y la desviación
típica de la muestra son los parámetros de una distribución normal, los valores mínimo y máximo de la muestra
definen el rango de la distribución uniforme, la media muestral es el parámetro de la distribución de Poisson y la
media muestral es el parámetro de la distribución exponencial. La capacidad de la prueba para detectar desviaciones
a partir de
la distribución hipotetizada puede disminuir gravemente. Para contrastarla con una distribución normal con
parámetros estimados, considere la posibilidad de utilizar la prueba de K-S Lillliefors (disponible en el procedimiento
Explorar).
252

Capítulo 27

Para obtener una prueba de Kolmogorov-Smirnov para una muestra

E Elija en los menús:


Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > K-S de 1 muestra...

Figura 27-55
Cuadro de diálogo Prueba de Kolmogorov-Smirnov para una muestra

E Seleccione una o más variables de contraste numéricas. Cada variable genera una prueba independiente.

E Si lo desea, puede pulsar en Opciones para obtener estadísticos descriptivos, cuartiles y controlar el tratamiento
de los datos perdidos.

Prueba de Kolmogorov-Smirnov para una muestra: Opciones

Figura 27-56
Cuadro de diálogo Prueba de Kolmogorov-Smirnov para una muestra: Opciones
Estadísticos. Puede elegir uno o los dos estadísticos de resumen.
Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.

Valores perdidos. Controla el tratamiento de los valores perdidos.


253

Pruebas no paramétricas

Excluir casos según prueba. Cuando se especifican varias pruebas, cada una se evalúa separadamente respecto a
los valores perdidos.
Excluir casos según lista. Los casos con valores perdidos para cualquier variable se excluyen de todos los análisis.

Funciones adicionales del comando NPAR TESTS (Prueba de Kolmogorov-Smirnov para una muestra)

El lenguaje de sintaxis de comandos también permite especificar los parámetros de la distribución de contraste (con
el subcomando K-S).

Si desea información detallada sobre la sintaxis, consulte la referencia de sintaxis de comandos


(Command Syntax Reference).

Pruebas para dos muestras independientes

El procedimiento Pruebas para dos muestras independientes compara dos grupos de casos existentes en una
variable.

Ejemplo. Se han desarrollado nuevos correctores dentales diseñados para que sean más cómodos y estéticos, así
como para facilitar un progreso más rápido en la realineación de la dentadura. Para averiguar si el nuevo corrector
debe llevarse tanto tiempo como el modelo antiguo, se eligen 10 niños al azar para que lleven este último y otros
10 niños para que usen el nuevo. Mediante la prueba U de Mann-Whitney podría descubrir que, de media, los niños
que llevaban el nuevo corrector tenían que llevarlo puesto menos tiempo que los que llevaban el antiguo.

Estadísticos. Media, desviación típica, mínimo, máximo, número de casos no perdidos y cuartiles. Pruebas: U de
Mann-Whitney, reacciones extremas de Moses, Z de Kolmogorov-Smirnov, rachas de Wald-Wolfowitz.

Datos. Utilice variables numéricas que puedan ser ordenables.

Supuestos. Utilice muestras independientes y aleatorias. La prueba Mann-Whitney U comprueba la igualdad de las
dos distribuciones. Para utilizarla para comprobar sus diferencias en la ubicación entre dos distribuciones, se debe
asumir que las distribuciones tienen la misma forma.
Para obtener pruebas para dos muestras independientes

E Seleccione en los menús:


Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > 2 muestras independientes...
254

Capítulo 27

Figura 27-57
Cuadro de diálogo Pruebas para dos muestras independientes

E Seleccione una o más variables numéricas.

E Seleccione una variable de agrupación y pulse en Definir grupos para segmentar el archivo en dos grupos o muestras.

Dos muestras independientes: Tipos de pruebas

Tipo de prueba. Hay cuatro pruebas disponibles para contrastar si dos muestras (grupos)
independientes proceden de una misma población.
La prueba U de Mann-Whitney es la más conocida de las pruebas para dos muestras independientes. Es
equivalente a la prueba de la suma de rangos de Wilcoxon y a la prueba de Kruskal-Wallis para dos grupos. La prueba
de Mann-Whitney contrasta si dos poblaciones
muestreadas son equivalentes en su posición. Las observaciones de ambos grupos se combinan
y clasifican, asignándose el rango promedio en caso de producirse empates. El número de empates debe ser
pequeño en relación con el número total de observaciones. Si la posición de las poblaciones es idéntica, los rangos
deberían mezclarse aleatoriamente entre las dos muestras. La prueba calcula el número de veces que una
puntuación del grupo 1 precede a una puntuación del grupo 2 y el número de veces que una puntuación del grupo
2 precede a una puntuación del grupo 1. El estadístico U de Mann-Whitney es el menor de estos dos números.
También se muestra el estadístico W de la suma de rangos de Wilcoxon. W es la suma de los rangos del grupo en el
rango menor, salvo que los grupos tengan el mismo rango medio, en cuyo caso es la suma de rangos del grupo que
se nombra en último lugar en el cuadro de diálogo Dos muestras independientes: Definir grupos.
La prueba Z de Kolmogorov-Smirnov y la prueba de rachas de Wald-Wolfowitz son pruebas más generales que
detectan las diferencias entre las posiciones y las formas de las distribuciones. La prueba de Kolmogorov-Smirnov
se basa en la diferencia máxima absoluta entre las funciones de distribución acumulada observadas para ambas
muestras. Cuando esta
diferencia es significativamente grande, se consideran diferentes las dos distribuciones. La prueba de rachas de Wald-
Wolfowitz combina y ordena las observaciones de ambos grupos. Si las dos
255

Pruebas no paramétricas

muestras proceden de una misma población, los dos grupos deben dispersarse aleatoriamente en la ordenación
de los rangos.
La prueba de reacciones extremas de Moses presupone que la variable experimental afectará a algunos
sujetos en una dirección y a otros sujetos en la dirección opuesta. La prueba contrasta las respuestas extremas
comparándolas con un grupo de control. Esta prueba se centra en la amplitud del grupo de control y supone
una medida de la influencia de los valores extremos del grupo experimental en la amplitud al combinarse con el
grupo de control. El grupo de control se define en el cuadro Grupo 1 del cuadro de diálogo Dos muestras
independientes: Definir grupos. Las observaciones de ambos grupos se combinan y ordenan. La amplitud del
grupo de control se calcula como la diferencia entre los rangos de los valores mayor y menor del grupo de control
más
1. Debido a que los valores atípicos ocasionales pueden distorsionar fácilmente el rango de la amplitud, de
manera automática se recorta de cada extremo un 5% de los casos de control.

Pruebas para dos muestras independientes: Definir grupos

Figura 27-58
Cuadro de diálogo Dos muestras independientes: Definir grupos

Para segmentar el archivo en dos grupos o muestras, introduzca un valor entero para el Grupo 1 y otro valor para
el Grupo 2. Los casos con otros valores se excluyen del análisis.

Pruebas para dos muestras independientes: Opciones

Figura 27-59
Cuadro de diálogo Dos muestras independientes: Opciones
Estadísticos. Puede elegir uno o los dos estadísticos de resumen.
Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.

Valores perdidos. Controla el tratamiento de los valores perdidos.


256

Capítulo 27

Excluir casos según prueba. Cuando se especifican varias pruebas, cada una se evalúa separadamente respecto a
los valores perdidos.
Excluir casos según lista. Los casos con valores perdidos para cualquier variable se excluyen de todos los análisis.

Funciones adicionales del comando NPAR TESTS (Dos muestras independientes)

El lenguaje de sintaxis de comandos permite especificar el número de casos que se recortarán en la prueba de Moses
(con el subcomando MOSES).

Consulte la Referencia de sintaxis de comandos para obtener información completa de la sintaxis.

Pruebas para dos muestras relacionadas

El procedimiento Pruebas para dos muestras relacionadas compara las distribuciones de dos variables.

Ejemplo. En general, cuando una familia vende su casa ¿logra obtener la cantidad que pide inicialmente? Si aplica
la prueba de Wilcoxon de los rangos con signo a 10 casas, podría descubrir que siete familias reciben menos cantidad
de la solicitada, una recibe más y dos familias reciben
el precio solicitado.

Estadísticos. Media, desviación típica, mínimo, máximo, número de casos no perdidos y cuartiles. Pruebas: Wilcoxon
de los rangos con signo, signo, McNemar. Si se ha instalado la opción Pruebas exactas (disponible sólo en los sistemas
operativos Windows), la prueba de homogeneidad marginal también estará disponible.

Datos. Utilice variables numéricas que puedan ser ordenables.

Supuestos. Aunque no se suponen distribuciones en particular para las dos variables, se supone que la distribución
de población de las diferencias emparejadas es simétrica.

Para obtener pruebas para dos muestras relacionadas


E Elija en los menús:
Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > 2 muestras relacionadas...
257

Pruebas no paramétricas

Figura 27-60
Cuadro de diálogo Pruebas para dos muestras relacionadas

E Seleccione uno o más pares de variables.

Dos muestras relacionadas: Tipos de pruebas

Las pruebas de esta sección comparan las distribuciones de dos variables relacionadas. La prueba apropiada
depende del tipo de datos.
Si los datos son continuos, use la prueba de los signos o la prueba de Wilcoxon de los rangos
con signo. La prueba de los signos calcula las diferencias entre las dos variables para todos los casos y clasifica
las diferencias como positivas, negativas o empatadas. Si las dos variables tienen una distribución similar, el
número de diferencias positivas y negativas no difiere de forma significativa. La prueba de Wilcoxon de los
rangos con signo tiene en cuenta la información del signo de las diferencias y de la magnitud de las diferencias
entre los pares. Dado que la prueba de Wilcoxon de los rangos con signo incorpora más información acerca de
los datos,
es más potente que la prueba de los signos.
Si los datos son binarios, use la prueba de McNemar. Esta prueba se utiliza normalmente en una situación de
medidas repetidas, en la que la respuesta de cada sujeto se obtiene dos veces, una antes y otra después de que
ocurra un evento especificado. La prueba de McNemar determina
si la tasa de respuesta inicial (antes del evento) es igual a la tasa de respuesta final (después del evento). Esta
prueba es útil para detectar cambios en las respuestas causadas por la intervención experimental en los diseños
del tipo antes-después.
Si los datos son categóricos, use la prueba de homogeneidad marginal. Se trata de una extensión de la
prueba de McNemar a partir de la respuesta binaria a la respuesta multinomial. Contrasta los cambios de
respuesta, utilizando la distribución de chi-cuadrado, y es útil para detectar cambios de respuesta causados por
intervención experimental en diseños antes-después. La prueba de homogeneidad marginal sólo está disponible
si se ha instalado Pruebas exactas.
258

Capítulo 27

Pruebas para dos muestras relacionadas: Opciones

Figura 27-61
Cuadro de diálogo Dos muestras relacionadas: Opciones

Estadísticos. Puede elegir uno o los dos estadísticos de resumen.


Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.

Valores perdidos. Controla el tratamiento de los valores perdidos.


Excluir casos según prueba. Cuando se especifican varias pruebas, cada una se evalúa separadamente respecto a
los valores perdidos.
Excluir casos según lista. Los casos con valores perdidos para cualquier variable se excluyen de todos los análisis.

Funciones adicionales del comando NPAR TESTS (Dos muestras relacionadas)

El lenguaje de sintaxis de comandos también permite contrastar una variable con cada variable de la lista.

Si desea información detallada sobre la sintaxis, consulte la referencia de sintaxis de comandos


(Command Syntax Reference).

Pruebas para varias muestras independientes

El procedimiento Pruebas para varias muestras independientes compara dos o más grupos de casos respecto a una
variable.
Ejemplo. ¿Es diferente el tiempo medio en que se fundirán las bombillas de 100 vatios de tres marcas distintas? A
partir del análisis de varianza de un factor de Kruskal-Wallis, puede comprobar que las tres marcas sí se diferencian
en su vida media.

Estadísticos. Media, desviación típica, mínimo, máximo, número de casos no perdidos y cuartiles. Pruebas: H de
Kruskal-Wallis, de la mediana.

Datos. Utilice variables numéricas que puedan ser ordenables.

Supuestos. Utilice muestras independientes y aleatorias. La prueba H de Kruskal-Wallis requiere que las muestras
comparadas tengan formas similares.
259

Pruebas no paramétricas

Para obtener pruebas para varias muestras independientes

E Elija en los menús:


Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > K muestras independientes...

Figura 27-62
Definición de la prueba de la mediana

E Seleccione una o más variables numéricas.

E Seleccione una variable de agrupación y pulse en Definir rango para especificar los valores enteros máximo y
mínimo para la variable de agrupación.

Tipos de pruebas para varias muestras independientes

Se hallan disponibles tres pruebas para determinar si varias muestras independientes proceden de la misma
población. La prueba H de Kruskal-Wallis, la prueba de la mediana y la prueba de Jonckheere-Terpstra contrastan
si varias muestras independientes proceden de la misma población.
La prueba H de Kruskal-Wallis, una extensión de la prueba U de Mann-Whitney, es el análogo no paramétrico
del análisis de varianza de un factor y detecta las diferencias en la localización
de las distribuciones. La prueba de la mediana, que es una prueba más general pero no tan
potente, detecta diferencias distribucionales en la localización y en la forma. La prueba H de Kruskal-Wallis y la
prueba de la mediana suponen que no existe una ordenación a priori de las poblaciones k de las cuales se extraen
las muestras.
Cuando existe una ordenación natural a priori (ascendente o descendente) de las poblaciones k, la prueba
Jonckheere-Terpstra es más potente. Por ejemplo, las k poblaciones pueden representar k temperaturas
ascendentes. Se contrasta la hipótesis de que diferentes temperaturas producen la misma distribución de
respuesta, con la hipótesis alternativa de que cuando la temperatura aumenta, la magnitud de la respuesta
aumenta. La hipótesis alternativa se encuentra aquí ordenada; por tanto, la prueba de Jonckheere-Terpstra es la
prueba más apropiada. La prueba de Jonckheere-Terpstra estará disponible sólo si ha instalado el módulo
adicional Pruebas exactas.
260

Capítulo 27

Varias muestras independientes: Definir rango

Figura 27-63
Cuadro de diálogo Varias muestras independientes: Definir rango

Para definir el rango, introduzca valores enteros para el mínimo y el máximo que se correspondan con las
categorías mayor y menor de la variable de agrupación. Se excluyen los casos con valores fuera de los límites. Por
ejemplo, si indica un valor mínimo de 1 y un valor máximo de
3, únicamente se utilizarán los valores enteros entre 1 y 3. Debe indicar ambos valores y el
valor mínimo ha ser menor que el máximo.

Varias muestras independientes: Opciones

Figura 27-64
Cuadro de diálogo Varias muestras independientes: Opciones

Estadísticos. Puede elegir uno o los dos estadísticos de resumen.


Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.
Valores perdidos. Controla el tratamiento de los valores perdidos.
Excluir casos según prueba. Cuando se especifican varias pruebas, cada una se evalúa separadamente respecto a
los valores perdidos.
Excluir casos según lista. Los casos con valores perdidos para cualquier variable se excluyen de todos los análisis.

Funciones adicionales del comando NPAR TESTS (K muestras independientes)

El lenguaje de sintaxis de comandos permite especificar un valor distinto al de la mediana observada para la
prueba de la mediana (mediante el subcomando MEDIAN).
261

Pruebas no paramétricas

Si desea información detallada sobre la sintaxis, consulte la referencia de sintaxis de comandos


(Command Syntax Reference).

Pruebas para varias muestras relacionadas

El procedimiento Pruebas para varias muestras relacionadas compara las distribuciones de dos o más variables.

Ejemplo. ¿Asocia la gente diferentes niveles de prestigio a doctores, abogados, policías y profesores? Se pide a diez
personas que ordenen estas cuatro profesiones por orden de prestigio. La prueba de Friedman indica que la gente
asocia diferentes niveles de prestigio con estas cuatro profesiones.

Estadísticos. Media, desviación típica, mínimo, máximo, número de casos no perdidos y cuartiles. Pruebas:
Friedman, W de Kendall y Q de Cochran.

Datos. Utilice variables numéricas que puedan ser ordenables.

Supuestos. Las pruebas no paramétricas no requieren supuestos sobre la forma de la distribución subyacente.
Utilice muestras aleatorias y dependientes.

Para obtener pruebas para varias muestras relacionadas

E Elija en los menús:


Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > K muestras relacionadas...

Figura 27-65
Selección de Cochran como tipo de prueba
E Seleccione dos o más variables de contraste numéricas.

Tipos de prueba en el procedimiento Pruebas para varias muestras relacionadas

Hay tres pruebas disponibles para comparar las distribuciones de diversas variables relacionadas.
262

Capítulo 27

La prueba de Friedman es el equivalente no paramétrico de un diseño de medidas repetidas para una muestra
o un análisis de varianza de dos factores con una observación por casilla. Friedman contrasta la hipótesis nula de
que las k variables relacionadas procedan de la misma población. En cada caso, las k variables se ordenan en un
rango de 1 a k. El estadístico de contraste se basa en estos rangos.
La W de Kendall es una normalización del estadístico de Friedman. La prueba W de Kendall se puede interpretar
como el coeficiente de concordancia, que es una medida de acuerdo entre evaluadores. Cada caso es un juez o
evaluador y cada variable es un elemento o persona que está siendo evaluada. Para cada variable, se calcula la suma
de rangos. La W de Kendall varía entre
0 (no hay acuerdo) y 1 (acuerdo completo).
La prueba Q de Cochran es idéntica a la prueba de Friedman pero se puede aplicar cuando todas las respuestas
son binarias. Esta prueba es una extensión de la prueba de McNemar para la situación de k muestras. La Q de
Cochran contrasta la hipótesis de que diversas variables dicotómicas relacionadas tienen la misma media. Las
variables se miden al mismo individuo o a individuos emparejados.

Pruebas para varias muestras relacionadas: Estadísticos

Figura 27-66
Cuadro de diálogo Varias pruebas relacionadas: Estadísticos

Puede elegir estadísticos.


Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.

Funciones adicionales del comando NPAR TESTS (K pruebas relacionadas)

Si desea información detallada sobre la sintaxis, consulte la referencia de sintaxis de comandos


(Command Syntax Reference).
Prueba binomial

El procedimiento Prueba binomial compara las frecuencias observadas de las dos categorías de una variable
dicotómica con las frecuencias esperadas en una distribución binomial con un parámetro de probabilidad
especificado. Por defecto, el parámetro de probabilidad para ambos grupos es 0,5. Para cambiar las probabilidades,
puede introducirse una proporción de prueba para el primer grupo. La probabilidad del segundo grupo será 1 menos
la probabilidad especificada para el primer grupo.
263

Pruebas no paramétricas

Ejemplo. Si se lanza una moneda al aire, la probabilidad de que salga cara es 1/2. Basándose en esta hipótesis,
se lanza una moneda al aire 40 veces y se anotan los resultados (cara o cruz). De la prueba binomial, podría
deducir que en 3/4 de los lanzamientos salió cara y que el nivel crítico es pequeño (0,0027). Estos resultados
indican que no es verosímil que la probabilidad de que salga cara sea 1/2; probablemente la moneda presenta
una tendencia a caer por un sentido determinado.

Estadísticos. Media, desviación típica, mínimo, máximo, número de casos no perdidos y cuartiles.

Datos. Las variables de contraste deben ser numéricas y dicotómicas. Para convertir las variables de cadena en
variables numéricas, utilice el procedimiento Recodificación automática, disponible en el menú Transformar. Una
variable dicotómica es una variable que sólo puede tomar dos valores posibles: sí o no, verdadero o falso, 0 ó 1,
etc. El primer valor encontrado en los datos define el primer grupo y el otro valor define el segundo grupo. Si las
variables no son dicotómicas, debe especificar un punto de corte. El punto de corte asigna los casos con valores
menores o iguales que el punto de corte del primer grupo y asigna el resto de los casos a un segundo grupo.

Supuestos. Las pruebas no paramétricas no requieren supuestos sobre la forma de la distribución subyacente.
Se asume que los datos son una muestra aleatoria.

Para obtener una prueba binomial

E Elija en los menús:


Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > Binomial...

Figura 27-67
Cuadro de diálogo Prueba binomial
E Seleccione una o más variables de contraste numéricas.

E Si lo desea, puede pulsar en Opciones para obtener estadísticos descriptivos, cuartiles y controlar el tratamiento
de los datos perdidos.
264

Capítulo 27

Prueba binomial: Opciones

Figura 27-68
Cuadro de diálogo Prueba binomial: Opciones

Estadísticos. Puede elegir uno o los dos estadísticos de resumen.


Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.

Valores perdidos. Controla el tratamiento de los valores perdidos.


Excluir casos según prueba. Cuando se especifican varias pruebas, cada una se evalúa separadamente respecto a
los valores perdidos.
Excluir casos según lista. Se excluirán de todos los análisis los casos con valores perdidos de cualquier variable.

Funciones adicionales del comando NPAR TESTS (Prueba binomial)

Con el lenguaje de sintaxis de comandos también podrá:


Seleccionar grupos específicos (y excluir otros grupos) si una variable tiene más de dos categorías (mediante el
subcomando BINOMIAL).
Especificar diferentes probabilidades o puntos de corte para diferentes variables (mediante el subcomando
BINOMIAL).
Contrastar la misma variable respecto a diferentes probabilidades o puntos de corte (mediante el subcomando
EXPECTED).

Si desea información detallada sobre la sintaxis, consulte la referencia de sintaxis de comandos


(Command Syntax Reference).
Prueba de rachas

El procedimiento Prueba de rachas contrasta si es aleatorio el orden de aparición de dos valores de una variable. Una
racha es una secuencia de observaciones similares. Una muestra con un número excesivamente grande o
excesivamente pequeño de rachas sugiere que la muestra no es aleatoria.

Ejemplos. Suponga que se realiza una encuesta a 20 personas para saber si comprarían un producto. Si todas estas
personas fueran del mismo sexo, se pondría seriamente en duda la supuesta aleatoriedad de la muestra. La prueba
de rachas se puede utilizar para determinar si la muestra fue extraída de manera aleatoria.
265

Pruebas no paramétricas

Estadísticos. Media, desviación típica, mínimo, máximo, número de casos no perdidos y cuartiles.

Datos. Las variables deben ser numéricas. Para convertir las variables de cadena en variables numéricas, utilice
el procedimiento Recodificación automática, disponible en el menú Transformar.

Supuestos. Las pruebas no paramétricas no requieren supuestos sobre la forma de la distribución subyacente.
Utilice muestras de distribuciones de probabilidad continua.

Para obtener una prueba de rachas

E Elija en los menús:


Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > Rachas...

Figura 27-69
Adición de un punto de corte personalizado

E Seleccione una o más variables de contraste numéricas.

E Si lo desea, puede pulsar en Opciones para obtener estadísticos descriptivos, cuartiles y controlar el tratamiento
de los datos perdidos.
Prueba de rachas: punto de corte

Punto de corte. Especifica un punto de corte para dicotomizar las variables seleccionadas. Puede utilizar como
punto de corte los valores observados para la media, la mediana o la moda, o bien un valor especificado. Los
casos con valores menores que el punto de corte se asignarán a un grupo y los casos con valores mayores o
iguales que el punto de corte se asignarán a otro grupo. Se lleva a cabo una prueba para cada punto de corte
seleccionado.
266

Capítulo 27

Prueba de rachas: Opciones

Figura 27-70
Cuadro de diálogo Prueba de rachas: Opciones

Estadísticos. Puede elegir uno o los dos estadísticos de resumen.


Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.

Valores perdidos. Controla el tratamiento de los valores perdidos.


Excluir casos según prueba. Cuando se especifican varias pruebas, cada una se evalúa separadamente respecto a
los valores perdidos.
Excluir casos según lista. Los casos con valores perdidos para cualquier variable se excluyen de todos los análisis.

Funciones adicionales del comando NPAR TESTS (Prueba de rachas)

Con el lenguaje de sintaxis de comandos también podrá:


Especificar puntos de corte diferentes para las distintas variables (con el subcomando RUNS).
Contrastar la misma variable con distintos puntos de corte personalizados (con el subcomando
RUNS).

Si desea información detallada sobre la sintaxis, consulte la referencia de sintaxis de comandos


(Command Syntax Reference).
Prueba de Kolmogorov-Smirnov para una muestra

El procedimiento Prueba de Kolmogorov-Smirnov para una muestra compara la función de distribución acumulada
observada de una variable con una distribución teórica determinada, que puede ser la normal, la uniforme, la de
Poisson o la exponencial. La Z de Kolmogorov-Smirnov se calcula a partir de la diferencia mayor (en valor absoluto)
entre las funciones de distribución acumuladas teórica y observada. Esta prueba de bondad de ajuste contrasta si
las observaciones podrían razonablemente proceder de la distribución especificada.

Ejemplo. Muchas pruebas paramétricas requieren que las variables se distribuyan de forma normal. La prueba de
Kolmogorov-Smirnov para una muestra se puede utilizar para comprobar que una variable (por ejemplo ingresos)
se distribuye normalmente.

Estadísticos. Media, desviación típica, mínimo, máximo, número de casos no perdidos y cuartiles.
267

Pruebas no paramétricas

Datos. Utilice variables cuantitativas (a nivel de medida de razón o de intervalo).

Supuestos. La prueba de Kolmogorov-Smirnov asume que los parámetros de la distribución de contraste se han
especificado previamente. Este procedimiento estima los parámetros a partir de la muestra. La media y la
desviación típica de la muestra son los parámetros de una distribución normal, los valores mínimo y máximo de
la muestra definen el rango de la distribución uniforme, la media muestral es el parámetro de la distribución de
Poisson y la media muestral es el parámetro de la distribución exponencial. La capacidad de la prueba para
detectar desviaciones a partir de
la distribución hipotetizada puede disminuir gravemente. Para contrastarla con una distribución normal con
parámetros estimados, considere la posibilidad de utilizar la prueba de K-S Lillliefors (disponible en el
procedimiento Explorar).

Para obtener una prueba de Kolmogorov-Smirnov para una muestra

E Elija en los menús:


Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > K-S de 1 muestra...

Figura 27-71
Cuadro de diálogo Prueba de Kolmogorov-Smirnov para una muestra

E Seleccione una o más variables de contraste numéricas. Cada variable genera una prueba independiente.

E Si lo desea, puede pulsar en Opciones para obtener estadísticos descriptivos, cuartiles y controlar el tratamiento
de los datos perdidos.
268

Capítulo 27

Prueba de Kolmogorov-Smirnov para una muestra: Opciones

Figura 27-72
Cuadro de diálogo Prueba de Kolmogorov-Smirnov para una muestra: Opciones

Estadísticos. Puede elegir uno o los dos estadísticos de resumen.


Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.

Valores perdidos. Controla el tratamiento de los valores perdidos.


Excluir casos según prueba. Cuando se especifican varias pruebas, cada una se evalúa separadamente respecto a
los valores perdidos.
Excluir casos según lista. Los casos con valores perdidos para cualquier variable se excluyen de todos los análisis.

Funciones adicionales del comando NPAR TESTS (Prueba de Kolmogorov-Smirnov para una muestra)

El lenguaje de sintaxis de comandos también permite especificar los parámetros de la distribución de contraste (con
el subcomando K-S).
Si desea información detallada sobre la sintaxis, consulte la referencia de sintaxis de comandos
(Command Syntax Reference).

Pruebas para dos muestras independientes

El procedimiento Pruebas para dos muestras independientes compara dos grupos de casos existentes en una
variable.
Ejemplo. Se han desarrollado nuevos correctores dentales diseñados para que sean más cómodos y estéticos, así
como para facilitar un progreso más rápido en la realineación de la dentadura. Para averiguar si el nuevo corrector
debe llevarse tanto tiempo como el modelo antiguo, se eligen 10 niños al azar para que lleven este último y otros
10 niños para que usen el nuevo. Mediante la prueba U de Mann-Whitney podría descubrir que, de media, los niños
que llevaban el nuevo corrector tenían que llevarlo puesto menos tiempo que los que llevaban el antiguo.

Estadísticos. Media, desviación típica, mínimo, máximo, número de casos no perdidos y cuartiles. Pruebas: U de
Mann-Whitney, reacciones extremas de Moses, Z de Kolmogorov-Smirnov, rachas de Wald-Wolfowitz.
269

Pruebas no paramétricas

Datos. Utilice variables numéricas que puedan ser ordenables.

Supuestos. Utilice muestras independientes y aleatorias. La prueba Mann-Whitney U comprueba la igualdad de


las dos distribuciones. Para utilizarla para comprobar sus diferencias en la ubicación entre dos distribuciones, se
debe asumir que las distribuciones tienen la misma forma.

Para obtener pruebas para dos muestras independientes

E Seleccione en los menús:


Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > 2 muestras independientes...

Figura 27-73
Cuadro de diálogo Pruebas para dos muestras independientes

E Seleccione una o más variables numéricas.

E Seleccione una variable de agrupación y pulse en Definir grupos para segmentar el archivo en dos grupos o
muestras.

Dos muestras independientes: Tipos de pruebas


Tipo de prueba. Hay cuatro pruebas disponibles para contrastar si dos muestras (grupos)
independientes proceden de una misma población.
La prueba U de Mann-Whitney es la más conocida de las pruebas para dos muestras independientes. Es
equivalente a la prueba de la suma de rangos de Wilcoxon y a la prueba de Kruskal-Wallis para dos grupos. La
prueba de Mann-Whitney contrasta si dos poblaciones
muestreadas son equivalentes en su posición. Las observaciones de ambos grupos se combinan y clasifican,
asignándose el rango promedio en caso de producirse empates. El número de empates debe ser pequeño en
relación con el número total de observaciones. Si la posición de las poblaciones es idéntica, los rangos deberían
mezclarse aleatoriamente entre las dos muestras. La prueba calcula el número de veces que una puntuación del
grupo 1 precede a una puntuación del grupo 2 y el número de veces que una puntuación del grupo 2 precede a
una puntuación del grupo 1. El estadístico U de Mann-Whitney es el menor de estos dos números. También se
muestra el estadístico W de la suma de rangos de Wilcoxon. W es la suma de los rangos del
270

Capítulo 27

grupo en el rango menor, salvo que los grupos tengan el mismo rango medio, en cuyo caso es la suma de rangos del
grupo que se nombra en último lugar en el cuadro de diálogo Dos muestras independientes: Definir grupos.
La prueba Z de Kolmogorov-Smirnov y la prueba de rachas de Wald-Wolfowitz son
pruebas más generales que detectan las diferencias entre las posiciones y las formas de las distribuciones. La prueba
de Kolmogorov-Smirnov se basa en la diferencia máxima absoluta entre las funciones de distribución acumulada
observadas para ambas muestras. Cuando esta
diferencia es significativamente grande, se consideran diferentes las dos distribuciones. La prueba de rachas de Wald-
Wolfowitz combina y ordena las observaciones de ambos grupos. Si las dos muestras proceden de una misma
población, los dos grupos deben dispersarse aleatoriamente en la ordenación de los rangos.
La prueba de reacciones extremas de Moses presupone que la variable experimental afectará a algunos sujetos
en una dirección y a otros sujetos en la dirección opuesta. La prueba contrasta las respuestas extremas
comparándolas con un grupo de control. Esta prueba se centra en la amplitud del grupo de control y supone una
medida de la influencia de los valores extremos del grupo experimental en la amplitud al combinarse con el grupo
de control. El grupo de control se define en el cuadro Grupo 1 del cuadro de diálogo Dos muestras independientes:
Definir grupos. Las observaciones de ambos grupos se combinan y ordenan. La amplitud del grupo de control se
calcula como la diferencia entre los rangos de los valores mayor y menor del grupo de control más
1. Debido a que los valores atípicos ocasionales pueden distorsionar fácilmente el rango de la amplitud, de manera
automática se recorta de cada extremo un 5% de los casos de control.

Pruebas para dos muestras independientes: Definir grupos

Figura 27-74
Cuadro de diálogo Dos muestras independientes: Definir grupos

Para segmentar el archivo en dos grupos o muestras, introduzca un valor entero para el Grupo 1 y otro valor para el
Grupo 2. Los casos con otros valores se excluyen del análisis.

Pruebas para dos muestras independientes: Opciones

Figura 27-75
Cuadro de diálogo Dos muestras independientes: Opciones
271

Pruebas no paramétricas

Estadísticos. Puede elegir uno o los dos estadísticos de resumen.


Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.

Valores perdidos. Controla el tratamiento de los valores perdidos.


Excluir casos según prueba. Cuando se especifican varias pruebas, cada una se evalúa separadamente respecto a
los valores perdidos.
Excluir casos según lista. Los casos con valores perdidos para cualquier variable se excluyen de todos los análisis.

Funciones adicionales del comando NPAR TESTS (Dos muestras independientes)

El lenguaje de sintaxis de comandos permite especificar el número de casos que se recortarán en la prueba de Moses
(con el subcomando MOSES).

Consulte la Referencia de sintaxis de comandos para obtener información completa de la sintaxis.

Pruebas para dos muestras relacionadas

El procedimiento Pruebas para dos muestras relacionadas compara las distribuciones de dos variables.

Ejemplo. En general, cuando una familia vende su casa ¿logra obtener la cantidad que pide inicialmente? Si aplica
la prueba de Wilcoxon de los rangos con signo a 10 casas, podría descubrir que siete familias reciben menos cantidad
de la solicitada, una recibe más y dos familias reciben
el precio solicitado.

Estadísticos. Media, desviación típica, mínimo, máximo, número de casos no perdidos y cuartiles. Pruebas: Wilcoxon
de los rangos con signo, signo, McNemar. Si se ha instalado la opción Pruebas exactas (disponible sólo en los sistemas
operativos Windows), la prueba de homogeneidad marginal también estará disponible.

Datos. Utilice variables numéricas que puedan ser ordenables.

Supuestos. Aunque no se suponen distribuciones en particular para las dos variables, se supone que la distribución
de población de las diferencias emparejadas es simétrica.

Para obtener pruebas para dos muestras relacionadas

E Elija en los menús:


Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > 2 muestras relacionadas...
272

Capítulo 27

Figura 27-76
Cuadro de diálogo Pruebas para dos muestras relacionadas

E Seleccione uno o más pares de variables.

Dos muestras relacionadas: Tipos de pruebas

Las pruebas de esta sección comparan las distribuciones de dos variables relacionadas. La prueba apropiada depende
del tipo de datos.
Si los datos son continuos, use la prueba de los signos o la prueba de Wilcoxon de los rangos
con signo. La prueba de los signos calcula las diferencias entre las dos variables para todos los casos y clasifica las
diferencias como positivas, negativas o empatadas. Si las dos variables tienen una distribución similar, el número
de diferencias positivas y negativas no difiere de forma significativa. La prueba de Wilcoxon de los rangos con signo
tiene en cuenta la información del signo de las diferencias y de la magnitud de las diferencias entre los pares. Dado
que la prueba de Wilcoxon de los rangos con signo incorpora más información acerca de los datos,
es más potente que la prueba de los signos.
Si los datos son binarios, use la prueba de McNemar. Esta prueba se utiliza normalmente en una situación de
medidas repetidas, en la que la respuesta de cada sujeto se obtiene dos veces, una antes y otra después de que
ocurra un evento especificado. La prueba de McNemar determina
si la tasa de respuesta inicial (antes del evento) es igual a la tasa de respuesta final (después del evento). Esta prueba
es útil para detectar cambios en las respuestas causadas por la intervención experimental en los diseños del tipo
antes-después.
Si los datos son categóricos, use la prueba de homogeneidad marginal. Se trata de una extensión de la prueba
de McNemar a partir de la respuesta binaria a la respuesta multinomial. Contrasta los cambios de respuesta,
utilizando la distribución de chi-cuadrado, y es útil para detectar cambios de respuesta causados por intervención
experimental en diseños antes-después. La prueba de homogeneidad marginal sólo está disponible si se ha instalado
Pruebas exactas.
273

Pruebas no paramétricas

Pruebas para dos muestras relacionadas: Opciones

Figura 27-77
Cuadro de diálogo Dos muestras relacionadas: Opciones

Estadísticos. Puede elegir uno o los dos estadísticos de resumen.


Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.

Valores perdidos. Controla el tratamiento de los valores perdidos.


Excluir casos según prueba. Cuando se especifican varias pruebas, cada una se evalúa separadamente respecto a
los valores perdidos.
Excluir casos según lista. Los casos con valores perdidos para cualquier variable se excluyen de todos los análisis.

Funciones adicionales del comando NPAR TESTS (Dos muestras relacionadas)

El lenguaje de sintaxis de comandos también permite contrastar una variable con cada variable de la lista.

Si desea información detallada sobre la sintaxis, consulte la referencia de sintaxis de comandos


(Command Syntax Reference).

Pruebas para varias muestras independientes

El procedimiento Pruebas para varias muestras independientes compara dos o más grupos de casos respecto a una
variable.
Ejemplo. ¿Es diferente el tiempo medio en que se fundirán las bombillas de 100 vatios de tres marcas distintas? A
partir del análisis de varianza de un factor de Kruskal-Wallis, puede comprobar que las tres marcas sí se diferencian
en su vida media.

Estadísticos. Media, desviación típica, mínimo, máximo, número de casos no perdidos y cuartiles. Pruebas: H de
Kruskal-Wallis, de la mediana.

Datos. Utilice variables numéricas que puedan ser ordenables.

Supuestos. Utilice muestras independientes y aleatorias. La prueba H de Kruskal-Wallis requiere que las muestras
comparadas tengan formas similares.
274

Capítulo 27

Para obtener pruebas para varias muestras independientes

E Elija en los menús:


Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > K muestras independientes...

Figura 27-78
Definición de la prueba de la mediana

E Seleccione una o más variables numéricas.

E Seleccione una variable de agrupación y pulse en Definir rango para especificar los valores enteros máximo y mínimo
para la variable de agrupación.

Tipos de pruebas para varias muestras independientes

Se hallan disponibles tres pruebas para determinar si varias muestras independientes proceden de la misma
población. La prueba H de Kruskal-Wallis, la prueba de la mediana y la prueba de Jonckheere-Terpstra contrastan si
varias muestras independientes proceden de la misma población.
La prueba H de Kruskal-Wallis, una extensión de la prueba U de Mann-Whitney, es el análogo no paramétrico del
análisis de varianza de un factor y detecta las diferencias en la localización
de las distribuciones. La prueba de la mediana, que es una prueba más general pero no tan
potente, detecta diferencias distribucionales en la localización y en la forma. La prueba H de Kruskal-Wallis y la
prueba de la mediana suponen que no existe una ordenación a priori de las poblaciones k de las cuales se extraen
las muestras.
Cuando existe una ordenación natural a priori (ascendente o descendente) de las poblaciones k, la prueba
Jonckheere-Terpstra es más potente. Por ejemplo, las k poblaciones pueden representar k temperaturas
ascendentes. Se contrasta la hipótesis de que diferentes temperaturas producen la misma distribución de respuesta,
con la hipótesis alternativa de que cuando la temperatura aumenta, la magnitud de la respuesta aumenta. La
hipótesis alternativa se encuentra aquí ordenada; por tanto, la prueba de Jonckheere-Terpstra es la prueba más
apropiada. La prueba de Jonckheere-Terpstra estará disponible sólo si ha instalado el módulo adicional Pruebas
exactas.
275

Pruebas no paramétricas

Varias muestras independientes: Definir rango

Figura 27-79
Cuadro de diálogo Varias muestras independientes: Definir rango

Para definir el rango, introduzca valores enteros para el mínimo y el máximo que se correspondan con las
categorías mayor y menor de la variable de agrupación. Se excluyen los casos con valores fuera de los límites.
Por ejemplo, si indica un valor mínimo de 1 y un valor máximo de
3, únicamente se utilizarán los valores enteros entre 1 y 3. Debe indicar ambos valores y el
valor mínimo ha ser menor que el máximo.

Varias muestras independientes: Opciones

Figura 27-80
Cuadro de diálogo Varias muestras independientes: Opciones

Estadísticos. Puede elegir uno o los dos estadísticos de resumen.


Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.
Valores perdidos. Controla el tratamiento de los valores perdidos.
Excluir casos según prueba. Cuando se especifican varias pruebas, cada una se evalúa separadamente respecto
a los valores perdidos.
Excluir casos según lista. Los casos con valores perdidos para cualquier variable se excluyen de todos los análisis.

Funciones adicionales del comando NPAR TESTS (K muestras independientes)

El lenguaje de sintaxis de comandos permite especificar un valor distinto al de la mediana observada para la
prueba de la mediana (mediante el subcomando MEDIAN).
276

Capítulo 27

Si desea información detallada sobre la sintaxis, consulte la referencia de sintaxis de comandos


(Command Syntax Reference).

Pruebas para varias muestras relacionadas

El procedimiento Pruebas para varias muestras relacionadas compara las distribuciones de dos o más variables.

Ejemplo. ¿Asocia la gente diferentes niveles de prestigio a doctores, abogados, policías y profesores? Se pide a diez
personas que ordenen estas cuatro profesiones por orden de prestigio. La prueba de Friedman indica que la gente
asocia diferentes niveles de prestigio con estas cuatro profesiones.

Estadísticos. Media, desviación típica, mínimo, máximo, número de casos no perdidos y cuartiles. Pruebas:
Friedman, W de Kendall y Q de Cochran.

Datos. Utilice variables numéricas que puedan ser ordenables.

Supuestos. Las pruebas no paramétricas no requieren supuestos sobre la forma de la distribución subyacente.
Utilice muestras aleatorias y dependientes.

Para obtener pruebas para varias muestras relacionadas

E Elija en los menús:


Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > K muestras relacionadas...

Figura 27-81
Selección de Cochran como tipo de prueba
E Seleccione dos o más variables de contraste numéricas.

Tipos de prueba en el procedimiento Pruebas para varias muestras relacionadas

Hay tres pruebas disponibles para comparar las distribuciones de diversas variables relacionadas.
277

Pruebas no paramétricas

La prueba de Friedman es el equivalente no paramétrico de un diseño de medidas repetidas para una muestra
o un análisis de varianza de dos factores con una observación por casilla. Friedman contrasta la hipótesis nula
de que las k variables relacionadas procedan de la misma población. En cada caso, las k variables se ordenan en
un rango de 1 a k. El estadístico de contraste se basa en estos rangos.
La W de Kendall es una normalización del estadístico de Friedman. La prueba W de Kendall se puede
interpretar como el coeficiente de concordancia, que es una medida de acuerdo entre evaluadores. Cada caso
es un juez o evaluador y cada variable es un elemento o persona que está siendo evaluada. Para cada variable,
se calcula la suma de rangos. La W de Kendall varía entre
0 (no hay acuerdo) y 1 (acuerdo completo).
La prueba Q de Cochran es idéntica a la prueba de Friedman pero se puede aplicar cuando todas las respuestas
son binarias. Esta prueba es una extensión de la prueba de McNemar para la situación de k muestras. La Q de
Cochran contrasta la hipótesis de que diversas variables dicotómicas relacionadas tienen la misma media. Las
variables se miden al mismo individuo o a individuos emparejados.

Pruebas para varias muestras relacionadas: Estadísticos

Figura 27-82
Cuadro de diálogo Varias pruebas relacionadas: Estadísticos

Puede elegir estadísticos.


Descriptivos. Muestra la media, la desviación típica, el mínimo, el máximo y el número de casos no perdidos.
Cuartiles. Muestra los valores correspondientes a los percentiles 25, 50 y 75.

Funciones adicionales del comando NPAR TESTS (K pruebas relacionadas)

Si desea información detallada sobre la sintaxis, consulte la referencia de sintaxis de comandos


(Command Syntax Reference).
Programa: IBM SPSS Statistics

Pag. 0
Programa: IBM SPSS Statistics

SESIÓN

AL FINALIZAR LA PRESENTE SESIÓN, EL PARTICIPANTE ESTARÁ EN LA CAPACIDAD DE:

TEMAS:

Pag. 1
Programa: IBM SPSS Statistics

Pag. 2
Programa: IBM SPSS Statistics

SESIÓN

AL FINALIZAR LA PRESENTE SESIÓN, EL PARTICIPANTE ESTARÁ EN LA CAPACIDAD DE:

TEMAS:

Pag. 3
Programa: IBM SPSS Statistics

Pag. 4
Programa: IBM SPSS Statistics

SESIÓN

AL FINALIZAR LA PRESENTE SESIÓN, EL PARTICIPANTE ESTARÁ EN LA CAPACIDAD DE:

Pag. 5
Programa: IBM SPSS Statistics

TEMAS:

Pag. 6
Programa: IBM SPSS Statistics

Pag. 7

También podría gustarte