Está en la página 1de 96

Titulo: Pruebas estadísticas no paramétricas

Nombre: Fuentes Rosas Mireya Emir

Materia: Ats Software especializado

Profesor: Luis Alberto Ordaz Hernández

CUATRI2-2022

Plantel Tlalnepantla

Tlalnepantla de Baz a 07 de marzo de 2022.

1
Índice

3.1 Pruebas para una muestra………………………………………………..

3.1.1 Chi-cuadrada………………………………………………………….

3.1.2 Binomial……………………………………………………………….

3.1.3 Runs Kolmogorov-Sminorv……………………………………………

3.2 Pruebas para dos muestras relacionadas………………………………….

3.2.1 Mc Nemar………………………………………………………………

3.2.2 Prueba de Rangos………………………………………………………

3.2.3 Prueba de Signo…………………………………………………………

3.2.4 Prueba de Signo de Wilcoxon…………………………………………..

3.3 Pruebas para k-muestras relacionadas……………………………………..

3.3.1 Friedman……………………………………………………………………

3.3.2 Kendall……………………………………………………………………….

3.4 Pruebas para dos muestras independientes…………………………………..

3.4.1 U-mann Whitney……………………………………………………………

3.4.2 Kolmogorov-Sminors……………………………………………………….

3.4.3 Rachas de Wald-Wolfowitz…………………………………………………

II. PROGRAMA PROJECT 2000………………………………………………….

1. INTRODUCCIÓN PROGRAMA PROJECT 2000……………………………..

1.1 Creación y organización de la programación temporal de tareas…………

1.2 El proceso de planificación de proyectos……………………………………..

2
Introducción

SPSS son las siglas de Statistical Package for the Social Sciences (Paquete
Estadístico para las Ciencias Sociales). Es decir, SPSS es una aplicación de
análisis estadísticos de datos (aplicados, como su propio nombre indica, a las
ciencias sociales).

Este software proporciona a los investigadores herramientas que permiten


consultar datos y formular hipótesis de forma rápida, ejecutar procedimientos para
aclarar las relaciones entre variables, identificar tendencias y realizar predicciones.
es utilizado para realizar la captura y análisis de datos para crear tablas y gráficas
con data compleja. El SPSS es conocido por su capacidad de gestionar grandes
volúmenes de datos y es capaz de llevar a cabo análisis de texto entre otros
formatos más.

SPSS es un gestor de datos que permite realizar búsquedas inteligentes y


extraer información oculta, mediante la elaboración de segmentos de mercado,
diseños de redes neuronales de inteligencia artificial, etc.

SPSS es, también, una herramienta muy versátil. Permite realizar hojas de
cálculos, gestionar bases de datos para procesarlos de modo dinámico y, aspecto
muy interesante, realizar informes personalizados.

En esta investigación también se podrá encontrar información acerca de Microsoft


Project. Es una herramienta de administración de proyectos eficaz y flexible que
puede utilizar para controlar proyectos simples o complejos. Le ayudará a
programar y realizar un seguimiento de todas las actividades para supervisar su
progreso.

3
3. Pruebas estadísticas no paramétricas

3.1 Pruebas para una muestra

Cualquier sesión tipo se puede resumir en cuatro grandes apartados:

• Lectura de un conjunto de datos

• Selección del Procedimiento

• Selección de Variables

• Examen de Resultado

Pero antes hemos de entrar en SPSS para poder llevar a cabo esta primera
sesión. Para ello hay dos maneras de proceder: 1) Desde el menú Programas que
se despliega a pulsar el botón I nicio se accede al programa SPSS, de la misma
manera que se accede a cualquier programa que opere bajo el sistema operativo
de Windows, bien en la versión 95 en la 98 o en la 2000; 2) A través de un Icono
de Acceso Directo que hayamos creado previamente en el Escritorio o en la barra
de accesos rápidos situada en la parte inferior de la pantalla, por el procedimiento
habitual de creación de estos tipos de accesos directos1. En ambos casos el
resultado es el mismo: se accede al programa, directamente al Editor de Datos,
cuya apariencia es la que se muestra en la Figura 1.1.

4
Es en esta pantalla en la que se va a desarrollar buena parte de las sesiones con
SPSS. Aquí es donde grabaremos los datos registrados en el desarrollo de
nuestros trabajos, o donde se mostrarán los datos ya grabados en archivos
cuando queramos someterlos a los procedimientos de análisis de SPSS. El
aspecto del editor de datos es el propio de una rejilla de filas y columnas cuya
intersección conforman las celdillas de la misma -cada celdilla un dato-, similar a la
que dispone cualquier hoja de cálculo. En este primera sesión vamos a utilizar los
datos previamente almacenados en un archivo, por lo que el primer paso es leer
esos datos. Para ello se puede emplear dos maneras alternativas: la primera es a
través de la opción Archivo del menú principal, sub-opción Abrir. La otra
alternativa, más inmediata, es pulsar, en los iconos que aparecen debajo del menú
general, el correspondiente a Abrir archivo . En ambos casos, se accede a una
ventana como la de la Figura 1.2.

5
6
Por defecto, sólo se lista los archivos de datos generados y guardados
previamente por SPSS, que en las versiones para Windows tienen la extensión
SAV, aunque SPSS puede leer datos grabados en diferentes formatos (ASCII,
dBASE, Excel, etc.), y por supuesto los archivos generados por las anteriores
versiones del programa, que se identifican por la extensión SYS. Para abrir un
archivo de datos, basta hacer doble clic con el botón izquierdo del ratón en el
mismo y se incorpora al Editor de datos. El aspecto del editor una vez leído el
archivo (en este caso el archivo Datos de empleados) es el que se ve en la Figura
1.3.

Las variables estadísticas grabadas en el archivo, se trasladan al editor de datos


con la misma disposición: cada variable en una columna y cada caso u
observación en una fila. El Editor de Datos tiene dos pantallas. En la primera,
etiquetada en la pestaña inferior izquierda como Vista de datos, están los datos tal
como se muestra en la Figura 1.3; en la otra, etiquetada como Vista de variables,
se definen las variables: nombre, tipo, etc. Esta ventana es similar a la de
definición de campos del programa Microsoft Acces, y su aspecto es el que se
muestra en la Figura 1.4.

7
El término estadística no paramétrica se refiere a un conjunto de método,
inferenciales válidos para formas muy diversas de distribución de la población. La
aplicación de estos métodos no requiere modelo de población, en el sentido de un
parámetro específico relacionado con la forma de la curva que representa a la
población en estudio, como sí es necesario, por ejemplo, en el caso de la
distribución normal.

En el contraste de hipótesis, las pruebas estadísticas no paramétricas


usualmente emplean algunos datos más simples de la muestra, como los signos
de las mediciones, las relaciones de orden o las categorías de las frecuencias.
Estos rasgos generales no requieren escalas de medición numéricas significativas.
Por otra parte, aún más importante es que a estos métodos no los afecta el
alargamiento o estrechamiento de la escala. Una aclaración tina, indispensable es
que los términos distribución libre y estadística no paramétrica no son sinónimos,
aunque en este texto se usarán indistintamente. A estos procedimientos se les

8
llama de distribución libre, por no considerar la forma como se distribuye la
población.

Tienen ventajas sobre las pruebas paramétricas, algunas de ellas son: 1)


implican menos requisitos de uso, 2) son más sencillas de entender y de aplicar, y
3) los procedimientos de cálculo resultan menos laboriosos. Por otra parte, los
métodos no paramétricos tienen ciertas desventajas: a) se pierde información, b)
la potencia de estas pruebas es menor que la de las pruebas paramétricas, y c)
tienden a ser "conservadoras»; es decir, orientan hacia la aceptación de la
hipótesis nula con más frecuencia de lo que deberían. En estas circunstancias, las
pruebas estadísticas paramétricas son preferibles a las no paramétricas, pero si la
población no está normalmente distribuida o las varianzas poblacionales no son
homogéneas o iguales, entonces puede utilizarse una prueba de distribución libre
o no paramétrica como un buen sustituto de su análoga paramétrica, sobre todo
cuando la muestra en estudio es pequeña.

Se discutirán métodos que únicamente requieren mediciones nomínales,


comparando distribuciones enteras. También se considerarán las técnicas que
requieren datos ordinales.

Cuando los datos son categóricos se hará un análisis estadístico, utilizando el


modelo de la X2 (ji cuadrada), que si bien algunos autores la consideran no
paramétrica, se ha creído oportuno que forme parte de este capítulo en sus
aplicaciones más relevantes, como:

a) Independencia

b) Homogeneidad o proporción

9
c) Mediana.

Para la prueba de bondad de ajuste se emplearán dos técnicas:

1) La X2 (ji cuadrada) y

2) La Kolmogorov-Smirnov.

Para el análisis de varianza se utilizarán dos modelos:

a) La prueba de Kruskal-Wallis, para muestras independientes.

b) La prueba de Friedman, para una sola muestra medida más de dos ocasiones,
por último se encuentran los coeficientes de asociación, también llamados de
correlación.

3.1.1 Chi-cuadrada

Una prueba de chi-cuadrada es una prueba de hipótesis que compara la


distribución observada de los datos con una distribución esperada de los datos.

Existen varios tipos de pruebas de chi-cuadrada:

Prueba de bondad de ajuste de chi-cuadrada

Utilice este análisis para probar qué tan bien una muestra de datos categóricos se
ajusta a una distribución teórica.

Por ejemplo, usted puede comprobar si un dado es justo, lanzando el dado


muchas veces y utilizando una prueba de bondad de ajuste de chi-cuadrada para
determinar si los resultados siguen una distribución uniforme. En este caso, el
estadístico de chi-cuadrada cuantifica qué tanto varía la distribución observada de
los conteos con respecto a la distribución hipotética.

Pruebas de chi-cuadrada de asociación e independencia

10
Los cálculos para estas pruebas son iguales, pero la pregunta que se está
tratando de contestar puede ser diferente.

Prueba de asociación: Utilice una prueba de asociación para determinar si una


variable está asociada a otra variable. Por ejemplo, determine si las ventas de
diferentes colores de automóviles dependen de la ciudad donde se venden.

Prueba de independencia: Utilice una prueba de independencia para determinar si


el valor observado de una variable depende del valor observado de otra variable.
Por ejemplo, determine si el hecho de que una persona vote por un candidato no
depende del sexo del elector.

El estadístico ji-cuadrado (o chi cuadrado), que tiene distribución de


probabilidad del mismo nombre, sirve para someter a prueba hipótesis referidas a
distribuciones de frecuencias. En términos generales, esta prueba contrasta
frecuencias observadas con las frecuencias esperadas de acuerdo con la hipótesis
nula. En este artículo se describe el uso del estadístico ji-cuadrado para probar la
asociación entre dos variables utilizando una situación hipotética y datos
simulados. Luego se describe su uso para evaluar cuán buena puede resultar una
distribución teórica, cuando pretende representar la distribución real de los datos
de una muestra determinada. A esto se le llama evaluar la bondad de un ajuste.
Probar la bondad de un ajuste es ver en qué medida se ajustan los datos
observados a una distribución teórica o esperada. Para esto, se utiliza una
segunda situación hipotética y datos simulados.

Del mismo modo que los estadísticos “z”, con su distribución normal y “t”, con
su distribución t de Student, nos han servido para someter a prueba hipótesis que
involucran a promedios y porcentajes, el estadístico ji-cuadrado (o chi cuadrado),
que tiene distribución de probabilidad del mismo nombre, nos servirá para someter
a prueba hipótesis referidas a distribuciones de frecuencias.

11
En primer lugar usaremos el estadístico ji-cuadrado para probar la asociación
entre dos variables, y luego lo usaremos para evaluar en qué medida se ajusta la
distribución de frecuencias obtenida con los datos de una muestra, a una
distribución teórica o esperada.

En términos generales, esta prueba contrasta frecuencias observadas con las


frecuencias esperadas de acuerdo con la hipótesis nula.

3.1.2 Binomial

Una distribución binomial es una distribución de probabilidad discreta que describe


el número de éxitos al realizar n experimentos independientes entre sí, acerca de
una variable aleatoria. Existen una gran diversidad de experimentos o sucesos
que pueden ser caracterizados bajo esta distribución de probabilidad.

Una distribución binomial es una distribución discreta que modela el número


de eventos en un número de ensayos fijo. Cada ensayo tiene dos resultados
posibles, y evento es el resultado de interés en un ensayo.

Utilice la distribución binomial para describir un proceso donde los resultados


se pueden etiquetar como un evento o un no evento y cuando esté interesado en
la ocurrencia de un evento y no en su magnitud. Por ejemplo, un elemento pasa o
no pasa una inspección o un partido político gana o pierde. La distribución
binomial se usa frecuentemente en control de calidad, sondeos de opinión pública,
investigaciones médicas y seguros.

12
Por ejemplo, utilice la distribución binomial para calcular la probabilidad de
que 3 o más elementos defectuosos se encuentren en una muestra de 25
elementos si la probabilidad de un elemento defectuoso en cada ensayo es 0.02.
El número de elementos defectuosos (X) sigue una distribución binomial con n =
25 y p = 0.02.

El número de eventos (X) en n ensayos sigue una distribución binomial si se


cumplen las siguientes condiciones:

 El número de ensayos es fijo.

 Cada ensayo es independiente de otros ensayos.

 Cada ensayo tiene uno de dos resultados: evento o no evento.

 La probabilidad de un evento es igual para cada ensayo.

Una de las propiedades de la distribución binomial es que cuando n es grande, la


distribución binomial puede ser aproximada razonablemente por la distribución
normal. Por ejemplo, para la siguiente distribución binomial, n = 100 y p = 0.5.

El procedimiento Prueba binomial compara las frecuencias observadas de las dos


categorías de una variable dicotómica con las frecuencias esperadas en una
distribución binomial con un parámetro de probabilidad especificado. De forma
predeterminada, el parámetro de probabilidad para ambos grupos es 0,5. Para
cambiar las probabilidades, puede introducirse una proporción de prueba para el

13
primer grupo. La probabilidad del segundo grupo será 1 menos la probabilidad
especificada para el primer grupo.

Ejemplo. Si se lanza una moneda al aire, la probabilidad de que salga cara es 1/2.
Basándose en esta hipótesis, se lanza una moneda al aire 40 veces y se anotan
los resultados (cara o cruz). De la prueba binomial, podría deducir que en 3/4 de
los lanzamientos salió cara y que el nivel de significación observado es pequeño
(0,0027). Estos resultados indican que no es verosímil que la probabilidad de que
salga cara sea 1/2; probablemente la moneda presenta una tendencia a caer por
un sentido determinado.

Estadísticos. Media, desviación estándar, mínimo, máximo, número de casos no


perdidos y cuartiles.

Prueba binomial: Consideraciones sobre los datos

Datos. Las variables de contraste deben ser numéricas y dicotómicas. Para


convertir las variables de cadena en variables numéricas, utilice el procedimiento
Recodificación automática, disponible en el menú Transformar. Una variable
dicotómica es una variable que sólo puede tomar dos valores posibles: sí o no,
verdadero o falso, 0 o 1, etc. El primer valor encontrado en los datos define el
primer grupo y el otro valor define el segundo grupo. Si las variables no son
dicotómicas, debe especificar un punto de corte. El punto de corte asigna los
casos con valores menores o iguales que el punto de corte del primer grupo y
asigna el resto de los casos a un segundo grupo.

14
Supuestos. Las pruebas no paramétricas no requieren supuestos sobre la forma
de la distribución subyacente. Se asume que los datos son una muestra aleatoria.

Para obtener una prueba binomial

Esta característica requiere la opción Statistics Base.

En los menús, elija:

Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > Binomial...

Seleccione una o más variables de contraste numéricas.

Si lo desea, puede pulsar en Opciones para obtener estadísticos descriptivos,


cuartiles y controlar el tratamiento de los datos perdidos.

Este procedimiento pega la sintaxis de comandos NPAR TESTS.

Prueba binomial: Opciones

Características adicionales del comando NPAR TESTS (Prueba binomial)

3.1.3 Runs Kolmogorov-Sminorv

En estadística, la prueba de Kolmogórov-Smirnov (también prueba K-S) es


una prueba no paramétrica que determina la bondad de ajuste de
dos distribuciones de probabilidad entre sí.

15
En el caso de que queramos verificar la normalidad de una distribución,
la prueba de Lilliefors conlleva algunas mejoras con respecto a la de Kolmogórov-
Smirnov; y, en general, el test de Shapiro–Wilk o la prueba de Anderson-
Darling son alternativas más potentes.

Conviene tener en cuenta que la prueba Kolmogórov-Smirnov es más sensible a


los valores cercanos a la mediana que a los extremos de la distribución. La prueba
de Anderson-Darling proporciona igual sensibilidad con valores extremos.

Su nombre proviene de los matemáticos rusos Andrey Kolmogorov y Nikolai


Smirnov.

En estadística, la prueba de Kolmogórov-Smirnov (también prueba K-S) es


una prueba no paramétrica que se utiliza para determinar la bondad de ajuste de
dos distribuciones de probabilidad entre sí.

En el caso de que queramos verificar la normalidad de una distribución, la


prueba de Lilliefors conlleva algunas mejoras con respecto a la de Kolmogórov-
Smirnov; y, en general, el test de Shapiro–Wilk o la prueba de Anderson-Darling
son alternativas más potentes.

Conviene tener en cuenta que la prueba Kolmogórov-Smirnov es más


sensible a los valores cercanos a la mediana que a los extremos de la distribución.
La prueba de Anderson-Darling proporciona igual sensibilidad con valores
extremos.

La prueba de Kolmogorov es una prueba de bondad de ajuste, es decir, del


grado en que la distribución observada difiere de otra distribución. Es una

16
alternativa a la prueba Ji Cuadrado de bondad de ajuste cuanto el número de
datos es pequeño.

La prueba no debe ser aplicada si hay muchos empates.

a) Supuestos. Los datos están medidos al menos a nivel ordinal.

b) Hipótesis Nula: No hay diferencias entre las distribuciones comparadas.

c) Estadístico de contraste: D (mayor diferencia entre las frecuencias relativas de


las distribuciones).

d) Distribución del estadístico de contraste: Específico dependiendo de la


distribución con que se compare la distribución observada.

Ejemplo

Desean saber si una muestra de debe datos pertenece a una población


normalmente distribuida. Los datos (ordenados de menor a mayor) son:

b) Hipótesis Nula: No hay diferencia estadísticamente significativa entre la


distribución de la población a que pertenece la muestra y la distribución Normal.

Hipótesis Alternativa: Hay diferencia estadísticamente significativa entre la


distribución de la población a que pertenece la muestra y la distribución Normal.

c) Estadístico de contraste. Obtención del estadístico de contraste:

Tipificar la muestra:

Obtener los valores típicos que corresponden a diez intervalos de una distribución
Normal:
17
-1.28, -0.84, -0.52, -0.25, 0, 0.25, 0.52, 0.84, 1.28

(Valores que corresponden a los puntos cuya función de distribución Normal


estandarizada son 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8 y 0.9)

Emparejar las distribuciones tipificadas hipotéticas (Normales en el ejemplo) y


observada:

En estadística, son muy conocidas y utilizadas las pruebas paramétricas y no


paramétricas. Una prueba no paramétrica muy empleada es la prueba de
Kolmogórov-Smirnov, que permite verificar si las puntuaciones de la muestra
siguen o no una distribución normal.

Pertenece al grupo de las llamadas pruebas de bondad de ajuste. En este artículo


conoceremos sus características, para qué sirve y cómo se aplica.

Artículo relacionado: "Prueba de chi-cuadrado (χ²): qué es y cómo se usa en


estadística"

18
Pruebas no paramétricas

La prueba de Kolmogórov-Smirnov es un tipo de prueba no paramétrica. Las


pruebas no paramétricas (también llamadas de distribución libre) son utilizadas en
estadística inferencial, y tienen las siguientes características:

 Plantean hipótesis sobre bondad de ajuste, independencia.


 El nivel de medida de las variables es bajo (ordinal).
 No tienen excesivas restricciones.
 Son aplicables a muestras pequeñas.
 Son robustas.

Prueba de Kolmogórov-Smirnov

Características:

La prueba de Kolmogórov-Smirnov es una propia perteneciente a la estadística,


concretamente a la estadística inferencial. La estadística inferencial pretende
extraer información sobre las poblaciones.

Se trata de una prueba de bondad de ajuste, es decir, sirve para verificar si


las puntuaciones que hemos obtenido de la muestra siguen o no una distribución
normal. Es decir, permite medir el grado de concordancia existente entre la
distribución de un conjunto de datos y una distribución teórica específica. Su

19
objetivo es señalar si los datos provienen de una población que tiene la
distribución teórica especificada, es decir, lo que hace es contrastar si las
observaciones podrían razonablemente proceder de la distribución especificada.

La prueba de Kolmogórov-Smirnov aborda la siguiente pregunta: ¿Provienen las


observaciones de la muestra de alguna distribución hipotética?

Hipótesis nula e hipótesis alternativa

Como prueba de bondad de ajuste, responde a la pregunta de: “¿la distribución


muestral (empírica) se ajusta a la poblacional (teórica)?”. En este caso, la
hipótesis nula (H0) establecerá que la distribución empírica es similar a la teórica
(la hipótesis nula es la que no se intenta rechazar). En otras palabras, la hipótesis
nula establecerá que la distribución de frecuencias observada es consistente con
la distribución teórica (y que se da por lo tanto un buen ajuste).

En contraste, la hipótesis alternativa (H1) establecerá que la distribución de


frecuencias observada no es consistente con la distribución teórica (mal ajuste).
Como en otras pruebas de contraste de hipótesis, el símbolo α (alfa) indicará el
nivel de significación de la prueba.

¿Cómo se calcula?

El resultado de la prueba de Kolmogórov-Smirnov se representa mediante la letra


Z. La Z se calcula a partir de la diferencia mayor (en valor absoluto) entre las
funciones de distribución acumuladas teórica y observada (empírica).

20
Supuestos

Para poder aplicar la prueba de Kolmogórov-Smirnov correctamente, se deben


asumir una serie de supuestos. Primeramente, la prueba asume que los
parámetros de la distribución de prueba se han especificado previamente. Este
procedimiento estima los parámetros a partir de la muestra.

Por otro lado, la media y la desviación estándar de la muestra son los


parámetros de una distribución normal, los valores mínimo y máximo de la
muestra definen el rango de la distribución uniforme, la media muestral es el
parámetro de la distribución de Poisson y la media muestral es el parámetro de la
distribución exponencial.

La capacidad de la prueba de Kolmogórov-Smirnov para detectar


desviaciones a partir de la distribución hipotetizada puede disminuir gravemente.
Para contrastarla con una distribución normal con parámetros estimados, se debe
considerar la posibilidad de utilizar la prueba de K-S Lillliefors.

Aplicación

La prueba de Kolmogorov-Smirnov se puede aplicar sobre una muestra para


comprobar si una variable (por ejemplo, las notas académicas o los ingresos €) se
distribuyen normalmente. Esto a veces es necesario saberlo, ya que muchas
pruebas paramétricas requieren que las variables que emplean sigan una
distribución normal.

21
Ventajas

Algunas de las ventajas de la prueba de Kolmogórov-Smirnov son:

 Es más poderosa que la prueba Chi cuadrado (χ²) (también prueba de


bondad de ajuste).
 Es fácil de calcular y usar, y no requiere agrupación de los datos.
 El estadístico es independiente de la distribución de frecuencias esperada,
solo depende del tamaño de la muestra.
 Diferencias con las pruebas paramétricas
 Las pruebas paramétricas, a diferencia de las no paramétricas como la
prueba de Kolmogórov-Smirnov, tienen las siguientes características:

Plantean hipótesis sobre parámetros.

 El nivel de medida de las variables es cuantitativo como mínimo.


 Existen una serie de supuestos que se deben cumplir.
 No pierden información.
 Tienen una alta potencia estadística.
 Algunos ejemplos de pruebas paramétricas serían: la prueba de t para
diferencia de medias o el ANOVA.

22
3.2 Pruebas para dos muestras relacionadas

Estos contrastes permiten comprobar si hay diferencias entre las distribuciones de


dos poblaciones a partir de dos muestras dependientes o relacionadas; es decir,
tales que cada elemento de una muestra está emparejado con un elemento de la
otra, de tal forma que los componentes de cada pareja se parezcan entre sí lo más
posible por lo que hace referencia a un conjunto de características que se
consideran relevantes.

También es posible que cada elemento de una muestra actúe como su


propio control.

Algunas de las pruebas que pueden realizarse con el programa SPSS son:
la prueba de Wilcoxon, la de signos y la de McNemar.

El procedimiento Pruebas para dos muestras relacionadas compara las


distribuciones de dos variables.

Ejemplo

En general, cuando una familia vende su casa ¿logra obtener la cantidad que pide
inicialmente? Si aplica la prueba de Wilcoxon de los rangos con signo a 10 casas,
podría descubrir que siete familias reciben menos cantidad de la solicitada, una
recibe más y dos familias reciben el precio solicitado.

Estadísticos. Media, desviación estándar, mínimo, máximo, número de


casos no perdidos y cuartiles. Pruebas: Wilcoxon de los rangos con signo, signo,
McNemar. Si se ha instalado la opción Pruebas exactas (disponible sólo en los

23
sistemas operativos Windows), la prueba de homogeneidad marginal también
estará disponible.

Pruebas para dos muestras relacionadas

Consideraciones sobre los datos

Datos. Utilice variables numéricas que puedan ser ordenables.

Supuestos. Aunque no se suponen distribuciones en particular para las dos


variables, se supone que la distribución de población de las diferencias
emparejadas es simétrica.

Para obtener pruebas para dos muestras relacionadas

Seleccione en los menús:

Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > 2 muestras
relacionadas...

Seleccione uno o más pares de variables.

Este procedimiento pega la sintaxis de comandos NPAR TESTS.

Dos muestras relacionadas: Tipos de pruebas

Pruebas para dos muestras relacionadas: Opciones

24
Características adicionales del comando NPAR TESTS (Dos muestras
relacionadas)

3.2.1 Mc Nemar

La prueba de McNemar está diseñada para campos de distintivo (campos


categóricos con sólo dos categorías), pero se aplica a todos los campos
categóricos mediante reglas para definir "éxito".

Definir éxito para campos categóricos. Especifica cómo se define "éxito" en los
campos categóricos.

Utilizar primera categoría encontrada en los datos realiza la prueba que utiliza
el primer valor encontrado en la muestra para definir "éxito". Esta opción sólo es
aplicable a los campos nominal u ordinal con sólo dos valores; el resto de campos
categóricos especificados en la pestaña Campos en los que se utiliza esta opción
no se comprobarán. Esta es la opción predeterminada.

Especificar valores de éxito realiza la prueba que utiliza la lista especificada


de valores para definir "éxito". Especifique una lista de valores de cadena o
numérico. No es necesario que los valores de la lista estén en la muestra.

La prueba de McNemar se utiliza para decidir si puede o no aceptarse que


determinado ''tratamiento'' induce un cambio en la respuesta dicotómica o
dicotomizada de los elementos sometidos al mismo, y es aplicable a los diseños
del tipo ''antes-después'' en los que cada elemento actúa como su propio control.

25
Los resultados correspondientes a una muestra de n elementos se disponen
en una tabla de frecuencias 2 x 2 para recoger el conjunto de las respuestas de
los mismos elementos antes y después. El aspecto general de dicha tabla, en la
que los signos + y - se utilizan para representar las diferentes respuestas, es el
siguiente:

Antes/Después - +

- a B

+ c D

En las celdas de la tabla, a es el número de elementos cuya respuesta es la


misma, -; b es el número de elementos cuya respuesta es - antes del ''tratamiento''
y + después de éste; c es el número de elementos que han cambiado de + a -; y d
es el número de elementos que mantienen la respuesta +.

Por tanto, b+c es el número total de elementos cuyas respuestas han


cambiado, y son los únicos que intervienen en el contraste. La hipótesis nula es
que el ''tratamiento'' no induce cambios significativos en las respuestas, es decir,
los cambios observados en la muestra se deben al azar, de forma que es
igualmente probable un cambio de + a - que un cambio de - a +. Así pues, si H0 es
cierta, de los b+c elementos cuya respuesta ha cambiado es de esperar que
(b+c)/2 hayan pasado de + a -, y (b+c)/2 hayan pasado de - a +. En otras palabras,
si H0 es cierta, la frecuencia esperada en las correspondientes celdas es (a+b)/2.

La hipótesis alternativa puede ser no direccional, cuando postula que la


probabilidad de un cambio de + a - tiene distinta probabilidad que un cambio de - a

26
+, o direccional, cuando predice que un cambio de - a + es más (o menos)
probable que un cambio de + a -.

La prueba de McNemar determina si las proporciones pareadas son diferentes.


Por ejemplo, usted puede utilizar la prueba de McNemar para determinar si un
programa de capacitación cambia la proporción de participantes que contestan
correctamente una pregunta.

La siguiente hoja de trabajo de muestra contiene los datos resumidos de 12


participantes. La primera fila, Correcta antes, muestra que solo 2 de los
participantes contestaron correctamente una pregunta específica antes de recibir
capacitación. La columna C2, Correcta después, muestra que 9 participantes
contestaron correctamente la misma pregunta después de recibir capacitación. El
programa de capacitación parece aumentar la proporción de participantes que
contestan correctamente la pregunta. Una prueba de McNemar con estos datos
produce un valor p de 0.039, que es significativo en el nivel de significancia de
0.05.

C1-T C2 C3

Correcta después Incorrecta después

Correcta antes 1 1

Incorrecta antes 8 2

27
También puede ingresar datos sin procesar, siempre y cuando ambas columnas
contengan exactamente 2 valores únicos (véase la nota más abajo). La siguiente
tabla muestra los mismos datos de la tabla anterior ingresados sin procesar. Cada
fila indica cómo respondió un participante antes y después de recibir capacitación.

C1-T C2-T

Antes Después

Incorrecta Correcta

Incorrecta Correcta

Incorrecta Correcta

Incorrecta Correcta

Incorrecta Incorrecta

Incorrecta Correcta

Correcta Correcta

Incorrecta Incorrecta

Correcta Incorrecta

Incorrecta Correcta

28
C1-T C2-T

Antes Después

Incorrecta Correcta

Incorrecta Correcta

Las dos columnas de datos sin procesar deben contener exactamente 2 valores
únicos. De lo contrario, Minitab no sabrá cómo resumir los datos en una tabla de 2
factores para el análisis. Si una o ambas columnas de datos sin procesar
contienen solamente 1 valor único, usted debe ingresar los datos como una tabla 2
x 2, como se muestra en la Tabla 1.

29
3.2.2 Prueba de Rangos

La importancia de la prueba de signos radica en los supuestos mínimos que se


hacen sobre los datos experimentales. No se supone que la población de la cual
se toma la muestra sea normal, ni incluso que sea simétrica. La única información
a priori necesaria es el valor de la mediana. Una cierta desventaja de la prueba de
signos es que no utiliza toda la información disponible. Sólo es necesario saber si
una medición individual es más grande o más pequeña que la mediana, y la
magnitud de esta desviación no se utiliza enabsoluto (MILLER y MILLER, 1993,
cap. 6).

En muchos casos un analista tendrá suficientes razones para creer que sus
mediciones se distribuyen simétricamente pero no desea suponer que siguen una
distribución normal.

Este supuesto de datos simétricos, y la consecuencia de que la media y la


mediana de la población sean iguales, permite desarrollar pruebas de significación
más potentes.

Wilcoxon contribuyó con importantes avances al respecto, y su prueba de


rangos y signos tienen varias aplicaciones (MILLER y MILLER, 1993, cap. 6).

La comparación de la distribución de una serie de datos con un valor de


referencia se realiza mediante la obtención de las diferencias entre cada dato de la
muestra y el valor de referencia (conservando los signos). Los valores absolutos
de estas diferencias se ordenan posteriormente de menor a mayor y a

30
continuación se incorporan sus signos, los números entonces se jerarquizan, en
este proceso se mantienen sus signos pero se les asignan números que indican
su orden o rango.

Luego, asignando con X a la suma de los rangos positivos y con Y a la


suma de rangos negativos, se selecciona la menor de estas cifras (X ó Y) y se
toma como el estadístico de contraste. El teorema binomial dará la probabilidad de
que aparezca este número. Si los datos provienen de una población con una
mediana igual al valor especificado, se esperaría que la suma de rangos positivos
y negativos sea aproximadamente igual.

La probabilidad de que aparezca una suma concreta está dada en la tabla


que se presenta en el anexo C8. En esta prueba se rechaza la hipótesis nula si el
valor tabulado es menor o igual que el valor experimental, es decir, situación
opuesta de la observada en la mayoría de las pruebas de significación.

Una ventaja importante de la prueba de rangos y signos es que también s


signos es que también se puede utilizar para datos por parejas, ya que las
diferencias entre los datos de las dos series se pueden transformar en el tipo de
datos como en el caso anterior. De esta manera se puede utilizar este método no
paramétrico como una alternativa a la prueba t por parejas (MILLER y MILLER,
1993, cap. 6).

Si no hay diferencia entre las dos series de datos, entonces se esperaría que
las diferencias entre los resultados para cada muestra, [(resultado muestra 1) –
resultado muestra 2)] deberán distribuirse en torno a cero. Cuando hay posiciones
empatadas, el problema se resuelve asignando posiciones promedio a los valores

31
empatados, con signos 8-12 adecuados. Si la ordenación es correcta, al calcular la
suma de todos los valores sin tomar en cuenta el signo, debe ser la misma que la
suma de los ocho primeros números naturales (MILLER y MILLER, 1993, cap. 6).

Si la suma de los valores positivos es X y la de los valores negativos es Y, el


estadístico de prueba será la menor de estas sumas, rechazando la hipótesis nula
si el valor del estadístico de prueba es menor que el especificado en dicha tabla.

Es de hacer notar que la prueba de rangos y signos es un método simple y


de mucha utilidad, aunque su principal limitación radica en que no se puede
aplicar a conjuntos de datos muy pequeños, para el caso de prueba de dos colas
con un nivel de significación p = 0.05, n tiene que ser al menos 6 (MILLER y
MILLER, 1993, cap. 6).

32
3.2.3 Prueba de Signo

La prueba del signo se utiliza para probar la hipótesis sobre la mediana de una
distribución continua. La mediana de una distribución es un valor de la variable
aleatoria X tal que la probabilidad de que un valor observado de X sea menor o

igual, o mayor o igual, que la mediana es 0.5. Esto es, .

Puesto que la distribución normal es simétrica, la media de una distribución normal


es igual a la mediana. Por consiguiente, la prueba del signo puede emplearse para
probar hipótesis sobre la media de una población normal.

Suponga que las hipótesis son:

Supóngase que X1, X2, . . . , Xn es una muestra aleatoria tomada de la población


de interés. Fórmense las diferencias

Ahora bien si la hipótesis nula es verdadera, cualquier

diferencia tiene la misma probabilidad de ser negativa o positiva. Un


estadístico de prueba apropiado es el número de estas diferencias que son
positivas, por ejemplo R+. Por consiguiente, la prueba de la hipótesis nula es en
realidad una prueba de que el número de signos positivos es un valor de una
variable aleatoria binomial con parámetro P = �. Puede calcularse un valor P para
el número observado de signos positivos r+ directamente de la distribución
binomial. Al probar la hipótesis que se muestra al principio, se rechaza H 0 en favor

33
de H1 sólo si la proporción de signos positivos es suficientemente menor que � ( o
de manera equivalente, cada vez que el número observado de signos positivos
r+ es muy pequeño). Por tanto, si el valor P calculado

P = P(R+ r+ cuando p = 1/2) es menor o igual que algún nivel de significancia


seleccionado previamente, entonces se rechaza H0 y se concluye que H1 es
verdadera.

Para probar la otra hipótesis unilateral

se rechaza H0 en favor de H1 sólo si el número observado de signos


más, r+, es grande o, de manera equivalente, cada vez que la fracción observada
de signos positivos es significativamente mayor que �. En consecuencia, si el

valor P calculado P = P(R+ r+ cuando p = 1/2) es menor que , entonces


H0 se rechaza y se concluye que H1 es verdadera.

También puede probarse la alternativa bilateral. Si las hipótesis son:

se rechaza H0 si la proporción de signos positivos difiere de manera


significativa de � (ya se por encima o por debajo). Esto es equivalente a que el
número observado de signos r+ sea suficientemente grande o suficientemente
pequeño. Por tanto, si r+ >n/2 el valor P es P=2P(R+ r+ cuando p = �) Y si
r+ >n/2 el valor P es P=2P(R+ r+ cuando p = �) Si el valor P es menor que algún
nivel preseleccionado , entonces se rechaza H0 y se concluye que H1 es
verdadera.

34
Ejemplos:

1. Un artículo informa cerca de un estudio en el que se modela el motor de un


cohete reuniendo el combustible y la mezcla de encendido dentro de un
contenedor metálico. Una característica importante es la resistencia al
esfuerzo cortante de la unión entre los dos tipos de sustancias. En la
siguiente tabla se muestran los resultados obtenidos al probar 20 motores
seleccionados al azar. Se desea probar la hipótesis de que la mediana de la
resistencia al esfuerzo cortante es 2000 psi, utilizando = 0.05.

Solución:

Se mostrará la tabla del ejercicio y es función del investigador poner los signos
con respecto a la mediana.

35
Observación Resistencia Signo de Observación Resistencia Signo de
al esfuerzo la al esfuerzo la
cortante diferencia cortante diferencia

xi xi-2000 xi xi-2000

1 2158.70 + 11 2165.20 +
2 1678.15 - 12 2399.55 +
3 2316.00 + 13 1779.80 -
4 2061.30 + 14 2336.75 +
5 2207.50 + 15 1765.30 -
6 1708.30 - 16 2053.50 +
7 1784.70 - 17 2414.40 +
8 2575.10 + 18 2200.50 +
9 2357.90 + 19 2654.20 +
10 2256.70 + 20 1753.70 -

De la tabla se puede observar que el estadístico de prueba r+ = 14.

Regla de decisión:

Si el valor de P correspondiente a r+=14 es menor o igual que =0.05 se


rechaza H0.

Cálculos:

Puesto que r+=14 es mayor que n/2=20/2=10, el valor de P se calcula de

P=2P(R+ 14 cuando p = �)

La P se calcula con la fórmula de la distribución binomial:

36
Conclusión:

Como P=0.1153 no es menor que =0.05, no es posible rechazar la hipótesis


nula de que la mediana de la resistencia al esfuerzo constante es 2000 psi.

Otra manera de resolver el problema es con Aproximación normal:

Cuando p=0.5, la distribución binomial esta bien aproximada por la distribución


normal cuando n es al menos 10. Por tanto, dado que la media de la distribución
binomial es np y la varianza es npq, la distribución de R+ es aproximadamente
normal con media 0.5n y varianza 0.25n, cada vez que n es moderadamente
grande. Por consiguiente las hipótesis pueden probarse con el estadístico:

Las reglas de decisión se establecerán como cualquier ensayo en una distribución


muestral en donde se utiliza la distribución normal.

Para resolver el problema anterior:

Como la es mayor que 10 se utilizará la aproximación normal.

37
Regla de Decisión:

Si �1.96 ZR 1.96 No se rechaza Ho

Si ZR < -1.96 ó si ZR > 1.96 Se rechaza Ho

Cálculos:

Decisión y Conclusión:

Como 1.789 esta entre �1.96 y 1.96, no se rechaza H0 y se concluye con un


=0.05 que la mediana es de 2000 psi.

38
3.2.4 Prueba de Signo de Wilcoxon

El test no paramétrico prueba de los rangos con signo de Wilcoxon, también


conocido como Wilcoxon signed-rank test, permite comparar poblaciones cuando
sus distribuciones (normalmente interpretadas a partir de las muestras) no
satisfacen las condiciones necesarias para otros test paramétricos. Es una
alternativa al t-test de muestras dependientes cuando las muestras no siguen una
distribución normal (muestran asimetría o colas) o cuando tienen un tamaño
demasiado reducido para poder determinar si realmente proceden de poblaciones
normales.

A la hora de elegir entre t-test o Wilcoxon signed-rank test, es importante


tener en cuenta que, el problema de las muestras pequeñas, no se soluciona con
ninguno de los dos. Si el tamaño de las muestras es pequeño, también lo es la
calidad de la inferencia que se puede hacer con ellas. Ahora bien, existen dos
situaciones en las que, a priori, se puede recomendar utilizar un Wilcoxon signed-
rank test antes que un t-test:

 Si el tamaño de las muestras es suficientemente grande para determinar


(por métodos gráficos o contrastes de hipótesis) que la distribución de las
poblaciones a comparar no es de tipo normal, en tal caso, los t-test no son
adecuados, por lo que mejor emplear un Wilcoxon signed-rank
test (bootstrapping, regresión cuantílica, o test de permutación también
podrían ser otras alternativa).

39
 Si el tamaño de las muestras no permite determinar con seguridad si las
poblaciones de las que proceden se distribuyen de forma normal, y no se
dispone de información que pueda orientar sobre la naturaleza de las
poblaciones de origen (estudios anteriores, que sea un tipo de variable que
se sabe que se distribuye casi siempre de forma normal…), entonces es
más apropiado el Wilcoxon signed-rank test ya que no requiere asumir la
normalidad de las poblaciones.

El test Wilcoxon signed-rank test presenta las siguientes características:

 Es frecuente encontrar descrito que, el Wilcoxon signed-rank test, compara


la mediana de las diferencias, sin embargo, esto solo es correcto bajo
determinadas condiciones. A modo general, el Wilcoxon signed-rank
test compara si las diferencias entre pares de datos siguen una distribución
simétrica entorno a un valor. Si dos muestras proceden de la misma
población, es de esperar que las diferencias entre cada par de
observaciones se distribuyan de forma simétrica entorno al cero.

 Trabaja sobre rangos de orden, es decir, utilizan las posiciones que ocupan
los datos una vez ordenados. Por lo tanto, solo es aplicable a variables
cuyos valores se pueden ordenar.

 Tienen menos poder estadístico (menor probabilidad de rechazar la


hipótesis nula cuando realmente es falsa) ya que ignoran valores extremos.
En el caso de los t-test, al trabajar con medias, sí los tienen en cuenta. Esto

40
a su vez, hace que el Wilcoxon signed-rank test sean una prueba más
robusta que el t-test.

La mayoría de estos test estadísticos están programados en los paquetes


estadísticos más frecuentes, quedando para el investigador, simplemente, la tarea
de decidir por cuál de todos ellos guiarse o qué hacer en caso de que dos test nos
den resultados opuestos. Hay que decir que, para poder aplicar cada uno existen
diversas hipótesis nulas y condiciones que deben cumplir nuestros datos para que
los resultados de aplicar el test sean fiables. Esto es, no se puede aplicar todos los
test y quedarse con el que mejor convenga para la investigación sin verificar si se
cumplen las hipótesis y condiciones necesarias pues, si se violan, invalidan
cualquier resultado posterior y son una de las causas más frecuentes de que un
estudio sea estadísticamente incorrecto. Esto ocurre sobre todo cuando el
investigador desconoce la naturaleza interna de los test y se limita a aplicarlos
sistemáticamente.

Es importante mencionar que si la distribución de los datos se ajusta a un


tipo de distribución conocida, existen otras [pruebas] que, en la práctica, son más
aconsejables pero que así mismo requieren otros supuestos. En este caso, la
estadística a emplear es la estadística paramétrica, dentro de la cual muchas
veces podemos encontrar equivalencias entre pruebas pero con diferencias en la
potencia entre ambas siendo siempre la potencia de las pruebas no paramétricas
menor que la potencia de las pruebas paramétricas equivalentes. Aun así, el uso
adecuado de los tamaños muestra les disminuye la posibilidad de cometer un
[error tipo II], puesto que aumenta al mismo tiempo la eficacia de la prueba. Es
decir, a medida que se aumenta el tamaño de la muestra, disminuye la posibilidad
de cometer un error tipo II (un falso negativo: No rechazar la hipótesis nula cuando
ésta en realidad es falsa).

41
3.3 Pruebas para k-muestras relacionadas

Este test puede considerarse como una extensión del test de Wilcoxon para el
caso de más de dos muestras. En el caso de que las asunciones del test ANOVA
fuesen satisfechas, el análisis se realizaría de acuerdo a un diseño de ANOVA de
dos factores sin repetición, en el que los factores serían respectivamente los
pacientes (bloques) y el tratamiento, por referirse a un ejemplo de un ensayo
clínico con un diseño denominado de bloques completos aleatorios. Si las
condiciones de aplicación no fuesen satisfechas, para la realización del test no
paramétrico, como siempre, desde el menú Analizar se accede a las Pruebas no
paramétricas donde se seleccionará la opción k muestras relacionadas.

Hay tres pruebas disponibles para comparar las distribuciones de diversas


variables relacionadas.

Q de Cochran

La prueba es idéntica a la prueba de Friedman pero se puede aplicar cuando


todas las respuestas son binarias. Esta prueba es una extensión de la prueba de
McNemar para la situación de k muestras. La Q de Cochran contrasta la hipótesis
de que diversas variables dicotómicas relacionadas tienen la misma media. Las
variables se miden al mismo individuo o a individuos emparejados.

Cuando sobre n elementos se observa la serie de respuestas de cada uno de ellos


a k ''tratamientos'' esta prueba permite contrastar la hipótesis nula de que no
existe diferencia significativa entre los k ''tratamientos''. También es posible
utilizarla si cada tratamiento se aplica a uno de los elementos de n grupos de k

42
elementos elegidos de forma que los elementos de cada grupo se asemejen lo
más posible entre ellos.

Esta prueba es adecuada cuando la respuesta a cada tratamiento es una


variable dicotómica, siendo X = 1 si la respuesta es ''éxito'' y X = 0 si es ''no éxito''
Si la respuesta es susceptible de medición en por lo menos una escala ordinal
también es posible dicotomizarla, pero se pierde información y, por lo tanto, es
preferible utilizar la prueba de Friedman.

Los datos se disponen en una tabla de la misma forma que para la prueba de
Friedman, pero ahora las columnas de la tabla contienen únicamente ceros y
unos, de forma que la suma de los valores de la j-ésima columna, GJ , es el
número de ''éxitos'' de la distribución de las n respuestas al j-ésimo ''tratamiento''.
Si la hipótesis nula es cierta las diferencias entre el número de éxitos de cada
columna se deben al azar, por lo que es de esperar que sean pequeñas, es decir,
que todas las G_{j estén muy próximas al número medio de éxitos por muestra,
El estadístico de prueba se basa en la dispersión del número de éxitos de cada
''tratamiento'' con respecto a :

El estadístico de prueba es:

43
Donde Li es el total de ''éxitos'' del primer elemento o grupo.

Si la hipótesis nula es cierta, la distribución de Q puede aproximarse mediante


una chi-cuadrado con k - 1 grados de libertad y se rechaza la hipótesis nula si el
valor de Q es superior al valor crítico para el nivel de significación deseado.

Relación de los contrastes.

Para realizar estas pruebas la secuencia es:

Analizar

Pruebas no paramétricas

k muestras relacionadas

En el cuadro de diálogo Pruebas para varias muestras relacionadas se indican las


variables que se quiere comparar y se activan las pruebas que se desea realizar.
Por defecto está activada la prueba de Friedman.

44
Ejemplo

Con los datos de la encuesta Encinf.sav probar si hay discrepancia entre la


valoración que hacen los alumnos al mantenimiento (Manten), acceso a las aulas
de informática (Aulas) y la valoración que hacen a los monitores que supervisan
las aulas (Monitor).

Como se trata de contrastar la hipótesis nula de que las valoraciones


asignadas por los alumnos a las características mantenimiento, acceso y
monitores de las aulas no difiere significativamente a partir de las puntuaciones
asignadas por los mismos individuos, las muestras resultantes no son
independientes. Por otra parte, las variables se miden en una escala ordinal, y por
tanto el contraste más adecuado es la prueba de Friedman.

Para realizar este contraste la secuencia es:

Analizar > Pruebas no paramétricas > k muestras relacionadas.

En el cuadro de diálogo se seleccionan las variables Manten, Aulas y Monitor y se


mantiene el tipo de prueba activado por defecto, Friedman.

Los resultados que se obtienen son los siguientes:

45
El estadístico de prueba es igual a 8,040, por lo que no se puede rechazar la
hipótesis nula para niveles de significación superiores a 0,018. Al 5% de nivel de
significación se acepta la hipótesis de que no existen diferencias significativas
entre las valoraciones asignadas por los alumnos a estas características.

Friedman

La prueba es el equivalente no paramétrico de un diseño de medidas repetidas de


una muestra o un análisis de varianza de dos factores con una observación por
casilla. Friedman contrasta la hipótesis nula de que las k variables relacionadas
procedan de la misma población. Para cada caso, a las k variables se les asignan
los rangos 1 a k. El estadístico de contraste se basa en estos rangos.

Esta prueba puede utilizarse en aquellas situaciones en las que se


seleccionan n grupos de k elementos de forma que los elementos de cada grupo
sean lo más parecidos posible entre sí, y a cada uno de los elementos del grupo
se le aplica uno de entre k ''tratamientos'', o bien cuando a cada uno de los
elementos de una muestra de tamaño n se le aplican los k ''tratamientos''.

La hipótesis nula que se contrasta es que las respuestas asociadas a cada


uno de los ''tratamientos'' tienen la misma distribución de probabilidad o
distribuciones con la misma mediana, frente a la hipótesis alternativa de que por lo

46
menos la distribución de una de las respuestas difiere de las demás. Para poder
utilizar esta prueba las respuestas deben ser variables contínuas y estar medidas
por lo menos en una escala ordinal.

Los datos se disponen en una tabla en la que en cada fila se recogen las
respuestas de los k elementos de cada grupo a los k tratamientos:

Grupo\ Tratamiento 1 2 ... J ... k


1 x11 x12 ... x1j ... x1k

... .... .... ... .... ... ....

i xi1 xi2 ... xij ... xik

... ... ... ... ... ... ...

n xn1 xn2 ... xnj ... xnk

A las observaciones de cada fila se les asignan rangos de menor a mayor desde 1
hasta k; a continuación se suman los rangos correspondientes a cada columna,
siendo RJ la suma correspondiente a la columna j-ésima. Si la hipótesis nula es
cierta, la distribución de los rangos en cada fila se debe al azar, y es de esperar
que la suma de los rangos correspondientes a cada columna sea
aproximadamente igual a n(k + 1)/2. La prueba de Friedman determina si
las RJ observadas difieren significativamente del valor esperado bajo la hipótesis
nula.

El estadístico de prueba es:

47
Si H0 es cierta y el número de columnas y/o de filas es moderadamente grande la
distribución de F se aproxima a una chi-cuadrado con k - 1 grados de libertad; de
forma que se rechaza la hipótesis nula para valores de F superiores al valor crítico
para el nivel de significación fijado.

W de Kendall

La prueba es una normalización del estadístico de Friedman. La prueba W de


Kendall se puede interpretar como el coeficiente de concordancia, que es una
medida de acuerdo entre evaluadores. Cada caso es un juez o evaluador y cada
variable es un elemento o persona que está siendo evaluada. Para cada variable,
se calcula la suma de rangos. La W de Kendall varía entre 0 (no hay acuerdo) y 1
(acuerdo completo).

3.3.1 Friedman

La prueba de Friedman Test es una ampliación de Prueba de Wilcoxon de los


rangos con signo y el análogo no paramétrico de medidas repetidas de un factor.
Friedman contrasta la hipótesis nula de que las k variables relacionadas procedan
de la misma población. Para cada caso, a las k variables se les asignan los rangos
1 a k. El estadístico de contraste se basa en estos rangos.

Ejemplo

¿Asocia la gente diferentes niveles de prestigio a doctores, abogados, policías y


profesores? Se pide a diez personas que ordenen estas cuatro profesiones por
orden de prestigio. La prueba de Friedman indica que la gente asocia diferentes
niveles de prestigio con estas cuatro profesiones.

48
Estadísticos

Media, desviación estándar, mínima, máxima, número de casos no perdidos y


cuartiles. Pruebas: Friedman.

Consideraciones sobre los datos

Datos

Utilice variables numéricas que puedan ser ordenables.

Supuestos

Las pruebas no paramétricas no requieren supuestos sobre la forma de la


distribución subyacente. Utilice muestras aleatorias y dependientes.

Obtención de una prueba de Friedman

Esta característica requiere la edición Base de Statistics.

1. Seleccione en los menús:

Analizar > Comparación de grupos - No paramétrica > Prueba de Friedman

2. Pulse Seleccionar variables en la sección Variables dependientes,


seleccione una o más variables de prueba numéricas y, a continuación,
pulse Aceptar.

3. Opcionalmente, expanda el menú Configuración adicional y pulse lo


siguiente:

o Pulse Comparaciones para especificar opciones para varias pruebas


de comparación.

o Pulse Opciones para especificar el intervalo de confianza, el nivel de


significación, la base de casos para el análisis y la configuración de
valores perdidos del usuario.

49
4. Pulse Ejecutar análisis.

 Pruebas de muestras relacionadas de K: Tipos de prueba

 Prueba de Friedman: Opciones

3.3.2 Kendall

Coeficiente de concordancia de W de Kendall

Tiene las mismas indicaciones que la prueba de Friedman, aunque su uso en


investigación ha sido, principalmente, para conocer la concordancia entre rangos,
más que para probar que existe una diferencia entre las medianas.

VI: Politómica

VD: Ordinal /Intervalo

En la prueba estadística el Coeficiente de Concordancia de Kendall (W),


ofrece el valor que posibilita decidir el nivel de concordancia entre los expertos. El
valor de W oscila entre 0 y 1. El valor de 1 significa una concordancia de acuerdos
total y el valor de 0 un desacuerdo total. La tendencia a 1 es lo deseado
pudiéndose realizar nuevas rondas si en la primera no es alcanzada significación
en la concordancia.

50
Fórmula para el cálculo

Este coeficiente se calcula con el uso de las fórmulas que muestran a


continuación:

 W: Coeficiente de concordancia.

 K: Cantidad de expertos.

 N: Cantidad de variables.

 T: Factor de corrección.

 Rj: Suma de los rangos asignados a cada variable.

 S: Suma de los cuadrados de las desviaciones.

 t: Número de observaciones en un grupo ligado por un rango dado.

Pasos

1. Ordenar las observaciones por rangos, en función de la


posible variable independiente.

2. Efectuar la sumatoria de los rangos en función de cada variable.

3. Obtener la sumatoria de la sumatoria anterior y obtener un promedio.

4. Calcular las diferencias obtenidas entre la sumatoria y el promedio, elevarlas al


cuadrado y sumarlas. Lo anterior es el valor S.

5. Aplicar la ecuación para obtener el ajuste dado por las ligas o empates.

6. Aplicar a ecuación coeficiente de concordancia de Kendall (w).

7. Transformar w en ji cuadrada y calcular los grados de libertad (gl). gl = N - 1.

8. Decidir si se acepta o rechaza la hipótesis.

51
No basta con saber si W está más próximo a 0 o 1 sino que además debemos
saber si W es significativamente distinta de 0 para rechazar la hipótesis de
concordancia casual. Esta prueba sería en principio una prueba de hipótesis.

Importancia

 Este método de pronóstico es importante porque brinda un modelo para la


ordenación de entidades de acuerdo a un consenso, cuando no hay un
orden objetivo de las entidades.

52
3.4 Pruebas para dos muestras independientes

El procedimiento Pruebas para dos muestras independientes compara dos grupos


de casos existentes en una variable.

Ejemplo

Se han desarrollado nuevos correctores dentales diseñados para que sean más
cómodos y estéticos, así como para facilitar un progreso más rápido en la
realineación de la dentadura. Para averiguar si el nuevo corrector debe llevarse
tanto tiempo como el modelo antiguo, se eligen 10 niños al azar para que lleven
este último y otros 10 niños para que usen el nuevo. Mediante la prueba U de
Mann-Whitney podría descubrir que, de media, los niños que llevaban el nuevo
corrector tenían que llevarlo puesto menos tiempo que los que llevaban el antiguo.

Estadísticos. Media, desviación estándar, mínimo, máximo, número de casos no


perdidos y cuartiles. Pruebas: U de Mann-Whitney, reacciones extremas de
Moses, Z de Kolmogorov-Smirnov, rachas de Wald-Wolfowitz.

Pruebas para dos muestras independientes: Consideraciones sobre los datos

Datos. Utilice variables numéricas que puedan ser ordenables.

Supuestos. Utilice muestras independientes y aleatorias. La prueba Mann-


Whitney U comprueba la igualdad de las dos distribuciones. Para utilizarla para
comprobar sus diferencias en la ubicación entre dos distribuciones, se debe
asumir que las distribuciones tienen la misma forma.

Para obtener pruebas para dos muestras independientes

Esta característica requiere la opción Statistics Base.

1. Seleccione en los menús:

53
Analizar > Pruebas no paramétricas > Cuadros de diálogo antiguos > 2 muestras
independientes...

2. Seleccione una o más variables numéricas.

3. Seleccione una variable de agrupación y pulse en Definir grupos para


segmentar el archivo en dos grupos o muestras.

Este procedimiento pega la sintaxis de comandos NPAR TESTS.

 Tipos de pruebas para dos muestras independientes.

 Pruebas para dos muestras independientes: Definir grupos

 Pruebas para dos muestras independientes: Opciones

 Características adicionales del comando NPAR TESTS (Dos muestras


independientes)

Algunas de las pruebas que pueden realizarse con el programa SPSS son: la
prueba U de Mann-Whitney, la prueba Z de Kolmogorov-Smirnov y la prueba de
rachas de Wald-Wolfowitz.

54
3.4.1 U-mann Whitney

La hipótesis nula del contraste es que las dos muestras, de tamaño n1 y n2,
respectivamente, proceden de poblaciones contínuas idénticas:

La hipótesis alternativa puede ser unilateral o bilateral y únicamente supone


que la tendencia central de una población difiere de la otra, pero no una diferencia
de forma o de dispersión. Por esta razón esta prueba es el equivalente no
paramétrico de la prueba t para la diferencia de dos medias cuando las muestras
son independientes pero no puede suponerse la normalidad de las poblaciones de
origen.

Para realizar el contraste se ordenan conjuntamente las observaciones de las


dos muestras, de menor a mayor, y se les asignan rangos de . Si la
tendencia central de ambas poblaciones es la misma los rangos deberían
distribuirse aleatoriamente entre las dos muestras y el rango medio
correspondiente a las observaciones de una muestra debería ser muy similar al
correspondientes a las observaciones de la otra. El estadístico de prueba U de
Mann-Whitney se construye a partir de la suma de rangos de una de las muestras,
Ri, elegida arbitrariamente:

Para tamaños de muestra pequeños la distribución del estadístico U, bajo el


supuesto de que la hipótesis nula sea cierta, es discreta y está tabulada. Si los
tamaños son suficientemente grandes la distribución del estadístico se aproxima a
una normal de parámetros:

55
El estadístico de prueba es el valor Z:

La región de rechazo de H0 se localiza en las dos colas de la normal tipificada si


H1 no es direccional o en una de las colas si H1 es direccional.

Esta prueba se emplea en dos muestras independientes. Se emplea para resolver


el mismo caso que resuelve la prueba de la Suma de rangos de Wilcoxon.

La variable debe de estar en escala cuantitativa.

Hipótesis:

a. H0: MedA = MedB (La hipótesis nula equivale a decir que las dos poblaciones
difieren con respecto a su tendencia central)

H1: MedA ≠ MedB (donde A y B designan las dos muestras)

b. H0: MedB ≥ MedA H1: MeB < MedA

c. H0: MedB ≤ MedA H1: MedB > MedA

La prueba U de Mann-Whitney (o prueba de Mann Whitney) y la prueba de


la Suma de rangos de Wilcoxon son completamente equivalentes; escoger una u
otra es cuestión de conveniencia.

Ejemplo: Se desea conocer si los niveles de excreción urinaria de Sodio/Potasio


varían en relación a la presencia de la enfermedad X, para lo cual se
seleccionaron dos muestras aleatorias, una constituida por 16 pacientes con esta
enfermedad y la otra por 12 personas sin ella.

56
Pruebe la hipótesis de que los niveles de excreción urinaria de Sodio/Potasio
difieren en ambos grupos. Use α = 0.05.

Enfermos 263 288 432 890 450 1270 220


350 283 274 580 285 524 135
500 120
No 60 119 153 588 124 196 14
enfermos
23 43 854 400 73

Respuesta:

En este ejemplo hay dos muestras independientes (una con 16 pa cientes con esa
enfermedad X y 12 personas sin la enfermedad X) y una variable cuantitativa
(niveles de excreción urinaria de Sodio/Potasio); nos interesa determinar si las
medianas de esas dos poblaciones difieren.

Hipótesis:

H0: Medenf = Mednoenf

H1: Medenf ≠ Mednoenf

donde:

Medenf: mediana de los enfermos

Mednoenf: mediana de los no enfermos

57
Prueba U-mann Whitney

Abrimos el programa SPSS e introducimos los datos.

Utilizaremos dos columnas pues tenemos dos variables; en la primera columna


pondremos los grupos que codificaremos como 1 para la muestra de enfermos de
la enfermedad X (son 16 pacientes en esta muestra) y 2 para la muestra de los no
enfermos (son 12 pacientes en esta muestra). La otra variable va en la segunda
columna y corresponde a los niveles de excreción urinaria de Sodio/Potasio de
cada paciente según pertenezca a cada muestra. Deberá quedarles así la Vista de
datos:

Ahora en la Vista de variables deberá quedarles así:

58
Ahora vamos al menú Analizar y damos un clic para que salga un menú
desplegable e iremos a buscar donde dice Pruebas no paramétricas y nos
paramos con el mouse ahí y saldrá otro menú desplegable y no s paramos con el
mouse donde dice Cuadros de diálogo anteriores y ahí saldrá otro menú
desplegable y daremos un clic donde dice 2 muestras independientes… daremos
un clic. Vean la siguiente figura como tienen que seguir lo que está en amarillo

Ahora saldrá la siguiente ventana:

59
Ahora activaremos dando un clic sobre la variable Nivel de excreción urinaria de
Sodio/Potasio y la pasaremos hacia donde dice Lista Contrastar variables: y luego
activaremos dando un clic sobre la variable Grupos de estudio y la pasaremos
hacia donde dice Variable de agrupación. Dejaremos marcada la opción Tipo de
prueba: U de Mann-Whitney. Deberá quedarles así:

Luego en el botón donde dice Definir grupos daremos un clic y en Grupo 1


pondremos el número 1 y donde dice Grupo 2 pondremos el numero 2. Se verá
así:

60
Luego daremos un clic en el botón continuar y luego en el botón Aceptar y saldrán los
siguientes resultados:

Resultados:

Pruebas no paramétricas

[Conjunto_de_datos4] C:\Users\Silvia\Desktop\Manual de ejercicios de SPSS\Pruebas no


paramétricas\1-Para variables cuantitativas\2-Dos muestras independientes\3-Prueba Mann
Whitney\1-Base de datos. Prueba de Mann-Whitney.sav

61
3.4.2 Kolmogorov-Sminors

Sirve para contrastar la hipótesis de que dos muestras proceden de la misma


población. Para ello, compara las funciones de distribución (funciones de
probabilidad acumuladas) de ambas muestras.

VI: Dicotómica

VD: Ordinal/Intervalo

Esta prueba se utiliza para contrastar la hipótesis nula de que dos muestras
independientes de tamaños n1 y n2 proceden de la misma población.

El contraste se basa en las diferencias entre las frecuencias relativas acumuladas


hasta los mismos puntos de corte correspondientes a las dos muestras. Si H0 es
cierta es de esperar que dichas diferencias sean pequeñas. Cuando la hipótesis
alternativa no es direccional el contraste es sensible a cualquier diferencia
existente entre las dos poblaciones, no sólo en cuanto a tendencia central, sino
también en cuanto a forma, asimetría, etc.

El estadístico de prueba es:

Cuando esta diferencia es significativamente grande se rechaza la hipótesis de


que las muestras proceden de la misma población y la decisión se basa en el valor
tipificado del estadístico de prueba, Z, que tiene distribución normal tipificada.

62
Prueba Kolmogorov-Smirnov para una muestra:

Es una prueba de bondad de ajuste. Se emplea en una muestra independiente. El


tipo de variable es cuantitativa continua (debe ser medida en escala al menos
ordinal).

Esta prueba responde a la pregunta: ¿Ajusta la distribución empírica de datos


muestrales de una variable ordinal o cuantitativa a una distribución teórica
conocida?

Esta prueba no requiere que los datos sean agrupados, lo que permite que ésta
haga uso de toda la información del conjunto de datos.

Puede utilizarse con muestras de cualquier tamaño (mientras que la X2 requiere


que las muestras tengan un tamaño mínimo).

Hipótesis:

H0: F(x) = FT(x) para toda x desde - ∞ hasta + ∞

H1: F(x) ≠ FT(x) para al menos una x

Como es una prueba de bondad de ajuste aquí interesa no rechazar la hipótesis


nula, es decir, interesa que el valor de p sea mayor de 0,05 para no rechazar la
hipótesis nula (queremos que p > 0,05).

Ejemplo:

Se efectuaron mediciones del nivel de glucemia de 36 hombres adultos en ayuno,


no obesos y aparentemente sanos. Estas mediciones se muestran en la tabla que
se presenta. Se pretende saber si es posible concluir que tales datos no
pertenecen a una población que sigue una distribución normal, con una media de
80 y una desviación típica de 6. Emplee un α = 0,05.

63
Valores de glucemia en 36 varones sanos

75 92 80 80 84 72
84 77 81 77 75 81
80 92 72 77 78 76
77 86 77 92 80 78
6 78 92 68 80 81
87 76 80 87 77 86

Respuesta:

Supuestos: La muestra disponible es una muestra aleatoria simple que se extrajo


de una población que sigue una distribución continua.

Hipótesis:

H0: F(x) = FT(x) para toda x desde - ∞ hasta + ∞

H1: F(x) ≠ FT(x) para al menos una x

Ahora abrimos el programa SPSS y vamos a la Vista de datos para introducir los
datos del ejemplo. Debe quedarles así:

64
Ahora en la Vista de variables introducimos el nombre de la variable, su etiqueta
(que es el nombre real de nuestra variable) y ponemos en Medida la Escala pues
se trata de una variable cuantitativa continua. Debe quedarles así:

Ahora vamos al menú Analizar y damos un clic ahí, luego saldrá un menú
desplegable y nos desplazamos hacia debajo de ese menú con el mouse y donde
dice Pruebas no paramétricas nos paramos y saldrá otro menú desplegable ahora

65
hacia la derecha y con el mouse vamos hacia donde dice Cuadros de diálogo
antiguos y nos paramos ahí y entonces saldrá otro menú desplegable que dice K-
S de 1 muestra y ahí damos un clic. Debe quedarles así:

66
Ahora saldrá una ventana como la siguiente:

Ahora activaremos la variable nuestra (Valores de glucemi…) dándole un clic


sobre ella y la pondremos en el cuadro de la derecha debajo donde dice Lista
Contrastar variables:. Deben dejar activada la opción Normal, es decir, no
desmarcarla. Debe quedarles así:

67
Ahora en el botón Opciones… pueden darle un clik y marcar con otro clic donde
dice Descriptivos:

68
Luego dan clic en el botón Continuar.

Ahora dan clic en Aceptar y saldrán los siguientes resultados: Pruebas no


paramétricas [Conjunto_de_datos0] C:\Users\Silvia\Desktop\Manual de ejercicios de
SPSS\Pruebas no paramétricas\1-Para variables cuantitativas\1-Una sola muestra\Kolmogorov-
Smirnov\1-Base de datos. Prueba K-S para1 muestra.sav

3.4.3 Rachas de Wald-Wolfowitz

 Supuesto.

Aplica para variable de naturaleza continua, medida en una escala al menos


ordinal.

 Hipótesis.

Hipótesis nula: La distribución de la población del grupos XX es igual a la


distribución de la población de grupo YY.
H0:FX=FYH0:FX=FY
Hipótesis alternativa:

Ha:FX≠FYHa:FX≠FY

 Estadística de prueba

El estadístico de prueba se conoce como rachas y se denota por rr. Se obtiene


de ordenar de menor a mayor las observaciones de los datos de los dos grupos
combinados. A partir de este ordenamiento, rr es el número de veces que se
encuentran valores consecutivos del mismo grupo. Por ejemplo, si se observan
los siguientes valores para dos grupos sean A y B:
A: {1,5,9,11} B: {2,4,6,7}

Al ordenar las observaciones de menor a mayor de los dos grupos obtenemos el


siguiente arreglo:

69
1 2 4 5 6 7 9 11

Donde se pueden identificar cinco “rachas” (r=5r=5) o cinco secuencias de


números consecutivos del mismo grupo.

La prueba de rachas también se utiliza para evaluar aleatoriedad, es decir, se


quiere saber si la ocurrencia de un evento sigue un cierto patrón.

Por ejemplo, se quiere saber si la llegada de los pacientes a la consulta


médica ocurre de forma aleatoria con relación al sexo, o llegan más hombre o
mujeres al comienzo del día, o al final del día, de manera intercalada u otro posible
patrón de llegada. Para este escenario, el estadístico de prueba (número de
rachas) se obtiene de la misma forma que en la aplicación anterior, pero el
ordenamiento no se realiza por los valores observados de una variable, sino por el
orden de llegada.

La diferencia que se presenta para este escenario es el cálculo del valor p, es


decir, la hipótesis nula de aleatoriedad se rechazaría no solo cuando se presente
un número bajo de rachas sino también un número elevado.

En nuestro ejemplo del orden de llegada de los pacientes, si se presentan


dos rachas (todas las mujeres/hombre llegan primero - caso extremo) o el orden
de llegada es de manera intercalada (hombre,mujer, hombre, mujer ……- caso
extremo), esto sería evidencia para rechazar la hipótesis nula. Por consiguiente el
cálculo del valor p se realizaría a dos colas ya que un número elevado de rachas
también sería evidencia de la presencia de un cierto patrón. En este escenario no
debemos preocuparnos por la presencia de empates ya que el ordenamiento es
único.

70
II. PROGRAMA PROJECT 2000

Es una herramienta de administración de proyectos avanzada y sencilla para


planear, administrar y entregar cualquier proyecto a tiempo. Puedes trabajar desde
proyectos individuales hasta grandes iniciativas que involucran a un gran equipo
de trabajo.

Entonces, si quieres mantenerte organizado, enfocado y pendiente de cada


avance de un proyecto importante, Microsoft Project es una herramienta online o
para desktop eficaz y muy intuitiva para usar.

Microsoft Project es un sistema de gestión de proyectos diseñado para


administradores de proyectos. La gestión de proyectos puede ser una tarea
desalentadora. Sin embargo, con una formación adecuada, jefes de proyecto
pueden utilizar Microsoft Project para planificar, gráfico, programación, ejecución y
gestión de proyectos con facilidad.

1. INTRODUCCIÓN PROGRAMA PROJECT 2000

Identificación

Microsoft Project es una pieza compleja de software con numerosas herramientas


integradas, características y tutoriales. Los tutoriales pueden ayudar a los
administradores de proyectos a aprender cómo aplicar las herramientas de
manera efectiva. Muchos tutoriales de formación gratuitos y de pago están
disponibles en línea o en forma de CD.

Características

Tutoriales de Microsoft Project incluyen módulos de formación, tales como la


navegación en Microsoft Project 2000, la creación de tareas, creación de recursos,

71
la asignación de recursos a las tareas, las tareas de ajuste, el seguimiento del
progreso y la producción de informes de estado. Los gerentes también aprender
cómo personalizar Microsoft Project para adaptarse a sus necesidades.

Beneficios

Microsoft Project es un software de productividad para los administradores de


proyectos. El entrenamiento aumenta el rendimiento de las inversiones y la
usabilidad del producto y, en última instancia ayuda a los gerentes de proyectos
entregar proyectos a tiempo y dentro del presupuesto.

72
1.1 Creación y organización de la programación temporal de tareas

Triángulo del Proyecto En Microsoft Project 2000 los tres factores que conforman
cada proyecto son:

 Tiempo: el tiempo para completar el proyecto, que se refleja en la


programación del mismo.
 Dinero: el presupuesto del proyecto, que se basa en el costo de los
recursos; personas, equipamiento y materiales necesarios para realizar las
tareas.
 Ámbito: los objetivos y las tareas del proyecto, así como el trabajo
necesario para realizarlos.

Este trío de tiempo, dinero y ámbito forman el triángulo del proyecto. Al


ajustar uno de estos elementos se ven afectados los otros dos. Aunque los tres
elementos son importantes, normalmente uno de ellos tendrá más influencia en el
proyecto. La relación entre estos elementos difiere de un proyecto a otro, y
determina la clase de problemas que encontrará y las soluciones que puede
implementar. Si sabe dónde encontrará delimitaciones y dónde podrá ser flexible,
le será más fácil planear y administrar el proyecto.

Base de Datos de Microsoft Project Microsoft Project almacena los detalles


acerca del proyecto en su base de datos. Utiliza esa información para calcular y
controlar la programación, los costos y otros elementos del proyecto, mediante la
creación de un plan. Cuanta más información se proporcione, más preciso será el
plan. Como si se tratara de una hoja de cálculo, Microsoft Project muestra los
resultados de los cálculos inmediatamente. Pero el plan del proyecto no se crea

73
mientras no se introduce la información esencial acerca de todas las tareas. Sólo
entonces se verá cuándo finalizará el proyecto o las fechas en las que están
programadas las tareas.

Microsoft Project coloca la información que se introduce y la que calcula en


campos que contienen tipos de información específicos, como nombres o
duraciones de tareas. En Microsoft Project, generalmente cada campo aparece en
una columna. Ver los datos necesarios La base de datos del proyecto contiene
gran cantidad de información, pero en un momento dado sólo necesita una parte
de la misma. Para tener acceso a la información, se utilizan las herramientas
siguientes: Vistas, que presentan un subconjunto de información del proyecto en
un formato fácil de interpretar.

Por ejemplo, el Diagrama de Gantt muestra información básica de tareas en


columnas y un gráfico de barras.

Tablas, que definen las columnas mostradas.

Filtros, que permiten centrarse en tareas o recursos específicos. Cada vista


presenta una clase de información diferente. Las tablas y los filtros ajustan la
información. El cambio de vistas, tablas o filtros puede ocultar información, pero no
la elimina. Seguirá estando en la base de datos y seguirá actualizándose. Vistas
Son las combinación de una o más vistas (Diagrama de Gantt, Hoja de recursos,
etc.) y, si procede, una tabla y un filtro.

Las vistas permiten especificar, organizar y examinar la información en diversos


formatos. Existen tres tipos de vistas:

74
Los diagramas o los gráficos representan la información gráficamente.

Las vistas Diagrama de Gantt, Diagrama de red, Gráfico de recursos y Calendario


son diagramas o gráficos.

1. Las hojas representan la información en filas y columnas. Cada fila contiene


información acerca de tareas o recursos específicos. Cada columna contiene un
campo en el que se especifica información concreta sobre las tareas o los
recursos. En Microsoft Project, las columnas se denominan normalmente campos.

2. Los formularios representan la información en un formato similar al de un


formulario de papel. Los formularios muestran la información de una tarea o de un
recurso individual.

3. Tablas Son el conjunto de columnas que muestra información específica de


tareas, recursos y asignaciones en una vista de hoja. Filtros Especifican la
información de una tarea o de un recurso que se debe mostrar o resaltar en una
vista. Por ejemplo, cuando se aplica el filtro Tareas críticas, sólo se muestran las
tareas críticas.

Cómo programa Microsoft Project Microsoft Project programa el comienzo y el fin


de una tarea teniendo en cuenta muchos factores, incluidas las dependencias
entre tareas, las delimitaciones y las interrupciones, como días festivos y
vacaciones.

75
Lo que es más importante, Microsoft Project programa cada tarea utilizando la
fórmula duración = trabajo / esfuerzo de recurso, donde: Duración es la cantidad
de tiempo que transcurre antes de que la tarea esté realizada.

Trabajo es el esfuerzo necesario durante un período de tiempo para realizar una


tarea.

Esfuerzo de recurso es la cantidad de esfuerzo de los recursos asignados a la


tarea y su asignación.

Por ejemplo: Si tres pintores trabajan dos días en una tarea, con un
esfuerzo de 8 horas diarias, el trabajo de cada recurso es 16 horas (2 días * 8
horas).

El esfuerzo total de los recursos es 24 horas al día (3 pintores * 8 horas).

El trabajo total en la tarea es 48 horas (2 días * 8 horas * 3 pintores).

La duración es 2 días: 48 horas / (3 pintores * 8 horas). La comprensión de esta


fórmula es importante para saber en qué forma los cambios que realiza en las
tareas afectan a la programación del proyecto.

Seguimiento y Cierre Una vez creada la lista de tareas y proporcionada la


información de programación, se genera el plan. Se podrá ver un modelo completo
del proyecto, con su fecha de finalización y las fechas de comienzo y fin de cada
tarea.

76
Los siguientes pasos son:

Revisar el camino crítico para detectar posibles problemas. Un camino crítico es


una serie de tareas vinculadas que deben realizarse a tiempo para que el proyecto
finalice en la fecha programada. Si se retrasa cualquier tarea de un camino crítico,
puede retrasarse la fecha de finalización del proyecto.

Evaluar y optimizar el plan. Antes de iniciar el proyecto y de forma periódica


durante su ejecución, se deberá evaluar y ajustar el plan del proyecto
considerando el ámbito, los recursos y la programación.

Actualizar Microsoft Project en cuanto al progreso de las tareas. A cambio,


mostrará el plan del proyecto actualizado. Se puede actualizar el plan
personalmente, o puede hacerlo el equipo con Microsoft Project Central o
mediante correo electrónico. Una vez que el plan ha sido actualizado, se revisa
para comprobar el efecto de los cambios. ¿Está el proyecto por encima del
presupuesto? ¿Está programado que algún miembro del equipo trabaje horas
extra? ¿Va a finalizar tarde el proyecto?

Cierre del proyecto. Evaluar las lecciones que se han aprendido y las mejores
prácticas.

77
1.2 El proceso de planificación de proyectos

La Administración de Proyectos es el proceso de planear, organizar y administrar


tareas y recursos para alcanzar un objetivo concreto, generalmente con
delimitaciones de tiempo, recursos o costo.

Un plan de proyecto puede ser sencillo, por ejemplo, una lista de tareas y sus
fechas de comienzo y fin escritas en un bloc de notas. O puede ser complejo, por
ejemplo, miles de tareas y recursos, y un presupuesto del proyecto de millones de
bolívares.

La mayoría de los proyectos comparten actividades comunes, como la


división del proyecto en tareas de fácil manejo, la programación de las tareas, la
comunicación entre los miembros del equipo y el seguimiento de las tareas a
medida que progresa el trabajo. Además, todos los proyectos constan de tres
fases principales:

1. Crear el plan

2. Administrar y realizar un seguimiento del proyecto

3. Cerrar el proyecto

Microsoft Project 2000 Microsoft Project es un programa o software para la


gestión de proyectos. Esta aplicación permite organizar la información acerca de la
asignación de tiempos a las tareas, los costos asociados y los recursos, tanto de
trabajo como materiales, del proyecto para que se puedan respetar los plazos sin

78
exceder el presupuesto y conseguir así los objetivos planteados. Microsoft Project
es una herramienta de administración de proyectos eficaz y flexible que puede
utilizar para controlar proyectos simples o complejos. Le ayudará a programar y
realizar un seguimiento de todas las actividades para supervisar su progreso.

La última versión de la serie de Microsoft Project es Microsoft Project 10 . Aunque


Microsoft ya no produce la versión anterior de 2000, el programa sigue siendo útil
para la gestión exitosa del proyecto. El programa permite a los usuarios organizar
un proyecto mediante la introducción de las tareas que forman parte de un objetivo
específico.

Instrucciones

1.-Abra Microsoft Project 2000.

2.-Crear un proyecto nuevo. Haga clic en " Archivo" en la barra de menú y


seleccione "Nuevo".

3.-Acceso a una plantilla , seleccione "Archivo " de la barra de menús , haga clic
en " Nuevo". Vaya a la pestaña Plantillas y navegar por la selección. Para
seleccionar una plantilla , haga doble clic en el archivo o bien , haga clic en el
archivo una vez después haga clic en " Aceptar".

4.-entrada de una tarea en una celda de la columna Nombre de tarea y pulse la


tecla "Enter" para agregar la tarea a su proyecto.

79
5.-Asignar duraciones a cada una de sus tareas. Introduciendo para ello una
longitud deseada de la columna Duración. La columna Duration se encuentra
junto a la columna Nombre de tarea en el área de trabajo. Cada célula tarea tiene
una célula duración correspondiente.

6.- Organiza tus tareas. . Una vez que haya introducido todas las tareas y asigna
una duración de ellos, limpiar su área de trabajo mediante la creación de
subtareas. Seleccione las tareas que desea organizar, a continuación, haga clic en
el botón " Anular sangría " o " sangría " en la barra de herramientas estándar. Esto
le permitirá agrupar las tareas por objetivo principal.

7.- Datos de recursos de entrada.

Desde la barra de herramientas, seleccione el botón " Recursos de Información”.


Aparecerá una nueva ventana. Editar la categoría de " a" y "disponible " campos
consecuencia.

8.- Asignar un recurso a una tarea específica. Volver a la Tabla de Gantt ( su área
de trabajo principal donde se introducen las tareas) . Seleccione la tarea que
desea asignar un recurso a continuación, haga clic en el botón "Asignar recursos"
en la barra de herramientas estándar. El icono se encuentra al lado de la del
campo Agrupar por. Aparecerá una ventana con una lista de sus recursos.
Seleccione la (s) que desea, y luego haga clic en " Asignar”.

9.-Administración del calendario del proyecto. Seleccione "Herramientas" en la


barra de menú, a continuación, " Cambiar calendario laboral. " Se abrirá la ventana

80
del calendario. Editar las fechas que desee cambiar con el " De:" y " Para: "
campos.

81
Anexos

Instalación del programa SPSS

Paso 1

Nos dirigimos al siguiente enlace para descargar el programa:


https://www.filehorse.com/es/descargar-ibm-spss-statistics/descargar/

82
Paso 2

Descargar Archivo:

Paso 3

Ejecutamos la

aplicación que

esta lista para

su instalación

83
Paso 4

Aceptamos licencia de instalación

84
Paso 5

85
Paso 6

Inicia instalación

86
Paso 7

Termina la instalación

87
Paso 8
Seleccionamos la opción de Activar uso temporal

88
89
90
Conclusiones

Con el objetivo de disponer de alternativas a estos contrastes, los estadísticos, a


lo largo del último siglo, han ido diseñando instrumentos de análisis para realizar
pruebas estadísticas que no precisan del cumplimiento de los supuestos de los
contrastes paramétricos. Algunos permiten realizar contrates sobre la tendencia
central de la población en general, sobre índices de posición sin necesidad de que
el nivel de medida de la variable sea de escala; otros permiten realizar contrastes
sobre la forma de la distribución. A todos ellos se les engloba bajo la
denominación de contrastes no paramétricos (pruebas no paramétricas, en la
terminología de SPSS).

Todas las pruebas no paramétricas disponibles en SPSS se encuentran en


la opción Pruebas no paramétricas del menú Analizar y su secuencia es la
siguiente:

 Pruebas para una muestra: Chi-cuadrado, Binomial, Rachas y

Kolmogorv–Smirnov

 Pruebas para dos muestras independientes: U de Mann–Whitney,

Kolmogorov–Smirnov, Reacciones extremas de Moses y Rachas de Wald–

Wolfowitz.

 Pruebas para varias muestras independientes: H de Kruskal–Wallis y


Mediana.
 Pruebas para dos muestras relacionadas: Wilcoxon, Signos y McNemar.
 Pruebas para varias muestras relacionadas: Friedman, W de Kendall y

Q de Cochran.

91
Ésta es la herramienta por excelencia para la gestión de proyectos empresariales.
Una aplicación de software de pago que funciona con Windows, cuyo formato de
archivo es MPP y que se integra con Office 365. Administradores y jefes de
proyecto emplean Microsoft Project para planificar y controlar el desarrollo de un
proyecto, la organización adecuada y eficaz de las tareas, con el fin de evitar
retrasos y mantenerse dentro del presupuesto asignado.

Microsoft Project es una herramienta completa que presenta múltiples


funcionalidades para facilitar la labor del director de proyecto. Por supuesto, entre
ellas, se encuentra el diseño de diagramas de Gantt. A continuación, citamos las
más relevantes:

 Ruta crítica. Permite analizar las tareas y la secuencia en qué deben


realizarse, para reconocer cuáles son esenciales y las relaciones de
dependencia entre ellas. Sirve para estimar la duración total del proyecto,
para determinar el tiempo más corto posible de realización, sin tiempos de
holgura, y para prever recursos adicionales necesarios. Ofrece indicadores
muy válidos para una buena planificación.

 Control de proyecto. Una vez que se dispone de la ruta crítica y la


planificación deseada para el proyecto, esta información se puede guardar
como línea de base. La línea de base es la referencia de la programación
inicial que sirve para compararla con la ejecución final y así controlar en
qué medida y en qué puntos se ha modificado el proyecto.

92
 Diagrama de Gantt. Se crea automáticamente con los datos del proyecto.
Como en cualquier gráfica de esta clase, el eje de abscisas representa el
tiempo, mientras que el eje de ordenadas muestra las actividades. Las
barras horizontales en el diagrama marcan el desarrollo de las tareas en el
tiempo, su duración y su secuencia. Se diferencian por colores las
actividades críticas de las que no lo son, y también aquéllas que incluyen
tareas de menor rango.

 Sobrecarga de recursos. El programa controla la cantidad de recursos


asignados a cada persona y señala si, en algún caso, éstos son excesivos.
De una adecuada distribución de los recursos depende también la correcta
consecución de las tareas en los plazos previstos.

 Cálculo de costos. Calcula los costes de los recursos y la mano de obra,


una vez que han sido distribuidos por tareas. El sistema genera varios tipos
de informes, relacionados con los gastos y con los materiales necesarios.

 Resumen de proyecto. Muestra la información clave del proyecto, como las


fechas de inicio y fin, duración, horas totales de trabajo, costes, estado de
las tareas y recursos necesarios.

93
Referencias

 Amaro Guerra I, Chía González Y. Algunas consideraciones sobre el uso de


la prueba de McNemar en las intervenciones educativas.
MEDISAN.Disponible en: http://scielo.sld.cu/scielo.php?script=
sci_arttext&pid= S1029-3019201300110 0019&lng=esCavada Ch G. El test
de McNemar. Disponible en: http://www.revistasoched.cl/3_2014/8-
Cavada.pdf

 Gómez-Gómez M, Danglot-Banck C, Vega-Franco L. Sinopsis de pruebas


estadísticas no paramétricas. Cuándo usarlas. Rev Mex Pediatr Disponible
en: https://www.medigraphic.com/pdfs/pediat/sp-2003/sp032i.pdf

 Siegel S, Castellan N.(1995). Estadística no paramétrica. 2da Ed. México:


Editorial Trillas.

 Gómez-Biedma S, Vivó M, Soria E. Pruebas de significación en


Bioestadística. Disponible en: http://scielo.isciii.es/scielo.
php?script=sci_arttext&pid=S0034-79732001000400008&lng=es

 Badii A, Guillen LA, Araiza E, Cerna J, Valenzuela J, Landeros J. Métodos


No-Paramétricos de Uso Común. International Journal of Good Conscience.
Disponible en: http://www.spentamexico.org/v7-n1/7(1)132-155.pdf


Pértega Díaz S, Pita Fernández S. Asociación de variables cualitativas: El
test exacto de Fisher y el test de Mcnemar. Disponible
en: https://www.fisterra.com/mbe/investiga/fisher/fisher.asp#Mcnemar

94
 Pascuzzo-Lima A. El Test de McNemar. Caracas-Venezuela:
aldanálisis;2012. Disponible en: http://aldanalisis.blogspot.com/2012/03/el-
test-de-mcnemar.html.

 García Bellido, R.; González Such, J. y Jornet Meliá, J.M. (2010). SPSS:
Pruebas No Paramétricas. InnovaMIDE, Grupo de Innovación Educativa,
Universitat de València.
 Lubin, P. Macià, A. Rubio de Lerma, P. (2005). Psicología matemática I y II.
Madrid: UNED.

 Pardo, A. San Martín, R. (2006). Análisis de datos en psicología II. Madrid:


Pirámide.

 Freund, J.E. y Walpole, R.E. (1990). Estadística matemática con


aplicaciones.Cuarta edición. México: PRENTICE HALL
HISPANOAMERICANA S.A.

 Mendenhall, W. (1990). Estadística para administradores. Segunda edición.

México: Grupo Editorial Iberoamérica.

 Miller, I. y Freund, J.E. (1986). Probabilidad y estadística para ingenieros.


Tercera edición. México: PRENTICE HALL HISPANOAMERICANA S.A.

 Miller, J. C. y Miller, J. N. (1993). Estadística para química analítica.


Segunda edición. Wilmington, Delaware, E.U.A: Addison Wesley
Iberoamericana, S.A.

95
 Pérez, C. (2001). Técnicas estadísticas con SPSS. España: Pearson
Education.
 Pria Barros, M. C. (2001). Métodos no paramétricos. [En línea]. Cuba:
Universidad de La Habana. Disponible en Word Wide Web:
áhttp://www.Vcl.sld.cy/75 cm/facmedic/ webosalud/materiales/mnoparam.
Htmlñ.
 Walpole, R. E. y Myers, R. H. (1992). Probabilidad y estadística. Cuarta
edición. México: Mc GRAW-HILL.

 Wayne, W. D. (1992). Bioestadística. Base para el análisis de las ciencias


de la salud. Cuarta edición. México: Limusa.

96

También podría gustarte