Está en la página 1de 10

UNIVERSIDAD DE SAN CARLOS DE GUATEMALA

FACULTAD DE CIENCIAS ECONOMICAS

ESCUELA DE ESTUDIOS DE POSTGRADO

CATEDRÁTICO TITULAR: MSC. ING. JAIME ISRAEL PAZ LÓPEZ

ENSAYO # 2

MÉTODOS NO PARAMÉTRICOS

PÉREZ CHACÓN, CARLOS ALBERTO

Carne: 201011089

Móvil: 3090-6972

Correo: cap.cpa@hotmail.com

GUATEMALA, 18 DE NOVIEMBRE DE 2018


ÍNDICE

INTRODUCCIÓN .................................................................................................... 3

MÉTODOS NO PARAMÉTRICOS .......................................................................... 4

PRUEBA Χ² DE PEARSON..................................................................................... 4

PRUEBA DE LOS SIGNOS..................................................................................... 5

PRUEBA DE SUMA DE RANGOS DE WILCOXON ............................................... 6

PRUEBA DE KRUSKAL-WALLIS............................................................................ 7

CONCLUSIONES.................................................................................................... 9

BIBLIOGRAFIA ..................................................................................................... 10
INTRODUCCIÓN

En este ensayo se hará referencia a un tipo de procedimientos no paramétrico, es


decir, pruebas que pueden sustituir las pruebas t y el análisis de la varianza de un
factor cuando no se cumplen los supuestos de normalidad. Los métodos
paramétricos más útiles son las pruebas de rangos que se basan en el rango
(posición) de cada observación una vez se han ordenado todos los datos. Estos
métodos también son llamados métodos de distribución libre, pues no dependen del
conocimiento de cómo se distribuye una población, por lo tanto, se dice que estos
son convenientes si no se conoce la distribución de la población, y a diferencia de
los métodos paramétricos, estos pueden ser usados para analizar datos tanto de
tipo cualitativo, ya sean ordinales o nominales, como datos de tipo cuantitativos.

Los métodos que estudiaremos son: Chi cuadrada, Prueba de los signos, Prueba
de Wilcoxon, Prueba de Kruskal-Wallis.
MÉTODOS NO PARAMÉTRICOS

La estadística no paramétrica es una rama de la estadística inferencial que estudia


las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los
llamados criterios paramétricos. Su distribución no puede ser definida a priori, pues
son los datos observados los que la determinan. La utilización de estos métodos se
hace recomendable cuando no se puede asumir que los datos se ajusten a una
distribución conocida, cuando el nivel de medida empleado no sea, como mínimo,
de intervalo.

PRUEBA Χ² DE PEARSON

La prueba Χ² de Pearson se considera una prueba no paramétrica que mide la


discrepancia entre una distribución observada y otra teórica (bondad de ajuste),
indicando en qué medida las diferencias existentes entre ambas, de haberlas, se
deben al azar en el contraste de hipótesis. También se utiliza para probar la
independencia de dos variables entre sí, mediante la presentación de los datos en
tablas de contingencia.

La fórmula que da el estadístico es la siguiente:

Cuanto mayor sea el valor de Χ² menos verosímil es que la hipótesis nula (que
asume la igualdad entre ambas distribuciones) sea correcta. De la misma forma,
cuanto más se aproxima a cero el valor de chi-cuadrado, más ajustadas están
ambas distribuciones.

Los grados de libertad gl vienen dados por:

gl = (r-1) (k-1)

Donde r es el número de filas y k el de columnas.


Criterio de decisión:

No se rechaza H0 cuando En caso contrario sí se rechaza.


Donde t representa el valor proporcionado por las tablas, según el nivel de
significación estadística elegido.

PRUEBA DE LOS SIGNOS

La prueba de los signos permite contrastar la hipótesis de que las respuestas a dos
''tratamientos'' pertenecen a poblaciones idénticas. Para la utilización de esta
prueba se requiere únicamente que las poblaciones subyacentes sean continuas y
que las respuestas de cada par asociado estén medidas por lo menos en una escala
ordinal.

La hipótesis nula puede expresarse como:

Siendo Xi la respuesta del elemento i-ésimo al primer ''tratamiento'' e Yi la respuesta


del elemento i-ésimo al segundo ''tratamiento''.

La hipótesis alternativa puede ser direccional, cuando postula que X es


estocásticamente mayor (o menor) que Y, o no direccional, cuando no predice la
dirección de la diferencia.

Para realizar el contraste se hallan los signos (+ o -) de las diferencias no nulas


entre las respuestas de los dos componentes de cada par y se cuenta cuántas son
positivas, S+, y cuántas negativas, S-. Si H0 es cierta, es de esperar que
aproximadamente la mitad de las diferencias sean positivas y la otra mitad
negativas.

El estadístico de prueba es S= mín [S+, S-].


Si H0 es cierta, S tiene distribución binomial de parámetros n= nº de diferencias

nulas y = 0'5. Si n es grande, la distribución de S puede aproximarse mediante


una normal de parámetros y la decisión
dependerá del valor tipificado de S. Para mejorar la aproximación se realiza una
corrección de continuidad, de forma que el estadístico de prueba es:

Z se distribuye según una normal tipificada.

Cuando el número de diferencias no nulas es pequeño la aproximación de la


distribución de S mediante la normal no es buena y en este caso el SPSS realiza
directamente la prueba binomial, dando el nivel de significación a partir del cual se
rechaza H0 en un contraste de dos colas. Si el contraste se realiza a una cola dicho
nivel de significación se reduce a la mitad.

PRUEBA DE SUMA DE RANGOS DE WILCOXON

Cuando se trata de variables medibles en por lo menos una escala ordinal y pueden
suponerse poblaciones continuas la prueba no paramétrica más potente es la de
Wilcoxon.

La hipótesis nula del contraste postula que las muestras proceden de poblaciones
con la misma distribución de probabilidad; la hipótesis alternativa establece que hay
diferencias respecto a la tendencia central de las poblaciones y puede ser
direccional o no.

El contraste se basa en el comportamiento de las diferencias entre las puntuaciones


de los elementos de cada par asociado, teniendo en cuenta no sólo el signo, sino
también la magnitud de la diferencia.
Sea la diferencia entre las puntuaciones de la pareja i-ésima; si alguna
de estas diferencias es nula la pareja correspondiente se elimina del análisis, de
forma que el tamaño de la muestra es n, el número de diferencias no nulas. A
continuación, se asignan rangos desde 1 hasta n atendiendo únicamente al valor
absoluto de las di y se suman los rangos correspondientes a las diferencias positivas
y a las diferencias negativas por separado. Si la hipótesis nula es cierta, X e Y tienen
el mismo valor central y es de esperar que los rangos se distribuyan aleatoriamente
entre las diferencias positivas y negativas y, por tanto, que ambas sumas de rangos
sean aproximadamente iguales. El estadístico de prueba, T, es la menor de las dos
sumas de rangos. Cuando n > 15 la distribución muestral de T bajo el supuesto de
que H0 es cierta se aproxima a una normal de parámetros:

El estadístico de prueba es el valor Z:

que se distribuye según una normal tipificada.

Para el nivel de significación deseado se rechazará la hipótesis nula si Z pertenece


a la región crítica localizada en las dos colas o en una cola de la normal tipificada,
según la naturaleza de la hipótesis alternativa.

PRUEBA DE KRUSKAL-WALLIS

El test de Kruskal-Wallis, también conocido como test H, es la alternativa no


paramétrica al test ANOVA de una vía para datos no pareados. Se trata de una
extensión del test de Mann-Whitney para más de dos grupos. Se trata por lo tanto
de un test que emplea rangos para contrastar la hipótesis de que k muestras han
sido obtenidas de una misma población.

A diferencia del ANOVA en el que se comparan medias, el test de Kruskal-Wallis


contrasta si las diferentes muestras están equidistribuidas y que por lo tanto
pertenecen a una misma distribución (población). Bajo ciertas simplificaciones
puede considerarse que el test de Kruskal-Wallis compara las medianas.

 H0: todas las muestras provienen de la misma población (distribución)


 HA: Al menos una muestra proviene de una población con una distribución
distinta

El test de Kruskal-Wallis es el test adecuado cuando los datos tienen un orden


natural, es decir, cuando para darles sentido tienen que estar ordenados o bien
cuando no se satisfacen las condiciones para poder aplicar un ANOVA. Por ejemplo,
si se quiere estudiar la diferencia entre hombres y mujeres en una carrera, se puede
disponer de dos tipos de datos: los tiempos de cada participante (análisis con
ANOVA) o las posiciones en las que ha terminado la carrera cada participante
(análisis con Kruskal-Wallis test).

Supóngase que se dispone de k grupos cada uno con n observaciones. Si se


ordenan todas las observaciones de menor a mayor y se le asigna a cada una de
ellas su rango, cuando se obtenga la suma de rangos para cada uno de los
grupos (Ri)(Ri) es de esperar que, si se cumple la hipótesis nula, todos los grupos
tengan un valor similar. Partiendo de esta idea se calcula el estadístico H como:
CONCLUSIONES

En estas técnicas, solamente se necesitan conocimientos elementales de


matemáticas, pues los métodos son relativamente más sencillos que en las pruebas
paramétricas. En estas pruebas, también se tienen supuestos, pero son pocos y no
tienen que ver con la naturaleza de la distribución de la población, por lo que a estas
técnicas también se les conoce como de libre distribución.

Una limitación que tienen es que no son aplicables a casos en los que se desean
manejar muchas variables al mismo tiempo, para estos casos, sí se requeriría una
prueba paramétrica; lo que sí se requiere y en general es el supuesto que se debe
cumplir en la mayoría de las pruebas no paramétricas para confiar en ellas, es que
la muestra haya sido seleccionada en forma probabilística.
BIBLIOGRAFIA

Conover, W. J. 1980. Practical Nonparametric statistics. John Wiley & Sons. 493 p.

Daniel, W. W. 1978. Applied Nonparametric statistics. Houghton Mifflin Co. 503p.

Dickinson Gibbons, J. 1985. Nonparametric statistical inference. Marcel Dekker. Inc.


408 p.

Infante Gil S. 1980. Métodos estadísticos no paramétricos. Colegio de


Postgraduados. 189 p.

Infante Gil, S. y Zárate de Lara, G. P. 1986. Métodos estadísticos. Un enfoque


interdisciplinario. Trillas. 643 p.

Sidney Siegel. 1970. Diseño experimental no paramétrico aplicado a las ciencias de


la conducta. Trillas, S.A. 346 p.

10

También podría gustarte