Está en la página 1de 12

RESUMEN

En la presente investigación se realiza un estudio comparativo entre técnicas

estadísticas paramétricas y no paramétricas enfocado principalmente en el

valor plausible de dichas técnicas, determinando el efecto en del mismo en los

supuestos teóricos que poseen y su robustez. Se realizaron 100 simulaciones

para cada caso indicado, de donde obtuvimos los siguientes resultados: En las

pruebas de hipótesis de la media la prueba t resultó ser sensible a la simetría

y la prueba de Wilcoxon, resultó sensible a la simetría y la continuidad. En las

pruebas de hipótesis a la media de dos poblaciones las pruebas t para dos

muestras y de Mann-Withney resultaron ser robustas frente a sus supuestos,

pero Mann-Withney con menor potencia de explicación. En las pruebas de

hipótesis de la varianza de dos poblaciones la prueba F se mostró sensible al

supuesto de normalidad mientras que la prueba de Ansari-Bradley robusta

frente a sus supuestos. En las técnicas de estimación de los parámetros de

regresión cuando el error es normal ,la técnica de Mínimos Cuadrados obtuvo

mejores estimaciones; si el error es simétrico y no es normal la técnica de Theil

provee mejores estimaciones a mayor varianza, aunque sin superar

mayormente a la técnica de Mínimos Cuadrados.


INTRODUCCIÓN

Las técnicas que agrupa la Estadística Inferencial se dividen

principalmente en dos partes: las técnicas paramétricas y las

no paramétricas. Las primeras se basan en suposiciones

específicas acerca de la población de la que se desea hacer

algún tipo de inferencia, mientras que en cambio las técnicas

no paramétricas hacen supuestos muy generales respecto a

la distribución poblacional de la que se desea hacer

inferencias. Son supuestos generales por ejemplo la simetría

o continuidad de la distribución. Tradicionalmente lo que

separa ambas técnicas estadísticas es el supuesto de que la

población de la que se toman los datos sigue una distribución

normal. En Freund J., Walpole R.(1980) puede apreciarse una

característica de las pruebas paramétricas: puede

demostrarse teóricamente que son las pruebas que producen

la región crítica más potente, ello relega teóricamente a las

pruebas no paramétricas en lo que respecta a potencia de

explicación. Durante mucho tiempo los estadísticos han

preferido las técnicas paramétricas o han optado por diversas

transformaciones a fin de poder aplicarlas, dejando como

recurso final a las pruebas no paramétricas cuando no se ha

podido encontrar evidencia estadística de que la población

sigue una distribución normal. Por otro lado Hollander M.,

Wolfe D. (1973) recalcan la falta de robustez de las pruebas


paramétricas frente al supuesto de normalidad en la mayoría

de los casos. Indican además que los supuestos de donde se

parte para el desarrollo teórico de dichas técnicas son

“fuertes”,

El Caso Paramétrico: la prueba t para una sola muestra


Sean x1,x2,x3,...xn una muestra aleatoria de tamaño n tomada de una
población normal con media  y varianza s
2
desconocida donde n es
pequeño. Sea el contraste de hipótesis:
H0:  = 0
Vs
H1:  ≠ 0
Tenemos que la función de verosimilitud para una población normal es:

Estadística No Paramétrica
Si volvemos al ejemplo de la prueba t veremos que existen supuestos
sobre las distribuciones poblacionales de la media muestral y del valor
de la media poblacional. En el caso de que uno de sus supuestos no se
cumpla, las técnicas paramétricas (si no son robustas) generarán

resultados erróneos y por ende las conclusiones de sus hipótesis serán


inválidas. Las técnicas estadísticas no paramétricas ofrecen menor
rigidez con respecto a sus condiciones que las técnicas paramétricas,
aunque sacrificando para ello su potencia de explicación. Son
procedimientos estadísticos que poseen ciertas propiedades bajo
supuestos generales y sin importar la población de la cual los datos han
sido obtenidos. La mayoría de las veces estos supuestos se refieren, por
ejemplo, a la simetría o continuidad de la distribución poblacional. La
inferencia no paramétrica constituye un campo muy amplio que va desde
las equivalencias no paramétricas de las pruebas paramétricas
existentes hasta llegar a las estimaciones de punto e intervalo de
constantes poblacionales que no pueden ser llevadas a modelos
paramétricos por su complejidad (percentiles, deciles, etc.) El rápido
desarrollo de las técnicas no paramétricas ha sido en parte por las
siguientes razones:
 Las técnicas no paramétricas hacen supuestos muy generales
respecto a la distribución de probabilidad que siguen los datos. En
particular, dejan de lado el supuesto de normalidad en una población.
 Son aplicables cuando la teoría de normalidad no puede ser utilizada,
por ejemplo cuando no se trabaja con magnitudes de observaciones
sino con sus rangos.

El caso no paramétrico: la prueba del signo de Fisher


Sean x1,x2,x3,...xn una muestra aleatoria de tamaño n tomada de una
población simétrica y continua con media . Considere el siguiente
contraste de hipótesis:
H0:  = 0
Vs
H1:  ≠ 0
Sean r el número de cantidades (xi -0) que sean positivas y s el número
de las mismas que sean negativas para i =1,2,..n ; donde r+s  n

quivalencia de pruebas estadísticas


Antes de establecer las técnicas a compararse cabe indicar que significa
la equivalencia entre pruebas estadísticas, ya que compararemos
técnicas paramétricas con su equivalente técnica no paramétrica. Dos
pruebas estadísticas (Pruebas I y II) de la hipótesis nula H0 son
equivalentes, si para cada posible conjunto de observaciones
muestrales, la decisión alcanzada por la Prueba I concuerda con la
alcanzada por la Prueba II. O lo que es lo mismo, la Prueba I es
equivalente a la Prueba II si la Prueba I rechaza H0 si y solo si la Prueba
II rechaza H0, y la Prueba I acepta H0 si y solo si la Prueba II acepta H0
(Hollander M., Wolfe D. (1973)).
Prueba de Hipótesis para la media de una Población
Sean x1,x2,x3,...xn una muestra aleatoria de tamaño n tomada de una
población X que sigue una distribución con media , se establece el
contraste:
H0: µ = µ0
Vs.
H1: µ  µ0

o como hipótesis alternativa H1: µ > µ0 o H1: µ < µ0. Donde la región
crítica está dada por las técnicas que se indicarán a continuación.

Prueba de hipótesis para la media de dos poblaciones


Sean x1, x2,.. xn y y1, y2,.. ym dos muestras aleatorias independientes
tomadas de dos poblaciones X y Y que siguen distribuciones con medias
µ1 y µ2 respectivamente se establece el contraste:

H0: µ1 = µ2
vs.
H1: µ1 ≠ µ2

Pruebas Paramétricas • Se busca estimar los parámetros de una población en base a una
muestra. • Se conoce el modelo de distribución de la población, presenta variables
cuantitativas continuas (medibles). • Mientras más grande sea la muestra más exacta será la
estimación, mientras más pequeña, más distorsionada será la media de las muestras.

Ventajas de las Pruebas Paramétricas • Tienen más poder de eficiencia • Más sensibles a los
rasgos de los datos recolectados • Menos posibilidad de errores • Dan estimaciones
probabilísticas bastante exactas

Desventajas de las Pruebas Paramétricas • Más complicadas de calcular • Limitaciones en los


tipos de datos que se pueden evaluar

Pruebas Paramétricas
TIPO DE PRUEBAS PARAMETRICAS

• Prueba del valor Z de la distribución normal • Prueba T de Student para datos relacionados
(muestras dependientes) • Prueba T de Student para datos no relacionados (muestras
independientes) • Prueba T de Student-Welch para dos muestras independientes con
varianzas no homogéneas • Prueba F (análisis de varianza o ANOVA)

Prueba T de Student-Welch

 Para dos muestras independientes con varianzas no homogéneas  Prueba estadística de


utilidad para contrastar hipótesis en función de la media aritmética  Pero dada la
heterogeneidad de las varianzas no aplica T student por lo cual se da el agregado de Welch. 
El agregado de Welch consiste en una ecuación para calcular los grados de libertad, de manera
que disminuye el error por la no homogeneidad de las varianzas.

Prueba F (análisis de varianza o ANOVA)

 Potente herramienta estadística  Método de análisis estadístico se basa en el estudio de la


variación total entre los datos y la descomposición de esta en diversos factores  Se puede
contestar a la pregunta de si existen diferencias significativas entre las medias de las
poblaciones o si, por el contrario, las diferencias encontradas pueden deberse a las
limitaciones del muestreo  Esta prueba se basa en el estadístico F obtenido de la tabla de
ANOVA para la partición de la variabilidad total en variabilidad “ entre y dentro” de las
muestras.
Prueba ji2 de Pearson

 Esta prueba se la utiliza para el contraste de la hipótesis.  Su eficacia esta determinada por
el tamaño de la muestra.  Mide la discrepancia entre datos observados y teóricos.  Evita
cometer el error tipo I.  Se aplica para una o varias categorías

Prueba de probabilidad exacta de Fischer y Yates

Esta prueba estadística se utiliza frecuentemente como alternativa, cuando no se puede


aplicar la ji cuadrada de Pearson. Es un procedimiento más eficaz en la escala nominal con dos
muestras independientes. La razón de esto se basa en que se calcula directamente la
probabilidad de una serie de arreglos de frecuencias observadas en una tabla de contingencia
de 2 X 2, dada en una distribución hipergeométrica.

Prueba de probabilidad exacta de Fischer y Yates

Pasos: 1. Arreglar las frecuencias observadas en una tabla de contingencia 2 X 2. 2. Obtener los
totales de las hileras (A + B) y (C + D) y de las columnas: (A + C) y (B + D), así como el gran total
(GT). 3. Obtener los valores factoriales de los totales de hileras y columnas y después
multiplicarlos. 4. Calcular los factoriales del gran total y multiplicar éste por todos los
factoriales de cada casilla de la tabla de contingencia. 5. Dividir el primer valor de producto de
factoriales entre el segundo. Este resultado es la probabilidad exacta de Fischer y Yates. 6.
Decidir si se acepta o rechaza la hipótesis, en función de la probabilidad.

Prueba de McNemar para muestras dependientes

 La prueba de McNemar se utiliza para decidir si puede o no aceptarse que determinado


''tratamiento'' induce un cambio en la respuesta dicotómica o dicotomizada de los elementos
sometidos al mismo, y es aplicable a los diseños del tipo ''antes-después'' en los que cada
elemento actúa como su propio control.  Los resultados correspondientes a una muestra de n
elementos se disponen en una tabla de frecuencias 2 x 2 para recoger el conjunto de las
respuestas de los mismos elementos antes y después.

Pasos: 1. Arreglar los datos en función de una tabla de contingencias 2 X 2 2. Aplicación de la


ecuación de McNemar, la cual da a entender la diferencia existente entre las casillas A y D, que
son los cambios realizados en el experimento: restar 1 (corresponde a la corrección de
continuidad), elevarlo al cuadrado y dividirlo entre la sumatoria de A + D. Esto representa el
valor de ji cuadrada de la prueba de McNemar. 3. Calcular los grados de libertad, que como es
obligado para este procedimiento, siempre serán iguales a uno. 4. Comparar el valor
estadístico calculado para valores críticos de ji cuadrada. 5. Decidir si se acepta o rechaza la
hipótesis.

Prueba Q de Cochran para tres o más muestras dependientes

 La prueba Q de Cochran es una técnica estadística, extensión de la prueba de McNemar, que


se utiliza en los modelos experimentales con tres o más muestras dependientes o relacionadas
entre sí, es decir, esta población sirve como su propio control, en el que existe un período
previo y otro ulterior; además, el tipo de escala debe ser nominal.  El valor calculado en la
prueba Q de Chochran se distribuye igual que la ji cuadrada, por lo cual el símbolo utilizado
será X2Q.

Pasos: 1. Arreglar la muestra individualmente con sus respuestas de cambio. 2. Efectuar las
sumatorias de cambios por cada tratamiento o columna (Gn y S Gn). 3. Efectuar la sumatoria
de cambios por cada hilera y elevarla al cuadrado y, a su vez, las sumatorias de éstas (S Lc y S
Lc2). 4. Aplicar la fórmula de la prueba Q de Cochran, de modo que se obtenga el valor X2Q. 5.
Calcular los grados de libertad (gl) con K tratamientos -1. 6. Comparar el estadístico X2Q
obtenido con respecto a los gl en la distribución de ji cuadrada. 7. Decidir si se acepta o
rechaza la hipótesis.

Tipos de Pruebas no paramétricas ORDINAL

Prueba de Kolmogorov-Smirnov para una muestra Prueba de U Mann-Whitney para dos


muestras independientes Prueba de Wilcoxon de rangos señalados y pares igualados para
dos muestras dependientes Análisis de varianza de una entrada de Kruskal-Wallis para más
de dos muestras independientes Análisis de varianza de doble entrada por rangos de
Friedman para más de dos muestras dependientes

También podría gustarte