P. 1
La estadística paramétrica y no paramétrica.

La estadística paramétrica y no paramétrica.

|Views: 24.788|Likes:
Publicado porEleazar Valeriano

More info:

Published by: Eleazar Valeriano on Feb 03, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

10/23/2015

pdf

text

original

La estadística paramétrica

La estadística paramétrica es una rama de la estadística que comprende los procedimientos estadísticos y de decisión están basados en las distribuciones de los datos reales. Estas son determinadas usando un número finito de parámetros. Esto es, por ejemplo, si conocemos que la altura de las personas sigue una distribución normal, pero desconocemos cuál es la media y la desviación de dicha normal. La media y la desviación típica de la desviación normal son los dos parámetros que queremos estimar. Cuando desconocemos totalmente que distribución siguen nuestros datos entonces deberemos aplicar primero un test no paramétrico, que nos ayude a conocer primero la distribución. La mayoría de procedimientos paramétricos requiere conocer la forma de distribución para las mediciones resultantes de la población estudiada. Para la inferencia paramétrica es requerida como mínimo una escala de intervalo, esto quiere decir que nuestros datos deben tener un orden y una numeración del intervalo. Es decir nuestros datos pueden estar categorizados en: menores de 20 años, de 20 a 40 años, de 40 a 60, de 60 a 80, etc, ya que hay números con los cuales realizar cálculos estadísticos. Sin embargo, datos categorizados en: niños, jóvenes, adultos y ancianos no pueden ser interpretados mediante la estadística paramétrica ya que no se puede hallar un parámetro numérico (como por ejemplo la media de edad) cuando los datos no son numéricos.

La estadística no paramétrica
La estadística no paramétrica es una rama de la estadística que estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. Su distribución no puede ser definida a priori, pues son los datos observados los que la determinan. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una distribución conocida, cuando el nivel de medida empleado no sea, como mínimo, de intervalo. Las principales pruebas no paramétricas son las siguientes: y y y y y y y y y Prueba ² de Pearson Prueba binomial Prueba de Anderson-Darling Prueba de Cochran Prueba de Cohen kappa Prueba de Fisher Prueba de Friedman Prueba de Kendall Prueba de Kolmogórov-Smirnov

quedando para el investigador. La violación de las hipótesis necesarias para un test invalidan cualquier resultado posterior y son una de las causas más frecuentes de que un estudio sea estadísticamente incorrecto. simplemente. Hay que decir que. para poder aplicar cada uno existen diversas hipótesis nulas que deben cumplir nuestros datos para que los resultados de aplicar el test sean fiables. Esto ocurre sobre todo cuando el investigador desconoce la naturaleza interna de los test y se limita a aplicarlos sistemáticamente. . Esto es.y y y y y y y y y y Prueba de Kruskal-Wallis Prueba de Kuiper Prueba de Mann-Whitney o prueba de Wilcoxon Prueba de McNemar Prueba de la mediana Prueba de Siegel-Tukey Coeficiente de correlación de Spearman Tablas de contingencia Prueba de Wald-Wolfowitz Prueba de los signos de Wilcoxon La mayoría de estos test estadísticos están programados en los paquetes estadísticos más frecuentes. no se puede aplicar todos los test y quedarse con el que mejor convenga para la investigación sin verificar si se cumplen las hipótesis necesarias. la tarea de decidir por cuál de todos ellos guiarse o qué hacer en caso de que dos test nos den resultados opuestos.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->