TRABAJO COLABORATIVO No.

2

Presentado por: EDUARDO AGUDELO OROZCO 4514673 JUAN CARLOS VARON QUIROGA MARIO VEGA ARCE. OMAR ANDRES SIERRA CASTRO CODIGO: 7170198

TUTOR: DANYS BRITO GRUPO: 100403_2

CURSO INFERENCIA ESTADISTICA

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA UNAD FACULTDAD DE INGENIERIA Y CIENCIAS BASICAS SEPTIEMBRE DE 2011

INTRODUCCION Este trabajo es elaborado para afianzar los conceptos manejados en el curso de Inferencia Estadística de la UNAD. la elaboración del trabajo es de forma colaborativa. participando activamente en el foro. y desarrollando los ejercicios para resolver de la guía. .

. considerada como alternativa para toma de decisiones.OBJETIVOS • Aplicar los fundamentos teóricos en los que se basa la prueba de hipótesis estadística. • Aprender a solucionar problemas de inferencia estadística. • Explicar los elementos conceptuales esenciales que tiene la inferencia estadística en las pruebas de hipótesis.

. En estas pruebas no se presupone una distribución de probabilidad para los datos. por ello se conocen también como de distribución libre En la mayor parte PRUEBAS PARAMENTRICAS Requieren de variables medidas en la escala de razón o intercalar y de análisis de un parámetro de la población y otros requisitos que dependen de la prueba en específico. pruebas paramétricas y pruebas No paramétricas NIVEL DE SIGNIFICACION Es la máxima probabilidad de error que estamos dispuestos aceptar para dar como válida nuestra hipótesis del investigador POTENCIA DE UNA PRUEBA Es una medida muy descriptiva y concisa de la sensibilidad de una prueba estadística. una disminución en el tamaño de la muestra seleccionada tendría como resultado una disminución en la potencia PRUEBAS NO PARAMENTRICAS Requieren que los datos estén en escala nominal u ordinal. Puede interpretarse como la probabilidad de rechazar de manera correcta una hipótesis nula falsa Probabilidad de una hipótesis Nula no sea rechazada cuando de hecho es falsa y debería rechazársela. mas fácil es demostrar que la diferencia es significativa Cuando más grande sea el tamaño de la muestral mas fácil es detectar diferencias entre las mismas La potencia de una prueba aumenta cuando el tamaño del efecto aumenta Un aumento del tamaño en la muestra escogida tendría como resultado un aumento en la potencia de la prueba . mas fuerte será la evidencia de que un hecho no se debe a una mera coincidencia ( al Azar) Test de significación estadística que cuantifican hasta qué punto la variabilidad de la muestra puede ser responsable de los resultados de un estudio en particular Cuando más grande sea la diferencia entre las dos variables . Establezca la diferencia entre: Nivel de significación y potencia de una prueba. es decir una medida de que tan bien funciona la prueba de hipótesis Depende de que tan diferente en realidad es la media verdadera de la población del valor supuesto La potencia de prueba estadística depende de que tan diferente en realidad es la media verdadera de la verdadera de la población del valor supuesto Depende de la diferencia entre los valores supuestos y real del real de la población Probabilidad de tomar la decisión de rechazar la hipótesis nula cuando esta es verdadera La decisión de toma a menudo utilizando el valor P ( p_valor) Cuando menor sea el valor de significativita. donde se entiende por sensibilidad a la capacidad de una prueba para detectar diferencias.1.

que suele establecerse en el 5%. de acuerdo con el nivel de confianza. Hemos de indicar el máximo error tolerable. Para determinar el volumen de la muestra. a partir de la media. (LA CONFIABILIDAD.7% y del 95%. Por ejemplo. La variancia y la desviación estándar te dan una idea de tu muestra y de su distribución (teniendo en cuenta que sea normal) (en caso de no ser normal estaríamos hablando de Mediana y Espacio intercuartil IQR). de acuerdo con el nivel de confianza. Cuando la varianza es muy grande. un valor que sea mayor a la Media + 3 SD ya empieza a considerase un outlier. EL TAMAÑO DE UNA MUESTRA PARA REALIZAR INFERENCIA ESTADÍSTICA DEPENDE DE UNOS FACTORES.5% de la población. QUE LA DETERMINAN. Opcional: Si se rechaza la hipótesis nula H0. está incluido el 95. Si queremos alcanzar una mayor certidumbre hemos de abarcar entre +3 y -3 sigmas. Para tomar la decisión en un contraste de hipótesis se puede comparar el P-Valor con el nivel de significación. Bugeda (1974) recoge tablas que permiten determinar el volumen de la muestra y el nivel de estimación para los niveles de confianza del 99.. Error de estimación. Esto quiere decir que tenemos una probabilidad de que 955/1000 coincidan con los de la población total.Estas pruebas comparan los grupos a través de una medida de tendencia central (parámetro): la media aritmética. pero naturalmente tendremos que elevar el número de elementos de la muestra. Entre +2 y -2 sigmas de la curva de distribución normal de Gauss. Explique cuáles son las condiciones en términos de magnitud de estos factores para rechazar una hipótesis unilateral derecha o unilateral izquierda.7% y del 95%. La varianza es la desviación estándar al cuadrado. Pero si queremos rebajar ese error tendremos que aumentar el volumen de la muestra Para determinar el volumen de la muestra. LA VARIANZA Y EL ERROR DE ESTIMACIÓN). EXPLIQUE LOS CRITERIOS QUE TIENE UN INVESTIGADOR PARA LA DETERMINACIÓN DE ESTOS FACTORES. La varianza es la desviación estándar al cuadrado. de ellas los resultados estadísticos se derivan únicamente a partir de procedimientos de ordenación y recuento. Bugeda (1974) recoge tablas que permiten determinar el volumen de la muestra y el nivel de estimación para los niveles de confianza del 99. Lo puedes usar para detectar outliers (valores fuera de lo normal). existen tablas. se puede hallar un intervalo de confianza para el parámetro de interés. por lo que su base lógica es de fácil comprensión 2. en cuyo caso el riesgo de que exista diferencia entre los estadísticos de la muestra y los parámetros de la población sean distintos será de 997/100. tu muestra raramente tendrá una distribución normal. Es lógico pensar que no haya una coincidencia total entre los datos de la población y los de la muestra. El nivel de confianza que queramos que alcancen nuestros resultados también influye en el tamaño que debamos dar a la muestra.  Tomar la decisión de aceptar la hipótesis nula Ho si el valor experimental cae en la región de aceptación y rechazarla si dicho valor cae en la región crítica o de rechazo.  2. existen tablas. La ..

Ejemplo: se tienen dos cajas. La caja A tiene 40 fichas con el número 1. Es equivalente a la probabilidad de un resultado falso negativo. y de ella se saca una ficha. FICHAS # DE FICHAS EN LA CAJA A 40 50 10 # DE FICHAS EN LA CAJA B 10 50 40 1 10 100 ¿Cuál es la probabilidad de cometer el error tipo I? La probabilidad de cometer el error tipo I es el nivel de significación α: α = P (rechazar Ho/Ho es verdadera) α = P (sacar una ficha de 100 de la caja A) α = 10/100 α = 0. caja A y caja B. tu muestra raramente tendrá una distribución normal. Error de tipo II: también llamado error de tipo beta (aunque beta es la probabilidad de que exista éste error). un valor que sea mayor a la Media + 3 SD ya empieza a considerase un outlier. porque el investigador llega a la conclusión de que existe una diferencia entre las hipótesis cuando en realidad no existe. Error de estimación. Hemos de indicar el máximo error tolerable.. ya que el investigador llega a la conclusión de que ha sido incapaz de encontrar una diferencia que existe en la realidad.10 Cual es la probabilidad de cometer el error tipo II? La probabilidad de cometer el error tipo II es β: β = P (aceptar Ho/H1 es verdadera) β = P (sacar una ficha de 1 o de 10 de la caja B) β = 60/100} β = 0. Cuando la varianza es muy grande. Usted no sabe si es la caja A o la caja B.variancia y la desviación estándar te dan una idea de tu muestra y de su distribución (teniendo en cuenta que sea normal) (en caso de no ser normal estaríamos hablando de Mediana y Espacio intercuartil IQR). Es lógico pensar que no haya una coincidencia total entre los datos de la población y los de la muestra. Pero si queremos rebajar ese error tendremos que aumentar el volumen de la muestra 3. se comete cuando el investigador no rechaza la hipótesis nula siendo ésta falsa en la población. Lo puedes usar para detectar outliers (valores fuera de lo normal). La caja B tiene 40 fichas con el número 100. que es la probabilidad de que ocurra este error. 50 fichas con el número 10 y 10 fichas con el número 1.. Por ejemplo. que suele establecerse en el 5%.60 . Se tiene las hipótesis: ü Ho: la caja es la A ü H1: la caja es la B Se establece la regla de decisión: rechazar la hipótesis nula si la ficha es de 100. 50 fichas con el número 10 y 10 fichas con el número 100. Se elige una caja al azar. QUÉ SIGNIFICAN EL ERROR TIPO I Y EL ERROR TIPO II. Es equivalente a encontrar un resultado falso positivo. es el error que se comete cuando el investigador rechaza la hipótesis nula (Ho) siendo ésta verdadera en la población. EXPLIQUE SU INTERPRETACIÓN CON UN EJEMPLO Error de tipo I: también llamado error de tipo alfa.

son fáciles de usar y entender. En el campo no paramétrico se evita este problema al permitir una forma funcional flexible. Consideraciones de las pruebas paramétricas sobre las pruebas no paramétricas: A veces. QUE DEBEN CUMPLIRSE PARA VALIDAR UN ANÁLISIS DE VARIANZAS. puede resultar apropiado un análisis de regresión lineal) SSTotal = SSError + SSFactores El número de grados de libertad (gl) puede separarse de forma similar y se corresponde con la forma en que la distribución chi-cuadrado describe la suma de cuadrados asociada. Homocedasticidad: homogeneidad de las varianzas. No son tan eficientes como las paramétricas. La distribución de los residuales debe ser normal.4 EXPLIQUE CUÁLES SON LOS SUPUESTOS DE HOMOGENEIDAD. Eliminan la necesidad de suposiciones restrictivas de las pruebas paramétricas. La técnica fundamental consiste en la separación de la suma de cuadrados (SS. LOS MÉTODOS NO PARAMÉTRICOS TIENEN VENTAJAS SOBRE LOS PARAMÉTRICO. Independencia de las observaciones. HOMOCEDASTICIDAD. y no un conjunto pequeño de modelos rígidos como lo hacen los paramétricos. INDEPENDENCIA Y NORMALIDAD. Se pueden usar con muestras pequeñas. Los métodos paramétricos en muchas ocasiones no cumplen con los supuestos acerca de la forma funcional del conjunto de variables aleatorias de las cuales provienen los datos. 'sum of squares') en componentes relativos a los factores contemplados en el modelo. . Se pueden usar con datos cualitativos. glTotal = glError + glFactores 6 ESTABLEZCA LAS CONSIDERACIONES QUE DEBEN HACERSE PARA SELECCIONAR ENTRE UN MODELO PARAMÉTRICO O SU CORRESPONDIENTE NO PARAMÉTRICO. produciendo así modelos no muy confiables que generan sesgos y deterioran la calidad de los pronósticos. desperdician o pierden información. (Si los niveles son cuantitativos y los efectos son lineales. mostramos el modelo para un ANOVA simplificado con un tipo de factores en diferentes niveles. Consideraciones de las pruebas no paramétricas sobre las pruebas paramétricas: Por lo general. El ANOVA parte de algunos supuestos que han de cumplirse: • • • • La variable dependiente debe medirse al menos a nivel de intervalo. Como ejemplo. ignoran.

Imparcialidad. tiende a tomar valores que están por encima del parámetro de la población y la misma extensión con la que tiende a asumir valores por debajo del parámetro de población que se está estimando. a las cuales llamaremos: Hipótesis nula H0 Corresponde a la ausencia de una modificación en la variable investigada. escogeríamos la estadística que tuviera el menor error estándar o la menor desviación estándar de la distribución de muestreo. porque la media de distribución de muestreo de las medias de muestras tomadas de la misma población es igual a la media de la población misma. 7. en dos hipótesis estadísticas. Es importante observar. relacionada principalmente con la elección de una acción entre dos conjuntos posibles de valores del parámetro. Las características que hacen de un estimador un buen método 1. Se refiere al hecho de que una media de muestra es un estimador no sesgado de una media de población. en promedio. Por lo general. es decir. UNA DE LAS OPCIONES QUE TIENE LA ESTADÍSTICA PARA REALIZAR INFERENCIA SOBRE LOS PARÁMETROS DE UNA POBLACIÓN ES LA PRUEBA DE HIPÓTESIS. La prueba de hipótesis es un procedimiento de toma de decisiones. Tiene sentido pensar que un estimador con un error estándar menor (con . Podemos decir que una estadística es un estimador imparcial (o no sesgado) si. las pruebas paramétricas son más poderosas que las pruebas no paramétricas y deben usarse siempre que sea posible. Eficiencia. y por lo tanto se especifica de una forma exacta: H0 : θ = θ 0 Hipótesis alternativa H1 Se especifica de manera más general H1: θ ≠ θ H1: θ > θ 0 0 H1: θ < θ 0. muchas veces se apoyan en distribuciones muéstrales como la normal o la ji cuadrada. EXPLIQUE LAS VENTAJAS Y DESVENTAJAS CON RESPECTO AL OTRO MÉTODO DE ESTIMACIÓN. Se refiere al tamaño del error estándar de la estadística. 2.Llevan a una mayor probabilidad de no rechazar una hipótesis nula falsa (incurriendo en un error de tipo II). que aunque las pruebas no paramétricas no hacen suposiciones sobre la distribución de la población que se muestrea. Si comparamos dos estadísticas de una muestra del mismo tamaño y tratamos de decidir cuál de ellas es un estimador más eficiente.

Es decir. También puede aplicarse para tamaños de muestra pequeños. tenemos verdadera confianza en la decisión. Suficiencia. Se asume que cuanto menor sea el valor de chi-cuadrado calculado más se aproximan entre si los comportamientos de las dos muestras (cuando son dos). Cada conjunto de datos debe ser independiente del resto. 9. Para utilizar el ANOVA de forma satisfactoria deben cumplirse tres tipos de hipótesis. cuando se rechaza la hipótesis nula. . Si un estimador es coherente. EXPLIQUE LAS CONDICIONES QUE SE DEBEN IMPONER A LAS DOS VARIABLES Y LOS SUPUESTOS QUE DEBEN CUMPLIRSE PARA QUE TENGA VALIDEZ EL USO DE ESTA TÉCNICA. La prueba Chi-cuadrado es otro tipo de prueba que se utiliza para contrastar hipótesis. LOS DOS MÉTODOS NO PARAMÉTRICO PARA REALIZAR UNA BONDAD DE AJUSTE DE LOS DATOS DE UNA VARIABLE CON RESPECTO A UNA DISTRIBUCIÓN DE PROBABILIDAD SON: EL DE CHI-CUADRADO Y EL DE KOLMOGOROV SMIRNOV. Coherencia. lo que no sucede con la chi cuadrado. Un estimador es suficiente si utiliza una cantidad de la información contenida en la muestra que ningún otro estimador podría extraer información adicional de la muestra sobre el parámetro de la población. a prueba Kolmogorov . se tiene casi la certeza de que el valor de la estadística se aproxima bastante al valor del parámetro de la población. Sin embargo. si la prueba se usa cuando la distribución de la población no es continua.Smirnov debe usarse cuando la variable de análisis es continua. 4. o mejor se aproxima el comportamiento de una sola muestra al valor hipotético de la media asumido para la población. se vuelve más confiable si tenemos tamaños de muestras más grandes. Una estadística es un estimador coherente de un parámetro de población si al aumentar el tamaño de la muestra. usada en aquellos casos en que se asume que la distribución de datos no se ajusta a la distribución normal.menos desviación) tendrá una mayor oportunidad de producir una estimación más cercana al parámetro de población que se está considerando. EL ANÁLISIS DE VARIANZA ES UNA TÉCNICA ESTADÍSTICA UTILIZADA PARA MEDIR EL EFECTO QUE TIENE CADA UNO DE LOS NIVELES EN QUE SE CLASIFICA UNA VARIABLE SOBRE OTRA VARIABLE QUE REPRESENTA LAS REPUESTAS A LAS MEDICIONES REALIZADAS UNA EXPERIMENTACIÓN. y por lo tanto no es significativo usar t de Student. aunque se aceptan ligeras desviaciones de las condiciones ideales: 1. 3. EXPLIQUE EN QUÉ CONDICIONES DEBE USARSE CADA UNO DE ELLOS. el error que ocurre en la probabilidad resultante está en la dirección segura. 8.

el efecto Hospital en la evaluación de un tratamiento puede incluir tres hospitales seleccionados al azar entre los hospitales de una determinada comunidad. a partir de poblaciones normalmente distribuidas. en cada comparación la hipótesis nula es que las dos muestras provienen de la misma población. Los resultados obtenidos para cada conjunto deben seguir una distribución normal. La varianza de los subgrupos debe ser homogénea. sin embargo. usando en su lugar de. CONCLUSIONES . EXPLIQUE EL SIGNIFICADO CADA UNO DE ELLOS EN UN ANÁLISIS DE VARIANZA. Las personas de los diversos subgrupos deben seleccionarse mediante el muestreo aleatorio. los niveles de cada efecto son resultado de una selección al azar. realizan distintas hipótesis sobre el comportamiento de los residuos. En cada contraste se rechaza la H0 si la t supera el nivel crítico. la probabilidad de que alguno lo supere es 1 . generen estimaciones de varianza independientes. en la  ipótesis nula. Las varianzas de cada conjunto de datos no deben diferir de forma significativa.2. cuando se hayan realizado todas las comparaciones. b. y que por lo tanto. c. Por ejemplo. hay una probabilidad. por lo tanto. la probabilidad de que. Los niveles de estos efectos (fijos) incluyen la totalidad de las posibilidades y se definen por el experimentador (que es quien decide. por lo tanto. aunque resulta un método muy conservador. Las muestras que constituyen los grupos deben ser independientes. Este modelo es el que implica menos suposiciones sobre el comportamiento de los residuos. la probabilidad de encontrar alguno significativo por azar aumentaría. la estimación de la varianza necesaria para el contraste es distinta. ningún estadístico h supere el valor) crítico es (1 . 3. para lo que. la hipótesis nula es que todas las muestras provienen de la misma población y. Cuando se utiliza la técnica anova se deben cumplir los siguientes supuestos: a. consiste en bajar el valor /m. En los modelos de efectos aleatorios. Los modelos de regresión de datos anidados. A menos de que las muestras sean independientes.m) . En segundo lugar. El análisis de la varianza es un método para comparar dos o más medias.(1 m. Si se realizan m contrastes independientes. qué tratamientos se comparan. EXISTEN DOS TIPOS DE MODELO DE ANÁLISIS DE VARIANZA: DE EFECTOS FIJOS Y DE EFECTOS ALEATORIOS. pues se ha hecho en base a muestras distintas. denominadapróximos a 0 es aproximadamente igual a de método de Bonferroni. 10. para cada comparación.. en la hipótesis nula. que es necesario porque cuando se quiere comparar más de dos medias es incorrecto utilizar repetidamente el contraste basado en la t de Student por dos motivos:  n primer lugar. que para valores m. y como se realizarían simultánea e independientemente varios contrastes de E hipótesis. el más elemental y el más consistente es el de Efectos Fijos. la razón de las varianzas inter e intra no adoptará la distribución F. Una primera solución.

Este trabajo es la aplicación de los conceptos obtenidos y se formo un aprendizaje sobre cómo resolver problemas de inferencia estadística. BIBLIOGRAFIA . al obtener los conceptos básicos.Gracias a la lectura del Modulo de inferencia estadística. logramos el desarrollo de la actividad No 2. en el cual con la integración de los compañeros logramos entregar terminado este trabajo. en el foro participativo.

Danis Brito Rosado . Jorge Eliecer Rondon Duran.Modulo Inferencia Estadística.

Sign up to vote on this title
UsefulNot useful