P. 1
Contraste de Hipotesis, Estimacion y Docimacia

Contraste de Hipotesis, Estimacion y Docimacia

|Views: 454|Likes:

More info:

Published by: Patty Rodríguez D' Daguar on Feb 18, 2013
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

06/29/2015

pdf

text

original

REPÚBLICA BOLIVARIANA DE VENEZUELA INSTITUTO UNIVERSITARIO POLITÉCNICO “SANTIAGO MARIÑO” EXTENSIÓN MATURÍN

Autores: Sección: “”

Maturín, Febrero 2013

ÍNDICE.

pp. INTRODUCCIÓN. ........................................................................................... 4 CONTRASTE DE HIPÓTESIS........................................................................ 5 Planteamiento clásico del contraste de hipótesis. ....................................... 5 Procedimientos de prueba. ......................................................................... 7 Ejemplo .................................................................................................... 7 Enfoque actual de los contrastes de hipótesis. ........................................... 8 Errores en el contraste ................................................................................ 9 Contraste más potente. ............................................................................. 10 Contraste uniformemente más potente ..................................................... 11 Aplicaciones de los contrastes de hipótesis .............................................. 12 ESTIMACIÓN. .............................................................................................. 13 Estimador. ................................................................................................. 13 Estimador insesgado. ............................................................................ 14 Estimador eficiente. ............................................................................... 14 Estimación puntual. ............................................................................... 14 Estimación por intervalos. ......................................................................... 16 Intervalo de confianza. ........................................................................... 16 Variabilidad del Parámetro..................................................................... 16

.... 17 Valor α......................................... 17 Docimasia............... 21 4-VALOR P........................................................................................................ 17 Límite de Confianza............................................................................ ..................................................................................... ....................................................Error de la estimación............. ............................................ 22 DIFERENCIAS ESTADÍSTICA SIGNIFICATIVA.......... .................................................. 22 DIFERENCIA ESTADÍSTICA NO SIGNIFICATIVA................................... ..................................................................................................................... 20 3-ESTADÍSTICO DE PRUEBA.................................................... 22 5-INTERPRETACIÓN DE LOS RESULTADOS ...................................... 24 ............................................................... .... .... 19 HIPÓTESIS DE NULIDAD (Ho) ............................ .............................. 17 Valor crítico................................ 22 Conclusión..................................................................... 19 2-NIVEL DE SIGNIFICACIÓN .............................................................................. ............................................ 18 1-PLANTEAMIENTO DE HIPÓTESIS....................... 23 Bibliografía............................... 19 HIPÓTESIS ALTERNATIVA (H1) ....... ...

.INTRODUCCIÓN.

etc. Fue iniciada por Ronald Fisher y fundamentada posteriormente por Jerzy Neyman y Karl Pearson. tras aplicar el problema estadístico a un cierto número de experimentos. que mantendremos a no ser que los datos indiquen su falsedad. Los tipos más importantes son los test centrados. se aborda el problema estadístico considerando una hipótesis determinada y una hipótesis alternativa . de hipótesis y alternativa simple. por tanto. o uno verdadero como falso. aleatorizados. que definen respectivamente. lo cual sugiere que debe identificarse con la hipótesis de no cambio (a partir de representa la hipótesis la opinión actual). Está fuertemente asociada a los considerados errores de tipo I y II en estadística. Dentro de los tests no paramétricos. no mejora. en el sentido de “neutra”. y puede entenderse. la posibilidad de tomar un suceso falso como verdadero. un contraste de hipótesis (también denominado test de hipótesis o prueba de significación) es un procedimiento para juzgar si una propiedad que se supone en una población estadística es compatible con lo observado en una muestra de dicha población. la hipótesis con mayor probabilidad de ser correcta. Se denomina hipótesis nula a la hipótesis que se desea contrastar. el más extendido es probablemente el test de la U de Mann-Whitney. etc. El nombre de "nula" significa “sin valor. y hallando por tanto con una determinada potencia. Dentro de la inferencia estadística. La hipótesis nunca se considera probada. Por ejemplo. y se intenta dirimir cuál de las dos es la hipótesis verdadera. aunque puede ser rechazada por los datos. Planteamiento clásico del contraste de hipótesis. . efecto o consecuencia”. Mediante esta teoría. no diferencia.CONTRASTE DE HIPÓTESIS. minimizando los errores de tipo I y II. Existen diversos métodos para desarrollar dicho test.

0002. analizando muestras suficientemente grandes de ambas poblaciones. el conjunto de valores para el que rechazaremos la hipótesis nula si el valor del estadístico observado entra dentro de él. La probabilidad de que se obtenga un valor del estadístico que entre en la región de rechazo aún siendo cierta la hipótesis puede calcularse. .la hipótesis de que dos poblaciones tienen la misma media puede ser rechazada fácilmente cuando ambas difieren mucho. puesto que siempre cabe la posibilidad de que las medias difieran en una cantidad lo suficientemente pequeña para que no pueda ser detectada. se extrae un estadístico (esto es. Siguiendo con el anterior ejemplo de la moneda trucada. Se toma entonces como región de rechazo al conjunto de valores que es más improbable bajo la hipótesis. aunque poco probable. La probabilidad de cometer el error de admitir que la moneda está trucada a pesar de que no lo está es igual a la probabilidad binomial de tener 25 "éxitos" o más en una serie de 30 ensayos de Bernoulli con probabilidad de "éxito" 0. la muestra de la población es el conjunto de los treinta lanzamientos a realizar. se puede escoger dicha región de tal forma que la probabilidad de cometer este error sea suficientemente pequeña. pues existe la posibilidad.5 en cada uno. A partir de una muestra de la población en estudio. que la muestra nos dé más de 25 caras sin haber sido la moneda trucada. De esta manera. el estadístico escogido es el número total de caras obtenidas. pero no puede ser "demostrada" mediante muestreo. aunque la muestra sea muy grande. una valor que es función de la muestra) cuya distribución de probabilidad esté relacionada con la hipótesis en estudio y sea conocida. entonces: 0. esto es. y la región de rechazo está constituida por los números totales de caras iguales o superiores a 25.

una variable aleatoria binomial.10. Una región de rechazo. Un valor de x ligeramente debajo de 20 no así que es razonable rechazar contradice de manera contundente a si x≤15 y no rechazar solo si x es considerablemente menor que 20. 199 o 200. Pero esto puede alcanzarse solo si una decisión se basa en un examen de toda la población.10) = 20.…. E(X) = np = 200(. la hipótesis nula será rechazada si y solo si el valor observado o calculado del estadístico de prueba se ubica en la región de rechazo En el mejor de los casos podrían desarrollarse procedimientos de prueba para los cuales ningún tipo de error es posible. Ejemplo Una prueba de : p = . rechazada si x= 16. Un procedimiento de prueba es rechazar de otra forma.10 contra : p < . 2. Un estadístico de prueba: una función de los datos muestrales en los cuales se basa la decisión de rechazar o no rechazar . 2. la no será región de rechazo esta formada por x = 0. En este caso. podemos esperar menos de 20 objetos defectuosos si es verdadera. podría estar basada en el examen de una muestra aleatoria de n = 200 objetos. para determinar si se rechaza . lo que casi nunca es práctico. …. Representamos con X el número de objetos defectuosos de la muestra. y 15. el conjunto de todos los valores del estadístico de prueba para los cuales será rechazada. si es verdadera. Un procedimiento de prueba es una regla con base en datos muestrales. x representa el valor observado de X. Entonces. 17. Un procedimiento de prueba se especifica por lo siguiente: 1. La dificultad al usar un procedimiento basado en datos . mientras.Procedimientos de prueba. 1.

Un test de hipótesis se entiende. a partir de una muestra de lanzamientos realizados. podemos considerar que ha es falsa”. en el enfoque moderno. este está trucado para obtener 6. Un buen procedimiento es aquel para el cual la probabilidad de cometer cualquier tipo de error es pequeña. a la que se denota habitualmente por . no se consideran relevantes. estamos implícitamente considerando como hipótesis alternativa “ambas poblaciones tienen distinta media”. como una función de la muestra. En los casos en los de manera explícita. Supongamos por ejemplo que sospechamos que en un juego de azar con un dado. se enfrenta a otra hipótesis que denominaremos hipótesis alternativa y que se denota que no se especifica . corrientemente basada en un estadístico. Nuestra hipótesis nula podría ser “el dado no está trucado” que intentaremos contrastar. la hipótesis nula. Podemos. a los efectos del estudio que se pretende realizar. De manera explícita o implícita. Cabría realizar otras hipótesis. respectivamente.muestrales es que debido a la variabilidad en el muestreo puede resultar una muestra no representativa. Enfoque actual de los contrastes de hipótesis. contra la hipótesis alternativa “el dado ha sido trucado a favor del 6”. pero. El enfoque actual considera siempre una hipótesis alternativa a la hipótesis nula. de una Supongamos que se tiene una muestra población en estudio y que se han formulado hipótesis sobre un parámetro . sin embargo considerar casos en los que negación de no es la simple . La elección de un valor particular de corte de la región de rechazo fija las probabilidades de errores tipo I y II. Estas probabilidades de error son representadas por α y β. quedado definida implícitamente como “ Si por ejemplo deseamos comprobar la hipótesis de que dos distribuciones tienen la misma media.

Se pueden dar los cuatro casos que se exponen en el siguiente cuadro: es cierta Se escogió Se escogió No hay error es cierta Error de tipo II Error de tipo I No hay error . y la decisión escogida coincidirá o no con la que en realidad es cierta. . se habrá optado por una de las dos hipótesis. para construir el test deseado. se conoce. o . A (o que no hay evidencia estadística contra se la denomina región de rechazo. de tal manera que la probabilidad de que T(X) caiga en su . también. En esencia. Supongamos. que las hipótesis nula y alternativa tienen la formulación siguiente: Un contraste. interior sea baja cuando se da Errores en el contraste Una vez realizado el contraste de hipótesis. basta con escoger el estadístico del contraste Se escoge y la región de rechazo . Supongamos que se dispone de un estadístico cuya distribución con respecto a .relacionado con la distribución estadística de la población. que debemos aceptar ). prueba o test para dichas hipótesis sería una función de la muestra de la siguiente forma: Donde (aceptar ) y significa que debemos rechazar la hipótesis nula.

esto es. esto es: En este caso. se diseñan los contrastes de tal manera que la probabilidad α sea el 5% (0. Usualmente. sería deseable hacerlo de tal manera que las probabilidades de ambos tipos de error fueran tan pequeñas como fuera posible. a la probabilidad de escoger cuando ésta es cierta . con una muestra de tamaño prefijado. El concepto de potencia nos permite valorar cual entre dos contrastes con la misma probabilidad de error de tipo I. esto es. del tipo: . α. probabilidad de error de tipo II. se denota por β la probabilidad de cometer el error de tipo II.Si la probabilidad de cometer un error de tipo I está unívocamente determinada. se denomina Potencia del contraste al valor 1-β. disminuir la probabilidad del error de tipo I. Cuando es necesario diseñar un contraste de hipótesis. El recurso para aumentar la potencia del contraste. es aumentar el tamaño muestral. aunque a veces se usan el 10% (0. β.05). conduce a incrementar la probabilidad del error de tipo II. es preferible.01) para adoptar condiciones más relajadas o más estrictas. y en las mismas condiciones.1) o 1% (0. disminuir β. Sin embargo. θ. su valor se suele denotar por la letra griega α. Contraste más potente. α. Si se trata de contrastar dos hipótesis sencillas sobre un parámetro desconocido. lo que en la práctica conlleva un incremento de los costes del estudio que se quiere realizar.

la probabilidad de discriminar que la hipótesis alternativa es cierta para cada valor posible de θ dentro de los valores posibles de esta misma hipótesis. sino que tomarán diferentes valores según los distintos valores posibles de θ. En estas circunstancias. esto es. se puede considerar β como una función de θ. sino que sean del tipo: donde y son conjuntos de varios posibles valores. menor probabilidad β de incurrir en el error de tipo II. puesto que para cada posible valor de θ en la hipótesis alternativa se tendría una probabilidad distinta de cometer un error de tipo II. . las probabilidades α y β ya no están unívocamente determinadas. si la máxima probabilidad de cometer un error de tipo I cuando la hipótesis nula es cierta es α. Contraste uniformemente más potente En el caso de que las hipótesis sean compuestas. En este caso se dice que un contraste tiene tamaño α si esto es. que no se limiten a especificar un único posible valor del parámetro. En este caso el Lema de Neyman-Pearson garantiza la existencia de un contraste de máxima potencia y determina cómo construirlo. Se define entonces y.Se trata de escoger entre todos los contrastes posibles con α prefijado aquel que tiene mayor potencia. esto es. la función de potencia del contraste es entonces esto es.

sí existen muchas condiciones en las que. En particular. no existe un equivalente al Lema de Neyman-Pearson para el caso general. son herramientas de amplio uso en la ciencia en general.Se dice que un contraste es uniformemente más potente de tamaño α cuando. se trata de un contraste que garantiza la máxima potencia para todos los valores de θ en la hipótesis alternativa. para todo valor es mayor o igual que el de cualquier otro contraste del mismo tamaño. . Es claro que el caso del contraste uniformemente más potente para hipótesis compuestas exige el cumplimiento de condiciones más exigentes que en el caso del contraste más potente para hipótesis simples. Por ello. la moderna Filosofía de la ciencia desarrolla el concepto de falsabilidad de las teorías científicas basándose en los conceptos de la inferencia estadística en general y de los contrastes de hipótesis. En resumen. etcétera. como ensayos clínicos de nuevos medicamentos. Aplicaciones de los contrastes de hipótesis Los contrastes de hipótesis. cumpliéndose determinadas propiedades de las distribuciones de probabilidad implicadas y para ciertos tipos de hipótesis. se puede extender el Lema para obtener el contraste uniformemente más potente del tamaño que se desee. Sin embargo. control de calidad. Las técnicas de contraste de hipótesis son también de amplia aplicación en muchos otros casos. cuando se desea optar entre dos posibles teorías científicas para un mismo fenómeno (dos hipótesis) se debe realizar un contraste estadístico a partir de los datos disponibles sobre el fenómeno que permitan optar por una u otra. como la inferencia estadística en general. encuestas. En este contexto.

. también llamado estadístico.. Un estimador de un parámetro poblacional es una función de los datos muestrales.xXx --El estimador es una variable aleatoria que asigna a cada posible valor de la muestra un valor numérico. su varianza y otras características propias de las variables aleatorias. x2. . Como tal. donde es un son las variables aleatorias que integran una muestra aleatoria de tamaño n de la población en cuestión. En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra. μ. tiene sentido calcular su esperanza. En pocas palabras. puede ser la media muestral. Por ejemplo. se dice que estimador puntual de θ si . Formalmente.ESTIMACIÓN.. para realizar estimaciones. Estimador. si θ es un parámetro poblacional. un estimador de la media poblacional. . -. xn) sería el conjunto de de datos de la muestra. Por ejemplo. una estimación de la media de una determinada característica de una población de tamaño N podría ser la media de esa misma característica para una muestra de tamaño n. es una fórmula que depende de los valores obtenidos de una muestra. . según la siguiente fórmula: donde (x1.

Estimación puntual. en cierto modo. cualquier función de la muestra. y por tanto. sabremos que su varianza es mínima. no siempre esta cota es alcanzable. obtenido de una fórmula determinada. Hay una cota mínima dentro de las varianzas que se puede obtener para cualquier estimador con un sesgo determinado. podría ser un estimador. Un estimador de un parámetro θ es eficiente si su varianza es mínima. si se pretende estimar la talla media de un determinado grupo de individuos. por lo que no siempre podremos saber si el estimador que hemos utilizado es el más eficiente de todos. Por ejemplo. pero es deseable que las estimaciones que surjan a partir de un estimador "se parezcan".Estimador insesgado. al parámetro que se desea estimar. De esta forma. y ninguno de ellos tiene una varianza igual a la cota de Cramér-Rao se utiliza el coeficiente de eficiencia relativa. la estimación será más fiable. Si la varianza de un estimador es igual a esta cota. Con este propósito. Consiste en la estimación del valor del parámetro mediante un sólo valor. estaremos seguros de que es eficiente. Esta cota se llama cota de CramérRao. puede . Estimador eficiente. Por supuesto. Esto hace que haya menos variabilidad entre las distintas estimaciones que podemos obtener (cada muestra dará una estimación diferente). Para ello. cuando dudamos entre dos estimadores diferentes. con la definición anterior. se dice que un estimador de un parámetro θ es insesgado si su esperanza es el propio θ. Sin embargo.

xn) = Yn i=1 fθ(xi ) A Lθ(x1.(credibilidad de la muestra observada). .extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos. Según . .. encontrar el estadístico T(X1. Una vez observada o realizada la muestra.. Xn. es que sea un estimador eficiente. Momento poblacional de orden r αr = E (Xr ) Momento muestral de orden r ar = Xn i=1 Xr i n Método de máxima verosimilitud: consiste en tomar como valor del parámetro aquel que maximice la probabilidad de que ocurra la muestra observada.. Vemos a continuación dos métodos para obtener la estimación puntual de un parámetro: método de los momentos y método de máxima verosimilitud.. Es decir.. Ejemplo 7.1.a. xn) se le llama función de verosimilitud.s.. . ... .... Xn.... xn. Xn es una muestra seleccionada de una población con distribución Fθ o densidad fθ(x). y al valor obtenido se le llama estimación por máxima verosimilitud de θ.. Lo más importante de un estimador.. Si X1. . siendo θ desconocido. T(x1.. Buscamos entonces el valor de θ que maximice la función de verosimilud. con µ desconocido. .. X1. que sea insesgado(ausencia de sesgos) y estable en el muestreo o eficiente (varianza mínima). xn) = ˆ θ .. Seleccionada una m. con realización x1. se obtiene la estimación puntual de θ. . en lugar de fθ(xi ) consideramos la función masa de probabilidad pθ(xi ). estimamos el parámetro µ por ambos métodos. Nota: si la variable X es discreta... Xn) que mejor estime el parámetro θ. xn viene dada por: Lθ(x1.. la probabilidad de que ocurra una realización x1.. Deberemos tener tantas igualdades como parámetros a estimar.. Métodos de estimación puntual Método de los momentos: consiste en igualar momentos poblacionales a momentos muestrales.. xn... .2.1: Sea X → N(µ. Estimación puntual y por Intervalos de Confianza 7.. . σ). con valores x1.. El problema de estimación puntual consiste en... seleccionada una muestra X1. Estimación puntual Sea X una variable poblacional con distribución Fθ .

. en este caso resulta más fácil maximizar su logaritmo: lnLµ(x1. Es la que se proyecta en función del intervalo de confianza la cual se deriva del parámetro de variabilidad Intervalo de confianza. xn) = 1 σ 2 Xn i=1 (xi − µ) = n − x − nµ σ 2 = 0 ⇐⇒ ˆ µ = − Estimación por intervalos. . xn) = − 1 2σ 2 Xn i=1 (xi − µ) 2 − n ln( √ 2πσ) ∂ ∂µ lnLµ(x1. Si no se conoce...... Pero a veces puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circunstancial. También hay métodos para calcular el tamaño de la muestra que prescinde de este aspecto. donde θ es el parámetro a estimar. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional y se denota σ...el método de los momentos: E(X) = Xn i=1 Xi n = − X. Variabilidad del Parámetro.. y al ser µ = E(X) se obtiene que ˆ µ = − x. . puede obtenerse una aproximación en los datos aportados por la literatura científica o en un estudio piloto. Por el método de máxima verosimilitud: Lµ(x1. .. θ2] ó θ1 ≤ θ ≤ θ2. Este intervalo contiene al parámetro estimado con una determinada certeza o nivel de confianza. xn) = Yn i=1 fµ(xi ) = = Yn i=1 1 √ 2πσ e −(xi−µ) 2 2σ Estimación por Intervalos de confianza 109 y maximizamos en µ tal función. El intervalo de confianza es una expresión del tipo [θ1.

esto es. El nivel de confianza se denota por (1-α). Cuanta más precisión se desee en la estimación de un parámetro. siendo 1-α el nivel de confianza. el valor α es (100-95)/100 = 0. según la fórmula E = θ2 . más error se comete al aumentar la precisión. Se representa por Zα/2.05 Valor crítico. Por ejemplo. que se corresponden con valores α de 0.05 y 0. Se suele llamar E. si se quiere mantener o disminuir el error. aunque habitualmente suele expresarse con un porcentaje ((1-α) ·100%). También llamado nivel de significación. Es el valor de la abscisa en una determinada distribución que deja a su derecha un área igual a α/2. en una estimación con un nivel de confianza del 95%. la diferencia entre la certeza (1) y el nivel de confianza (1-α). Límite de Confianza. Normalmente los valores críticos están tabulados o pueden calcularse en función de la distribución de la población. Valor α. Es la probabilidad de que el verdadero valor del parámetro estimado en la población se sitúe en el intervalo de confianza obtenido. más estrecho deberá ser el intervalo de confianza y. Es habitual tomar como nivel de confianza un 95% o un 99%. Es una medida de su precisión que se corresponde con la amplitud del intervalo de confianza.θ1. En caso de no incluir nuevas observaciones para la muestra. más ocurrencias deberán incluirse en la muestra estudiada. para .Error de la estimación.01 respectivamente. Es la probabilidad (en tanto por uno) de fallar en nuestra estimación. Por ejemplo.

El propósito de la prueba de hipótesis no es cuestionar el valor calculado del estadístico (muestral). respectivamente. es un procedimiento basado en la evidencia muestral y la teoría de probabilidad.3 se obtienen restando y sumando. Docimasia.7 y 3. podemos interpretar que el verdadero valor de la media se encuentra entre 2. se puede realizar el cambio de variable t =(X-μ)/σ para su cálculo. con una probabilidad del 99%.3. se observa que se corresponde con -1. para obtener el intervalo de confianza según las definiciones dadas. Más comúnmente llamada prueba o test de hipótesis. aumentamos el tamaño del intervalo de confianza. un mayor nivel de confianza. En el análisis estadístico se hace una aseveración. se plantea una hipótesis. . los conceptos de error y nivel de confianza van relacionados. Si admitimos un error mayor. y se emplea para determinar si la hipótesis es una afirmación razonable.28. Los valores 2. sino hacer un juicio con respecto a la diferencia entre estadístico de muestra y un valor planteado del parámetro. si tras la extracción de una muestra se dice que "3 es una estimación de la media con un margen de error de 0. es decir. tenemos también una mayor probabilidad de éxito en nuestra estimación.6 y un nivel de confianza del 99%". Entonces Zα/2 = 1. esto es. bajo la columna "Área". después se hacen las pruebas para verificar la aseveración o para determinar que no es verdadera. el valor crítico para α = 0. Para un tamaño fijo de la muestra. Con estas definiciones.7 y 3.1 se calcularía del siguiente modo: se busca en la tabla de la distribución ese valor (o el más aproximado). Se realiza mediante un procedimiento sistemático de 5 pasos: 1) Plantear la hipótesis nula Ho y la hipótesis alternativa H1.una distribución normal. de media 0 y desviación típica 1. la mitad del error.64. es decir. Si la media o desviación típica de la distribución normal no coinciden con las de la tabla.

Por lo tanto. la diferencia observada en la investigación es consecuencia del error de muestreo. 1-PLANTEAMIENTO DE HIPÓTESIS. la diferencia observada es consecuencia efectiva entre las poblaciones de origen. HIPÓTESIS ALTERNATIVA (H1) Los grupos difieren en la característica (parámetro) en estudio. 3) Cálculo del valor estadístico de prueba. : P N p = = = 10% 100 2% > Pruebas Unilaterales Pruebas Bilaterales ¿Existe diferencia significativa entre p y P? Ho Hi = = p = P0 p < P0 . 4) Formular la regla de decisión. 5) Tomar una decisión.2) Seleccionar el nivel de significancia. Por lo tanto. Hipótesis Nula H0 : Hipótesis alternativa = Hi : < ≠ Ej. HIPÓTESIS DE NULIDAD (Ho) Los grupos comparados no difieren en la característica (parámetro) en estudio.

este depende del tamaño de la muestra (a > tamaño muestral > potencia) y es = 1 -B.05 Rechazar no más de 5 veces en 100 la H0 siendo V α = 0. α = 0. Rechazar H0 siendo verdadera “β” Probabilidad de cometer el error tipo II. El error tipo I es el nivel de significación de la prueba estadística que siempre ha de indicarse cuando se presentan los resultados. es igual o menor que alguna pequeña probabilidad simbolizada por . En los estudios es frecuente establecer como objetivo una potencia de 0. No rechaza H0 siendo falsa. denominada nivel de significación.01 Rechazar no más de 1 vez en 100 la H0 siendo V El error tipo II se denomina potencia o poder estadístico. en consecuencia. está sometida a error. Ello significa que la probabilidad de cometer un error II (0.8 con un nivel de significación de 0.2-NIVEL DE SIGNIFICACIÓN De acuerdo a este razonamiento la decisión que se toma es de probabilidad.05.2) es cuatro veces mayor que la probabilidad de . si la prueba da un valor cuya probabilidad asociada de ocurrencia. Se rechaza la hipótesis nula. Decisión sobre H0 Realidad de H0 Verdadero Falso No rechaza Correcto Error II β Rechaza Error I α Correcto “α” Probabilidad de cometer error tipo I.

67 Z crítico . 3-ESTADÍSTICO DE PRUEBA.cometer un error tipo I (0.65 0 0. Para el mismo Ej: P0 = 10% Q0 = 90% N = 100 Z Cal = p . lo que refleja que en general un error tipo I se considera mucho más grave que un error tipo II.05). por lo tanto se rechazo H0 H0 0.8 = -.67 3 10 * 90 100 α= 0.1) Z Cal = 2 .2.95 .P0 P0 * Q0 N N (0.1.05 (prueba unilateral) Z crítico crea zona de rechazo Z calculado está dentro de la zona de rechazo.2.10 = -.05 Z Cal .

es improbable. DIFERENCIA ESTADÍSTICA NO SIGNIFICATIVA. no hay suficiente evidencia para rechazar la posibilidad de que la diferencia observada se debe a error de muestreo. de acuerdo al nivel de significación establecido. . Si la hipótesis nula fuera verdadera. aceptamos que se origina en el efecto de un factor diferencial entre los grupos. De acuerdo al nivel de significación que se ha establecido. que se hubiera obtenido una diferencia igual o mayor que la diferencia observada. Por lo tanto.4-VALOR P 5-INTERPRETACIÓN DE LOS RESULTADOS DIFERENCIAS ESTADÍSTICA SIGNIFICATIVA.

Conclusión. .

wikipedia. http://es.wikipedia.org/wiki/Estimaci%C3%B3n_estad%C3%ADstica http://es.org/wiki/Contraste_de_hip%C3%B3tesis http://es.com/doc/6703607/Docimasia-de-Hipotesis .scribd.Bibliografía.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->