P. 1
HIPOTESIS ESTADÍSTICAS

HIPOTESIS ESTADÍSTICAS

|Views: 34|Likes:
Publicado porJose Reyno Lume

More info:

Published by: Jose Reyno Lume on Jun 26, 2012
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

08/14/2013

pdf

text

original

HIPOTESIS ESTADÍSTICAS COMPARACION DE RESULTADOS CON PRUEBAS DE SIGNIFICACIÓN Dado que las medidas no se llevan a cabo sobre poblaciones

estadísticas, sino sobre muestras estadísticas extraídas aleatoriamente de las primeras, siempre se corre el riesgo de tomar una decisión errónea puesto que las características de la muestra pueden diferir de aquellas que posee la población. Este riesgo debe hacerse cuantificable y para ello se sigue una mecánica de trabajo llamada comprobación de hipótesis estadísticas. Una hipótesis es una suposición que se realiza sobre un determinado hecho, por ejemplo, que una media aritmética de un conjunto de resultados no difiera de unmodo estadísticamente significativo de un valor dado, mientras que un test estadístico nos permite dilucidar la validez de dicha hipótesis. Al plantear una hipótesis, H, puede adoptarse dos decisiones: aceptarla o rechazarla. Además puede ocurrir que dicha hipótesis sea cierta o falsa. Los resultados se esquematizan en la siguiente tabla:

En donde se aprecia que la decisión es correcta si se acepta una hipótesis que resulta cierta o se rechaza una hipótesis falsa. Si se refuta una hipótesis cierta se comete, un error de tipo α o de primera especie, mientras que si se acepta una hipótesis falsa se comete un error tipo β o de segunda especie. Las consecuencias de ambos errores pueden ser muy diferentes. Por ejemplo, si suponemos que un deportista no ingiere sustancias no permitidas y el resultado de un análisis de orina es positivo (error de 1ra especie), la descalificación del mismo (consecuencia) puede ser mucho más importante que en el caso de que no se detecten los fármacos en un atleta que si los haya tomado (error de 2da especie). Rechazar una hipótesis cierta puede tener, en principio, mayor trascendencia que aceptar una hipótesis que resulte ser falsa. Por consiguiente, es necesario justificar estadísticamente las decisiones tomadas y, dada su importancia, debe acotarse el error que se comete en términos de probabilidad.

En primer lugar es necesario seleccionar la hipótesis. En estadística existen al menos dos tipos:

1) La hipótesis nula, H0, que establece que no hay diferencias entre valores, es decir, que las diferencias observadas se deben solo a errores aleatorios. 2) La hipótesis alternativa, H1, que establece la existencia de una diferencia entre valores de los parámetros medidos. En segundo término ha de elegirse el nivel de significancia α que queremos asignar al test estadístico, teniendo en cuenta el error β . Volveremos a hacer referencia a los errores α y β en próximos párrafos.

Comprobaciones de una y dos colas En tests precedentes estábamos interesados en los valores extremos del estadístico s o en su correspondiente valor de z a ambos lados de la media (o sea, en las dos colas de la distribución). Tales tests se llaman a dos colas o bilaterales. Con frecuencia, no obstante, estaremos interesados tan sólo en valores extremos a un lado de la media (o sea, en una de las colas de la distribución), tal como sucede cuando se verifica la hipótesis de que un proceso es mejor que otro (lo cual no es lo mismo que comprobar si un proceso es mejor o peor que el otro). Tales pruebas se llaman unilaterales, o de una cola. En tales situaciones, la región crítica es una región situada aun lado de la distribución, con área igual al nivel de significación. La Tabla de abajo, que da valores críticos de z para pruebas de una o dos colas en varios niveles de significación, será útil como referencia posterior. Los valores críticos de z para otros niveles de significación se hallan a partir de la tabla de áreas de la curva normal que ya hemos apreciado.

Comparación de la media con un valor dado Debemos tener muy en claro que cuando se efectúan comparaciones paramétricas a los fines de inferir estadísticamente, se suponen siempre distribuciones (en nuestros casos) normales para todos los conjunto de datos que participan en la prueba. Otra suposición importante es la independencia entre estos conjuntos de datos. Así pues, veamos el siguiente ejemplo: Supongamos que se ha preparado un determinado fármaco y se ha agregado 100.0 mg de una droga. Ejemplo 1: Se efectuaron cuatro réplicas (n= 4). El promedio = 98.2 y σ = 0.80. Ejemplo 2: Se efectuaron seis réplicas y dieron los siguientes resultados: 98,9- 100,3- 99, 7- 99,0- 100,6- 98,6 (n = 6; x = 99,5; s= 0,81).

Se necesita saber si el promedio obtenido en el ejemplo 1, o en el ejemplo 2, es estadísticamente diferente de la cantidad µ0 = 100.0 que se esperaba encontrar. El valor promedio es una estimación del valor verdadero µ (promedio de la población), que debería ser encontrado si se llevaran a cabo infinitas determinaciones. Se plantean ambas hipótesis: la nula y la alternativa: H0 : µ=µ0 µ= 100.0 mg H1: µ≠100,0 mg Utilizando intervalos de confianza. Consideremos el ejemplo 1, el intervalo de confianza para el 95% de confianza (α= 0.05) es: 98.2 ± Zα/2(σ/ ) = 98.2 ± 1.96 (σ/ ) = 98.2 ± 1.94 * 0.40 = 98.2 ± 0.78

¿Cómo obtuvimos el valor de Zα/2 desde la Tabla 1?. Sabemos que el área fuera de este intervalo de confianza es del 5 % ( α= 0.05) y como la curva de distribución es simétrica con la media (98.2) como centro este, 5 % debe distribuirse a ambos lados (colas) de las curvas (2.5 % para cada lado, esto es: el área no sombreada del gráfico de abajo).

La tabla 1 (a dos colas), muestra valores para z a dos colas, es decir, un ±z que abarca el 95 % del área total y deja fuera el 5 % restante a ambos lados de la curva. Cuando buscamos en esta tabla debemos situarnos en la columna para p ( α) = 0.05 puesto que es a dos colas. Si la tabla fuese a una cola, deberíamos pararnos en la columna para p (α ) = 0.025. Muchas veces ocurre que en una tabla no se expone si es a una o a dos colas. ¿cómo puede averiguarlo mirando solo los valores de la tabla? Piénselo. Este mismo cálculo puede efectuarse con Excel y su función INTERVALO.CONFIANZA la que se muestra debajo con sus cuadros de diálogo:

como podemos observar para un α= 0.05 (95 % de confianza), σ= 0.80 y n = 4 se obtiene también un intervalo de confianza igual a 0.78. El valor de µ0 queda fuera del intervalo de confianza, es decir que el valor medio es una estimación improbable de µ. Se rechaza la hipótesis nula y se acepta la hipótesis alternativa. En el ejemplo 2, σ es desconocida, entonces usaremos el valor de t para calcular el intervalo de confianza:

También podemos realizar este cálculo utilizando Excel, obtenemos el valor de t mediante su función DISTR.T.INV:

µ0 pertenece al intervalo, por consiguiente se acepta H0. Comparando con un valor crítico Existe otra manera de llevar a cabo el test de hipótesis. Debe establecerse la hipótesis: Ho : µ= µ 0 µ= 100.0 H1 : µ ≠ 100.0 Para el ejemplo 1, se calcula el valor de z:

Se compara |z| con |Zcrítico| obtenido de la función distribución (Tabla o planilla de cálculo Excel) si |z| < |zcrítico| se aceptará H0, si |z| > | zcrítico| se rechazará H0. En este ejemplo, | z| = 4.50 >1.96. Debe rechazarse H0 y aceptarse por lo tanto H1. Concluimos que µ≠ 100.0 Con el ejemplo 2 realizamos lo siguiente: Calculamos t:

Comparamos |t| y = |tcrítico| (tablas y Excel), esto es: |t| =1.51 < |tcrítico| = 2,57. Concluimos en aceptar Ho.

¿Cómo se comparan dos varianzas? La comparación de dos varianzas σ1 y σs, estimadas por s12 y s22 se lleva a cabo empleando el test F (a dos colas):

siendo s12 la varianza mayor. El valor de F calculado debe compararse con el valor Fcrit (obtenido en tablas (6 y 7) o en Excel) para el nivel de significancia correspondiente y los grados de libertad referidos a la varianza del numerador n1-1 y del denominador n2-1. Si F calculado es mayor que Fcrit se concluye que existe una diferencia estadísticamente significativa entre las varianzas de los dos conjuntos de datos. Puede efectuarse otro test algo mas rápido para verificar si dos varianzas son estadísticamente iguales y es efectuar el cociente anterior y decidir acerca del resultado:

Comparación de las medias de dos conjuntos de datos Tanto x1 como x2 son estimaciones µ1 y µ2 respectivamente que se basan en n1 y n2 determinaciones. Una de las características que deben cumplir ambos conjuntos de datos es que estos deben ser independientes entre si El objeto de esta prueba es ver que sucede con la hipótesis que afirma la inexistencia de diferencia significativa entre µ 1 y µ2. De acuerdo a esto postulamos la hipótesis nula H0: µ1 = µ2 H1: µ 1≠µ2 Si ambas varianzas s12 y s22 son iguales (ver comparación de varianzas) debe calcularse la varianza conjunta s2, que es una estimación de la varianza común de las dos poblaciones. S2 =(n1-1 s12)+(n2-2 s22) (n1+n2-2) Se recomienda que antes de calcular las medias y las desviaciones estándar deben eliminarse los valores discrepantes para evitar conclusiones erróneas. El test t se efectúa de acuerdo a la siguiente expresión:

comparamos este valor de t con el tcrit para un dado nivel de significancia, α , y (n1 +n2 -2) grados de libertad. Para un test de dos colas x1 (estimador de µ1 ) se acerca a x2 (estimador de µ2 )tanto por la izquierda como por la derecha. Es decir la diferencia x1 x2 puede resultar mayor, menor o igual a 0. Entonces H0 es aceptada si t < tcrit Veamos un ejemplo: En un ejercicio de intercomparación simple dos laboratorios analíticos ejecutan en paralelo un método estándar para determinar la concentración de cadmio (Cd) en una muestra de agua de río con un alto grado de contaminación. Se desea verificar la existencia de diferencias estadísticamente significativas entre ambos laboratorios. Cada laboratorio efectúa 8 replicados [Cd] Lab 1 20.7 27.5 30.4 23.9 21.7 24.1 24.8 28.9 s12= 11.65 s12= 5.62 [Cd] Lab 2 20.9 21.4 24.9 20.5 19.7 26.3 22.4 20.2

Laboratorio 1: x1= 25.25 µg/L Laboratorio 2: x2 = 22.04 µg/L H0: µ1 = µ2

n1 = 8 n2 = 8

Pero antes veamos si se comprueba que s12= s22 Efectuamos el cociente:

Como la prueba es a dos colas (se postula la hipótesis nula) debe utilizarse la tabla 6 para Fcrit= 4.99 Tenemos que F < Fcrit y tambien F < 3 Concluimos que las varianzas son estadísticamente iguales esto es: s12= s22. Por lo tanto ya podemos calcular la varianza en común:

calculamos t:

Desde la Tabla 4 (que es de una cola), nos ubicamos en la columna µ= 0.025 y obtenemos el valor 2.145. De la misma manera nos vamos a la planilla Excel y accedemos a la función DISTR.T.INV (a dos colas) para µ = 0.05 y 14 grados de libertad obtenemos, obviamente, el mismo valor. Todos los cálculos y búsquedas anteriores pueden evitarse utilizando la herramienta “Prueba t para dos muestras suponiendo varianzas iguales” que posee Excel. En función de los datos para Lab 1 y Lab 2 se obtuvo automáticamente la siguiente tabla: Prueba t para dos muestras suponiendo varianzas iguales Variable 1 25.25 11.6514286 8 8.63991071 0 14 2.18584068 (tcalc) 0.02315611 1.76130925 0.04631223 2.1447886 (tcrít) Variable 2 22.0375 5.62839286 8

Media Varianza Observaciones Varianza agrupada Diferencia hipotética de las medias Grados de libertad Estadístico t P(T<=t) una cola Valor crítico de t (una cola) P(T<=t) dos colas Valor crítico de t (dos colas)

Vemos entonces que |tcalc|>|t crítico|por lo tanto rechazamos la hipótesis nula. Concluimos que ambos laboratorios presentan diferencias estadísticamente significativas utilizando aún la misma metodología analítica. Si no se cumple la condición de homogeneidad, es decir s12 s22 , el test t anterior es inaplicable ya que no puede calcularse la varianza conjunta. Aplicamos entonces el test de Cochran, que se basa en comparar el valor de t dado por:

con el valor de t que se obtiene de:

donde t1: valor crítico de t para n1-1 grados de libertad t2: valor crítico de t para n2-1 grados de libertad si t <|t’| se concluye que las medias de ambos conjuntos no son significativamente iguales. Ejercicio: En un nuevo ejercicio de intercomparación simple otros dos laboratorios analíticos ejecutan paralelamente el mismo método estándar para determinar la concentración de cadmio (Cd) en una muestra de agua de río con un alto grado de contaminación. [Cd] Lab 3 19.9 27.5 34.1 23.9 22.7 24.3 24.8 29.0 [Cd] Lab 4 21.0 21.4 25.0 20.5 19.7 22.3 20.1

Efectúe la comparación de las varianzas para cada laboratorio y compruebe la hipótesis nula respecto de sus medias. Utilice las tablas del anexo y compare con la herramienta de Excel “Prueba t para dos muestras suponiendo varianzas desiguales” Comparación de medias de dos muestras relacionadas o apareadas Analicemos esto con un ejemplo: Se ha determinado el contenido de carbono (% C) en nueve muestras de suelos por dos procedimientos diferentes. Los resultados obtenidos son: Suelo Proc 1 Proc 2 1 2.30 2.07 2 1.61 1.73 3 2.65 2.88 4 1.38 1.15 5 2.42 2.30 6 1.73 1.50 7 2.76 2.65 8 2.30 2.42 9 2.19 1.96 Esto es: De cada muestra se extraen dos alícuotas, 1 y 2, a las que se les determina % C de carbono con el procedimiento 1 y el procedimiento 2 respectivamente. La comparación debe realizarse entre ambos valores para cada muestra. Debe analizarse la diferencia de los valores para cada muestra. Esto es: di=x1i - x2i

La media de las diferencias es:

donde: n : es el números de pares d: estimador de las medias de las diferencias, δ Si no hay diferencia significativa entre las medias obtenidas por ambos procedimientos tenemos que δ = 0. Formulamos entonces las hipótesis nula y alternativa H0: δ = 0 H1: δ ≠ 0 Para muestras con n < 30 debe efectuarse el test t:

t con (n -1) grados de libertad donde

Calculamos y obtenemos:

y por tanto

Buscamos en la Tabla 4, el valor para tcrit para n=8: tcrit = 2.306 Observamos que t < tcrit aceptamos H0 Si utilizamos la herramienta de Excel “Prueba t para medias de dos muestras emparejadas” obtenemos lo siguiente: Prueba t para medias de dos muestras emparejadas

Media Varianza Observaciones Coeficiente de correlación de Pearson Diferencia hipotética de las medias Grados de libertad Estadístico t P(T<=t) una cola Valor crítico de t (una cola) P(T<=t) dos colas

Variable 1 2.14666667 0.224825 9 0.94940392 0 8 1.26491106 0.12075199 1.85954832 0.24150397

Variable 2 2.07 0.30748125 9

Valor crítico de t (dos colas) 2.30600563 y por lo tanto concluimos que ambos procedimientos generan valores de % C estadísticamente iguales. Respóndase a si mismo: ¿Que significa el parámetro P(T<=t) dos colas = 0.24150397 obtenido desde la tabla anterior generada por Excel? Comparación de las medias de varios conjuntos de resultados. Análisis de Varianza: ANOVA. La comparación de medias correspondientes a diversos conjuntos de resultados puede ser habitual en los laboratorios analíticos. En este caso nos ocuparemos de los ejercicios interlaboratorios, y seremos nosotros quienes nos ocuparemos de analizar los diversos conjuntos de datos para verificar si alguno de los laboratorios participantes proporciona resultados que se diferencian de forma estadísticamentesignificativa del resto. Otros ejemplos de aplicación son: comparación de distintos métodos con distintas características o con un método de referencia, comparación entre varios analistas que analizan una muestra con el mismo método. En definitiva, ANOVA se utiliza para "analizar medidas que dependen de varios tipos de efectos que operan simultáneamente con el doble fin de decidir cuales de ellos son importantes y de poder estimarlos” (SCHEFFÉ, 1953). El nombre "análisis de la varianza" puede arrojar confusión sobre la aplicación de este test. Claramente, ANOVA es empleado para la comparación de medias de diversos conjuntos de resultados y no sus varianzas. El nombre de esta técnica se origina del hecho que utiliza la comparación de parámetros estadísticos, en forma de varianzas, para llegar a una conclusión sobre las medias en cuestión. En este apunte vamos a referirnos a la comparación de diversos conjuntos de resultados que difieren en sólo un factor o causa de variación. Si, por ejemplo, se desean comparar k laboratorios que determinan nj veces la concentración de un analito en una misma muestra con un mismo método, el objetivo consiste en detectar si alguno de los laboratorios proporciona resultados que difieren de forma estadísticamente significativa de los demás. En ANOVA han de cumplirse tres tipos de hipótesis, aunque se aceptan ligeras desviaciones respecto a las condiciones ideales: 1- Cada conjunto de datos debe ser independiente de los demás.

2- Los resultados obtenidos para cada conjunto han de seguir una distribución normal. 3- Las varianzas de cada conjunto de datos no difieren significativamente. Continuando con el ejemplo propuesto, si se obtienen nj resultados para cada laboratorio, se genera un conjunto de datos que pueden ordenarse de la siguiente manera:

En esta Tabla, xij, es el resultado j del laboratorio i. El objetivo del análisis de la varianza consiste en la comparación de las distintas medias aritméticas xi (i = 1,2, ... , k) con el objetivo de determinar si alguna de ellas difiere significativamente de las demás. Para ello se utiliza esta estrategia: si los resultados proporcionados por los diversos laboratorios no contienen errores sistemáticos, las medias aritméticas respectivas no diferirán mucho unas de otras y su dispersión, debida a los errores aleatorios siempre presentes, será comparable a la dispersión "tipo" cometida individualmente por cada laboratorio. Se obtienen, de esta manera, dos varianzas como medidas de las dispersiones comentadas y se comparan mediante el conocido test F. El empleo de estas varianzas le dan el nombre a la técnica, ANOVA. El resultado xij, va acompañado de un error eij, que refleja la diferencia entre este valor y el valor considerado como verdadero µ:

este error puede descomponerse de la siguiente manera:

donde nj es el número de resultados repetidos que provee el laboratorio i, (xij – xj) describe la desviación dentro del laboratorio i; (xi – x) expresa la desviación del laboratorio i respecto de la media aritmética de todos los laboratorios y, (x - µ) describe una desviación sistemática general que solo puede calcularse si se conoce el valor considerado como verdadero µ.

Normalmente se considera que x = µ y por lo tanto x - µ = 0. Bajo estas condiciones rescribimos:

Donde: eij : error residual δi : error entre laboratorios Tenemos que:

ecuación lineal que expresa cada medida xij, como suma de una constante x y de dos variables aleatorias, eij, la cual varía dentro del laboratorio y δi que varía entre los laboratorios. El análisis de la varianza consiste en calcular una serie de sumas de cuadrados que conducirán a las varianzas finales:

el último término de esta ecuación es igual a cero, dado que la suma de desviaciones con respecto a las medias aritméticas es siempre igual a cero. La suma de cuadrados total SST puede escribirse como la suma de dos sumas de cuadrados:

SSR mide las desviaciones entre observaciones, xij, de cada laboratorio y la media del grupo, por tanto es una medida de la dispersión dentro de los laboratorios. Al dividir SSR por los correspondientes grados de libertad, N-k, se obtiene la varianza "dentro de los laboratorios". SSlab mide las desviaciones entre laboratorios y, dividida por sus grados de libertad, k-1, constituye la varianza "entre laboratorios".

Si no existe diferencia estadísticamente significativa entre estos dos últimos términos, la presencia de errores aleatorios será la causa predominante de la discrepancia entre los valores medios. Si, contrariamente, existe algún error sistemático, SSlab/(k – 1) será mucho mayor que SSR /(N- k) con lo que el valor calculado F:

será mayor que el valor tabulado Ftab para la probabilidad α, la probabilidad β elegidas, y los grados de libertad mencionados. Siendo Fcal > Ftab podríamos concluir que, con el grado de probabilidad escogido, al menos uno de los laboratorios produce resultados cuyo valor medio difiere de forma estadísticamente significativa de los demás. El análisis de la varianza no nos indica cuantos laboratorios difieren ni cuales son. Una inspección visual de los resultados sin duda puede ayudarnos, sin embargo, con el fin de tener criterios analíticamente más sólidos, existen distintos tests para identificar aquellos laboratorios cuyos resultados discrepan significativamente del resto. Otro ejemplo donde puede utilizarse ANOVA es la detección de errores sistemáticos en los resultados proporcionados por distintos analistas utilizando cada uno, por ejemplo, dos instrumentos distintos comunes a todos ellos. Si se llevan a cabo repeticiones de los análisis efectuados con cada instrumento, ANOVA proporciona información sobre la existencia de discrepancias entre analistas y entre instrumentos. Esto es un ejemplo bastante típico de un ANOVA de dos factores.

Ejemplo: En la tabla de abajo se exponen los resultados referidos al contenido de magnesio (mg / L) en aguas industriales. Estos datos han sido obtenidos por titulación complejométrica empleando diferentes indicadores de punto final.

La cuestión es: ¿Existen diferencias estadísticamente significativas entre los indicadores de punto final?

Efectuemos el los cálculos, completando la tabla de ANOVA:

Podemos observar que Fcal > Fcrit por lo tanto concluimos que al menos un indicador proporciona resultados diferentes de los otros (evidencias de que el uso de que esta sustancia produce errores sistemáticos). Utilizando Excel es posible analizar estos datos de una manera mas rápida y automática. Para ello empleamos la herramienta “Análisis de Varianza de un Factor” la que genera las siguientes tablas:

Este mismo análisis de datos puede obtenerse también, empleando Minitab, que genera resultados un tanto mas gráficos, nos ayuda mejor a dilucidar acerca de cual o cuales indicadores provocan los errores sistemáticos:

Comprobación de hipótesis estadísticas Errores de primera (α ) y segunda especie ( β) Como se viene explicando hasta ahora, la comprobación de una hipótesis estadística, por ejemplo, a un nivel de significación α= 0.05, supone un riesgo del 5 % de que se rechace una hipótesis nula aunque sea verdadera. A este tipo de error se lo conoce como error de primera especie o . El riesgo de cometer este error puede reducirse si se altera el nivel de significación del test a por ejemplo α= 0.01 o α= 0.001. No obstante este no es el único error que podemos esperar: Puede también mantenerse una hipótesis nula aún cuando esta sea falsa. Este es el denominado error de segunda especie o β. Si se quiere calcular la probabilidad de este tipo de error es necesario postular una alternativa a la hipótesis nula, que se conoce como, ya hemos mencionado, hipótesis alternativa. Veamos un ejemplo: Tengamos en cuenta a un determinado producto químico del cual se piensa que posee un 3 % de hierro. Estimaciones a “ojo de buen cubero” indican que esta proporción podría haberse incrementado. Para probar esto se han efectuado determinaciones analíticas con un método estándar que posee una desviación estándar conocida del 0.03 %. Supongamos que se toman 4 medidas y se realiza una prueba de significación al nivel de α = 0.05. Formulamos la hipótesis nula:

La línea continua (campana izquierda) de la figura nos muestra la distribución muestral de la media si la hipótesis nula fuese verdadera. Esta distribución tiene una media 3.0 y una desviación estándar . Si la media muestral cae por encima del valor crítico indicado, xc, se rechaza la hipótesis nula. Por tanto, la región sombreada de área 0.05, representa la probabilidad de un error α. Supongamos ahora que tenemos la hipótesis alternativa: H1: µ = 3.05 % La línea punteada (campana derecha) de la figura indica la distribución muestral de la media si la hipótesis alternativa fuese verdadera, incluso si este fuese el caso, se aceptará la hipótesis nula si la media muestral cae por debajo de xc. La probabilidad de este error está representada por el área rayada. En la figura también se muestra la interdependencia de ambos tipos de error. Si ahora cambiamos el nivel de significación a α = 0.01 para disminuir el riesgo de un error α, xc aumentará al igual que el riesgo de error β. Y a la inversa,

disminuyendo el riesgo de error β aumenta el riego de error α. Existe una única manera para reducir ambos riesgos de error (para una dada hipótesis alternativa) y consiste en aumentar el tamaño de la muestra. La probabilidad de que se rechace una hipótesis nula falsa suele llamarse “Potencia de una prueba” y es igual a (1 – probabilidad de error β). En el ejemplo desarrollado la potencia es función de la media especificada en la H1, del tamaño de la muestra, el nivel de significación de la prueba y si esta es de una o dos colas. Puede ocurrir el caso en donde se disponga de dos o mas pruebas para testear la misma hipótesis. Resulta interesante comparar las potencias de las pruebas con el fin de seleccionar la mas adecuada.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->