P. 1
Prueba De Hipotesis

Prueba De Hipotesis

|Views: 1.054|Likes:
Publicado porLittle Mick Brown

More info:

Published by: Little Mick Brown on May 03, 2012
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

11/12/2015

pdf

text

original

Prueba De Hipotesis Introduccion

La inferencia estadística, como ya se mencionó, está relacionada con los métodos para obtener conclusiones o generalizaciones acerca de una población. Estas conclusiones sobre la población pueden estar relacionadas ó con la forma de la distribución de una variable aleatoria, ó con los valores de uno o varios parámetros de la misma. El campo de la inferencia estadística se divide en dos: Por un lado tenemos el problema de la estimación de los parámetros de una distribución, y por el otro, las pruebas de hipótesis. En el problema de estimación se trata de elegir el valor de un parámetro de la población, mientras que en las pruebas de hipótesis se trata de decidir entre aceptar o rechazar un valor especificado (por ejemplo, si el nivel de centramiento de un proceso es m0 o no lo es). El problema de la estimación ya ha sido tratado en los capítulos anteriores. Ahora estudiaremos lo relacionado con las pruebas de hipótesis. El campo de las pruebas de hipótesis se pueden considerar dos áreas: Pruebas de hipótesis sobre parámetros, para determinar si un parámetro de una distribución toma o no un determinado valor, y Pruebas de Bondad de Ajuste, para definir si un conjunto de datos se puede modelar mediante una determinada distribución. Si sobre la base de una muestra se tiene que decidir si un proceso está produciendo una determinada media, digamos m = 100, o si hay que decidir si una determinada droga sirve a un grupo específico de pacientes, lo anterior, puede traducirse en el lenguaje de “Pruebas e Hipótesis”. Una hipótesis estadística es una proposición o conjetura con respecto a una o más poblaciones. Estas aseveraciones o suposiciones pueden ser con respecto a uno o varios parámetros, ó con respecto a la forma de las respectivas distribuciones de probabilidad. También es posible considerar una hipótesis estadística como una proposición sobre la distribución de probabilidad de una variable aleatoria ya que emplea distribuciones de probabilidad para representar poblaciones. Introducción: Prueba de hipótesis En esta unidad nos concentraremos en la prueba de hipótesis, otro aspecto de la inferencia estadística que al igual que la estimación del intervalo de confianza, se basa en la información de la muestra. Se desarrolla una metodología paso a paso que le permita hacer inferencias sobre un parámetro poblacional mediante el análisis diferencial entre los resultados observados (estadístico de la muestra) y los resultados de la muestra esperados si la hipótesis subyacente es realmente cierta. En el problema de estimación se trata de elegir el valor de un parámetro de la población, mientras que en las pruebas de hipótesis se trata de decidir entre aceptar o rechazar un valor especificado (por ejemplo, si el nivel de centramiento de un proceso es o no lo es). Prueba de hipótesis: Estadísticamente una prueba de hipótesis es cualquier afirmación acerca de una población y/o sus parámetros. Una prueba de hipótesis consiste en contrastar dos hipótesis estadísticas. Tal contraste involucra la toma de decisión acerca de las hipótesis. La decisión consiste en rechazar o no

una hipótesis en favor de la otra. Una hipótesis estadística se denota por “H” y son dos: Ho: hipótesis nula - H1: hipótesis alternativa Partes de una hipótesis 1-La hipótesis nula “Ho” 2-La hipótesis alternativa “H1” 3-El estadístico de prueba 4-Errores tipo I y II 5-La región de rechazo (crítica) 6-La toma de decisión 1. Concepto: Una prueba de hipótesis estadística es una conjetura de una o más poblaciones. Nunca se sabe con absoluta certeza la verdad o falsedad de una hipótesis estadística, a no ser que se examine la población entera. Esto por su puesto sería impráctico en la mayoría de las situaciones. En su lugar, se toma una muestra aleatoria de la población de interés y se utilizan los datos que contiene tal muestra para proporcionar evidencia que confirme o no la hipótesis. La evidencia de la muestra que es un constante con la hipótesis planteada conduce a un rechazo de la misma mientras que la evidencia que apoya la hipótesis conduce a su aceptación. Definición de prueba de hipótesis estadística es que cuantifica el proceso de toma de decisiones. Por cada tipo de prueba de hipótesis se puede calcular una prueba estadística apropiada. Esta prueba estadística mide el acercamiento del calor de la muestra (como un promedio) a la hipótesis nula. La prueba estadística, sigue una distribución estadística bien conocida (normal, etc.) o se puede desarrollar una distribución para la prueba estadística particular. La distribución apropiada de la prueba estadística se divide en dos regiones: una región de rechazo y una de no rechazo. Si la prueba estadística cae en esta última región no se puede rechazar la hipótesis nula y se llega a la conclusión de que el proceso funciona correctamente. Al tomar la decisión con respecto a la hipótesis nula, se debe determinar el valor crítico en la distribución estadística que divide la región del rechazo (en la cual la hipótesis nula no se puede rechazar) de la región de rechazo. A hora bien el valor crítico depende del tamaño de la región de rechazo. Pasos de la prueba de hipótesis. 1. Expresar la hipótesis nula 2. expresar la hipótesis alternativa 3. especificar el nivel de significancia 4. determinar el tamaño de la muestra 5. establecer los valores críticos que establecen las regiones de rechazo de las de no rechazo. 6. determinar la prueba estadística. 7. coleccionar los datos y calcular el valor de la muestra de la prueba estadística apropiada. 8. determinar si la prueba estadística ha sido en la zona de rechazo a una de no rechazo. 9. determinar la decisión estadística. 10. expresar la decisión estadística en términos del problema.

http://www.mitecnologico.com/Main/PruebaDeHipotesisI ntroduccion

Distribución normal La línea verde corresponde a la distribución normal estándar Función de densidad de probabilidad Función de distribución de probabilidad Parámetros Dominio Función de densidad (pdf) .

Función distribución (cdf) Media Mediana Moda Varianza Coeficiente simetría Curtosis Entropía de de 0 0 Función generadora de momentos (mgf) Función característica En estadística y probabilidad se llama distribución normal. la estadística es un modelo matemático que sólo permite describir un fenómeno. por la enorme cantidad de variables incontrolables que en ellos intervienen. Esta curva se conoce como campana de Gauss y es el gráfico de una función gaussiana. La distribución normal también es importante por su relación con la estimación por mínimos cuadrados. sin explicación alguna. La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales. uno de los métodos de estimación más simples y antiguos. de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional. distribución de Gauss o distribución gaussiana. el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes. Para la explicación causal es preciso el diseño experimental. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos. La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales. . De hecho. sociales y psicológicos.

caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos. http://es. caracteres fisiológicos como el efecto de un fármaco.wikipedia. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad". Por ejemplo. errores cometidos al medir ciertas magnitudes. la distribución muestral de las medias muestrales es aproximadamente normal. la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas y discretas. nivel de ruido en telecomunicaciones.Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:        caracteres morfológicos de individuos como la estatura.org/wiki/Distribuci%C 3%B3n_normal . cuando la distribución de la población de la cual se extrae la muestra no es normal. 1 Además. caracteres psicológicos como el cociente intelectual. La distribución normal también aparece en muchas áreas de la propia estadística. la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas. lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. En probabilidad. etc.

Distribución t de Student Saltar a: navegación. búsqueda Distribución t de Student Función de densidad de probabilidad Función de distribución de probabilidad Parámetros grados de libertad (real) .

indefinida para otros para Curtosis para Entropía   : función digamma. : función beta Función generadora de (No definida) . indefinida para otros valores Varianza valores Coeficiente de simetría para .Dominio Función densidad (pdf) de Función (cdf) de donde función hipergeométrica es la distribución Media Mediana Moda para .

Aparece de manera natural al realizar la prueba t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones cuando se desconoce la desviación típica de una población y ésta debe ser estimada a partir de los datos de una muestra. .momentos (mgf) En probabilidad y estadística. la distribución t (de Student) es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Contenido [ocultar]        1 Caracterización 2 Aparición y especificaciones de la distribución t de Student 3 Intervalos de confianza derivados de la distribución t de Student 4 Historia 5 Distribución t de Student No Estandarizada 6 Referencias 7 Enlaces externos Caracterización La distribución t de Student es la distribución de probabilidad del cociente donde    Z tiene una distribución normal de media nula y varianza 1 V tiene una distribución ji-cuadrado con grados de libertad Z y V son independientes Si μ es una constante no nula. el cociente es una variable aleatoria que sigue la distribución t de Student no central con parámetro de no-centralidad .

Gosset estudió un cociente relacionado. pero no de o .. Entonces sigue una distribución normal de media 0 y varianza 1. Xn son variables aleatorias independientes distribuidas normalmente.. El parámetro representa el número de grados de libertad. donde es la varianza muestral y demostró que la función de densidad de T es donde es igual a n − 1. Intervalos de confianza derivados de la distribución t de Student El procedimiento para el cálculo del intervalo de confianza basado en la t de Student consiste en estimar la desviación típica de los datos S y calcular el error estándar de la . La distribución depende de . La distribución de T se llama ahora la distribución-t de Student. lo cual es muy importante en la práctica.. con media μ y varianza σ2. Sin embargo..Aparición y especificaciones de la distribución t de Student Supongamos que X1. dado que la desviación estándar no siempre es conocida de antemano. Sea la media muestral.

wikipedia.media .1 Distribución t de Student No Estandarizada La distribución t puede generalizarse a 3 parámetros. siendo entonces el intervalo de confianza para la media = . Guinness. El resultado es una distribucón t de Student No Estandarizada cuya densidad está definida por:2 Equivalentemente. puede escribirse en términos de de a la desviación estándar): (correspondiente a la varianza en vez http://es. Es este resultado el que se utiliza en el test de Student: puesto que la diferencia de las medias de muestras de dos distribuciones normales se distribuye también normalmente. que prohibía a sus empleados la publicación de artículos científicos debido a una difusión previa de secretos industriales. De ahí que Gosset publicase sus resultados bajo el seudónimo de Student.org/wiki/Distribuci%C3%B3n_t_ de_Student . para efectos prácticos el valor esperado y la varianza son: E(t(n))= 0 y Var (t(n-1)) = n/(n-2) para n > 3 Historia La distribución de Student fue descrita en 1908 por William Sealy Gosset. introduciendo un parámero locacional y otro de escala . Gosset trabajaba en una fábrica de cerveza. la distribución t puede usarse para examinar si esa diferencia puede razonablemente suponerse igual a cero.

com/2009/02/04/se gundo-bimestre/ . Si se desea saber el aumento (positivo: cola derecha) o la disminución (negativo: cola izquierda) de la producción. se acusa una prueba de dos colas: una cola dos colas Los valores críticos para una prueba de una cola son diferenres de los de una prueba de dos colas. En una prueba de una cola se coloca toda la región de rechazo en una sola cola. empleando un mismo nivel de significancia.wordpress.PRUEBA DE SIGNIFICANCIA Al decir una o dos colas nos estamos refiriendo a las gráficas unilaterales y bilaterales respectivamente. http://mcmedina1819. Si no se especifica dirección en la hipótesis alternativa. utilizaremos la prueba de una sola cola. Una prueba es de una cola cuando la hipótesis alternativa H1 indica una sola dirección.

Variable de agrupación: aquí se debe introducir la variable que se utiliza para definir los grupos de sujetos sobre los que se estudian las diferencias. o el valor de la variable que hará de corte para definir dichos grupos. Entonces el sistema activa el botón DEFINIR GRUPOS y al presionarlo aparece una ventana donde se introducen los valores de la variable que definen los dos grupos de sujetos a comparar. se utiliza el procedimiento Prueba T para muestras independientes. aquellas variables sobre las que se va a contrastar si hay o no. diferencias de grupos. es decir. Si el valor de la variable para un individuo es menor o igual que el valor .COMPARACIÓN DE DOS MUESTRAS INDEPENDIENTES: PRUEBAS T PARA LAS DIFERENCIAS ENTRE DOS MEDIAS. y para ello. Comparación de muestras independientes Para comparar las medias de dos muestras aleatorias procedentes de dos poblaciones normales e independientes. se selecciona: A continuación se abre una ventana con los siguientes campos: Contrastar variables: donde se han de introducir las variables que se van a analizar.

3.808. y elegimos la variable Tiemdoc para llevarla al campo Contrastar Variables. junto con los correspondientes grados de libertad y sus p-valores. para los profesores asociados y los titulares de universidad de Profesores2. (en ambos casos se distribuye como una t de Student). y tecleamos un 1 en el primer grupo y un 3 en el segundo. La primera recoge para ambos grupos. seleccionamos el procedimiento Prueba T para muestras independientes. La segunda tabla muestra el valor del estadístico para la prueba de Levene sobre la igualdad de varianzas. y en caso contrario. y cuyo p-valor es 0. Opciones: presionando este botón se obtiene una ventana donde se especifica igual que en la sección anterior el nivel de confianza para el intervalo y la forma de tratar los valores missing. supuesto varianzas iguales y distintas. Ejemplo 4. presionamos el botón DEFINIR GRUPOS.sav. Este se distribuye como una F de Snedecor y vale 0. los tiempos medios dedicados a la docencia. mientras que su p-valor 0. ya que el p-valor es mayor que 0. las desviaciones típicas y los errores típicos de la media. al segundo. También aparece en la tabla el valor del estadístico para resolver el contraste de igualdad de medias. Seguidamente seleccionamos como Variable Agrupación la variable Categoría.373. que no contiene el cero. junto con su p-valor. profesores asociados y titulares de universidad. Puesto que hemos concluido que las varianzas coinciden. El resultado que muestra la Tabla 3 contiene dos tablas. el número de casos en cada muestra. el individuo pertenecerá al primer grupo. Razonamiento que también se puede deducir del intervalo de confianza. Para ello. Tabla 3: Contraste sobre las Medias de dos Poblaciones Independientes .661. el cual vale 8. fijémonos en el que se han asumido varianzas iguales. Por último pulsamos CONTINUAR y ACEPTAR para ejecutar el procedimiento. Vamos a comprobar si existen diferencias significativas entre los tiempos medios de dedicación a la docencia.especificado. lo que nos conduce a aceptar que las varianzas sean iguales. luego se rechaza que las medias coincidan.05.

es/~pcgull/ihiu01/cdrom/spss /contenido/node36.661 50 0. la media Tiempo diario 1 29 251.4209 49.html .2759 7.373 8.808 0.deioc.6986 Prueba de muestras independientes Prueba de Levene para la igualdad Prueba T para la igualdad de medias de varianzas F Sig.000 64.929 49.7345 docencia varianzas iguales http://nereida.5337 4.36731 5.1983 49.000 64.3704 79.961 0.ull.1813 diario varianzas iguales para la No Asumiendo 8.8173 78. t gl Sig.Prueba T Estadísticos de Grupo Desviación Error típ.3759 29. de Categoría N Media típ.2759 7.1000 22. bilateral Diferencia de medias Error típico de la diferencia Intervalo de confianza para la diferencia Inferior Superior Tiempo Asumiendo 0.4534 para la docencia 3 23 187.

En estadística aplicada se prueban muchas hipótesis mediante el test F. Esta es. La hipótesis de que las desviaciones estándar de dos poblaciones normalmente distribuidas son iguales.  En muchos casos. Se requieren dos modelos de regresión. la más conocida de las hipótesis verificada mediante el test F y el problema más simple del análisis de varianza. el test F puede resolverse mediante un proceso directo. quizás. uno de los cuales restringe uno o más de los coeficientes de regresión conforme a la hipótesis nula.PRUEBA DE FISHER PARA VARIANZAS Y DE IGUALDAD DE LAS VARIANZAS DE DOS POBLACIONES NORMALES. El test entonces se basa en un cociente modificado de la suma de cuadrados de residuos de los dos modelos como sigue: Dadas n observaciones. el test F puede calcularse como http://es. En estadística se denomina prueba F (de Fisher) a cualquier prueba en la que el estadístico utilizado sigue una distribución F si la hipótesis nula no puede ser rechazada. donde el modelo 1 tiene k coeficientes no restringidos.org/wiki/Prueba_F_de_Fisher .wikipedia. y el modelo 0 restringe m coeficientes. entre ellas:  La hipótesis de que las medias de múltiples poblaciones normalmente distribuidas y con la misma desviación estándar son iguales.

A. y es una variable aleatoria que añade a la función cierto error que desvía la puntuación observada de la puntuación pronosticada. podemos operar con esta ecuación de la siguiente forma: 1) Restamos a ambos lados de la ecuación (para mantener la igualdad) la media de la variable dependiente: . El primer concepto fundamental es que todo valor observado puede expresarse mediante la siguiente función: Donde Y sería el valor observado (variable dependiente). según terminología inglesa) es una colección de modelos estadísticos y sus procedimientos asociados. Las técnicas iniciales del análisis de varianza fueron desarrolladas por el estadístico y genetista R. y X el valor que toma la variable independiente. el análisis de la varianza (ANOVA. ANalysis Of VAriance.MODELO TOTALMENTE ALEATORIO: ANÁLISIS DE VARIANZA DE UN FACTOR.1) Sabiendo este concepto. Introducción El análisis de la varianza parte de los conceptos de regresión lineal. a la función de pronóstico la podemos llamar "Y prima": Podemos resumir que las puntuaciones observadas equivalen a las puntuaciones esperadas. en el cual la varianza está particionada en ciertos componentes debidos a diferentes variables explicativas. En estadística. más el error aleatorio: (1. es otra constante que equivale a la pendiente de la recta. debido al uso de la distribución F de Fisher como parte del contraste de hipótesis. Por tanto. sería una constante que en la recta de regresión equivale a la ordenada en el origen. Fisher en los años 1920 y 1930 y es algunas veces conocido como "Anova de Fisher" o "análisis de varianza de Fisher".

excepto en el último término. no se anulen: Y desarrollamos el cuadrado: Podemos ver que tenemos los numeradores de las varianzas. que es una Suma Cruzada de Cuadrados (el numerador de la covarianza).2) Substituimos el error por la ecuación resultante de despejar la ecuación 1. las llamamos Sumas de Cuadrados. al hacer el sumatorio. pero al no estar divididas por el número de casos (n).. Ahora las elevamos al cuadrado para que posteriormente..1: Por tanto.. Y reorganizando la ecuación: Ahora hay que tener en cuenta que la media de las puntuaciones observadas es exactamente igual que la media de las puntuaciones pronosticadas: Por tanto: Podemos ver que nos han quedado 3 puntuaciones diferenciales. y la covarianza en este caso es cero (por las propiedades de la regresión lineal. la covarianza entre el error y la variable independiente es cero). Por tanto: O lo mismo que: .

que es el caso más sencillo. El Modelo de efectos aleatorios asume que los datos describen una jerarquía de diferentes poblaciones cuyas diferencias quedan restringidas por la jerarquía. "tratamiento" o tipo de situación. En el caso de que la diferencia debida al factor o tratamiento no sean estadísticamente significativa puede probarse que las varianzas muestrales son iguales: Donde: es el número de situaciones diferentes o valores del factor se están comparando. Visión general Existen tres clases conceptuales de estos modelos: 1. que mide la variación debida al "factor". la idea básica del análisis de la varianza es comparar la variación total de un conjunto de muestras y descomponerla como: Donde: es un número real relacionado con la varianza. (Modelo 2) .de un factor. es un número real relacionado con la varianza. que mide la variación dentro de cada "factor". Así lo que un simple test a partir de la F de Snedecor puede decidir si el factor o tratamiento es estadísticamente significativo. el método de enseñanza es un factor aleatorio en el experimento. (Modelo 1) 2. "tratamiento" o tipo de situación estudiado. es el número de mediciones en cada situación se hacen o número de valores disponibles para cada valor del factor. Ejemplo: El experimentador ha aprendido y ha considerado en el experimento sólo tres de muchos más métodos posibles. El Modelo de efectos fijos asume que los datos provienen de poblaciones normales las cuales podrían diferir únicamente en sus medias.

Como ejemplo. El Modelo de efectos mixtos describen situaciones que éste puede tomar.3. Ejemplo: Si el método de enseñanza es analizado como un factor que puede influir donde están presentes ambos tipos de factores: fijos y aleatorios. por lo que cualquier variación observada en las puntuaciones se deberá al error experimental. Tipos de modelo Modelo I: Efectos fijos El modelo de efectos fijos de análisis de la varianza se aplica a situaciones en las que el experimentador ha sometido al grupo o material analizado a varios factores. (Modelo 3) Supuestos previos El ANOVA parte de algunos supuestos que han de cumplirse:     La variable dependiente debe medirse al menos a nivel de intervalo. La distribución de los residuales debe ser normal. mostramos el modelo para un ANOVA simplificado con un tipo de factores en diferentes niveles. Modelo II: Efectos aleatorios (componentes de varianza) Los modelos de efectos aleatorios se usan para describir situaciones en que ocurren diferencias incomparables en el material o grupo experimental. puede resultar apropiado un análisis de regresión lineal) El número de grados de libertad (gl) puede separarse de forma similar y corresponde con la forma en que la distribución chi-cuadrado (χ² o Ji-cuadrada) describe la suma de cuadrados asociada. Independencia de las observaciones. cada uno de los cuales le afecta sólo a la media. permaneciendo la "variable respuesta" con una distribución normal. Este modelo se supone cuando el investigador se interesa únicamente por los niveles del factor presentes en el experimento. (Si los niveles son cuantitativos y los efectos son lineales. 'sum of squares') en componentes relativos a los factores contemplados en el modelo. El ejemplo más simple es el . La técnica fundamental consiste en la separación de la suma de cuadrados (SS. Homocedasticidad: homogeneidad de las varianzas.

de estimar la media desconocida de una población compuesta de individuos diferentes y en el que esas diferencias se mezclan con los errores del instrumento de medición. Este modelo se supone cuando el investigador está interesado en una población de niveles. se procede a elaborar una tabla que reuna la información. teóricamente infinitos. de los que únicamente una muestra al azar (t niveles) están presentes en el experimento. denominada "Tabla de Análisis de varianza o ANOVA".org/wiki/An%C3%A1lisis_de_la_ varianza . que adopta la siguiente forma: http://es. los grados de libertad y la F. usando la denominada distribución F de Snedecor. Grados de libertad Pruebas de significación El análisis de varianza lleva a la realización de pruebas de significación estadística. Tablas ANOVA Una vez que se han calculado las sumas de cuadrados. del factor de estudio.wikipedia. las medias cuadráticas.

solicitar la colaboración de otros centros o ampliar el periodo de reclutamiento. k: es una constante que depende del nivel de confianza que asignemos. 2. 2.44 1. en un estudio de investigación epidemiológico la determinación de un tamaño adecuado de la muestra tendría como objetivo su factibilidad. El nivel de confianza indica la probabilidad de que los resultados de nuestra investigación sean ciertos: un 95. Los estudios con tamaños muestrales insuficientes. el estudio se encarece desde el punto de vista económico y humano.96 2 2. Si el número de sujetos es insuficiente habría que modificar los criterios de selección. Así: 1.5 % de confianza es lo mismo que decir que nos podemos equivocar con una probabilidad del 4. 3. El tamaño de una muestra es el número de individuos que contiene. Por ejemplo. si realmente existe. Una fórmula muy extendida que orienta sobre el cálculo del tamaño de la muestra para datos globales es la siguiente: n = ( (k^2) * N*p*q) / ( (e^2 * (N-1) )+( (k^2) * p*q)) N: es el tamaño de la población o universo (número total de posibles encuestados).96) . no son capaces de detectar diferencias entre grupos. llegando a la conclusión errónea de que no existe tal diferencia.15 1.58 Nivel de confianza 75% 80% 85% 90% 95% 95. Estimar un parámetro determinado con el nivel de confianza deseado. Si el número de sujetos es excesivo.28 1.65 1. Detectar una determinada diferencia.SELECCIÓN DEL TAMAÑO DE LA MUESTRA PARA ESTIMAR LA DIFERENCIA DE DOS MEDIAS 1.5% 99% (Por tanto si pretendemos obtener un nivel de confianza del 95% necesitamos poner en la fórmula k=1. Reducir costes o aumentar la rapidez del estudio. entre los grupos de estudio con un mínimo de garantía. Además es poco ético al someter a más individuos a una intervención que puede ser menos eficaz o incluso perjudicial. Los valores k más utilizados y sus niveles de confianza son: k 1.5%.

Ejemplos: Ejemplo 1: si los resultados de una encuesta dicen que 100 personas comprarían un producto y tenemos un error muestral del 5% comprarán entre 95 y 105 personas.3%) del total de los empleados de la empresa lo estarán. Ejemplo 3: si los resultados de una encuesta electoral indicaran que un partido iba a obtener el 55% de los votos y el error estimado fuera del 3%.e: es el error muestral deseado. Ejemplo 2: si hacemos una encuesta de satisfacción a los empleados con un error muestral del 3% y el 60% de los encuestados se muestran satisfechos significa que entre el 57% y el 63% (60% +/.3%).wikipedia. http://es. El error muestral es la diferencia que puede haber entre el resultado que obtenemos preguntando a una muestra de la población y el que obtendríamos si preguntáramos al total de ella.org/wiki/Tama%C3%B1o_de_la_ muestra . se estima que el porcentaje real de votos estará en el intervalo 52-58% (55% +/.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->