Prueba De Hipotesis Introduccion

La inferencia estadística, como ya se mencionó, está relacionada con los métodos para obtener conclusiones o generalizaciones acerca de una población. Estas conclusiones sobre la población pueden estar relacionadas ó con la forma de la distribución de una variable aleatoria, ó con los valores de uno o varios parámetros de la misma. El campo de la inferencia estadística se divide en dos: Por un lado tenemos el problema de la estimación de los parámetros de una distribución, y por el otro, las pruebas de hipótesis. En el problema de estimación se trata de elegir el valor de un parámetro de la población, mientras que en las pruebas de hipótesis se trata de decidir entre aceptar o rechazar un valor especificado (por ejemplo, si el nivel de centramiento de un proceso es m0 o no lo es). El problema de la estimación ya ha sido tratado en los capítulos anteriores. Ahora estudiaremos lo relacionado con las pruebas de hipótesis. El campo de las pruebas de hipótesis se pueden considerar dos áreas: Pruebas de hipótesis sobre parámetros, para determinar si un parámetro de una distribución toma o no un determinado valor, y Pruebas de Bondad de Ajuste, para definir si un conjunto de datos se puede modelar mediante una determinada distribución. Si sobre la base de una muestra se tiene que decidir si un proceso está produciendo una determinada media, digamos m = 100, o si hay que decidir si una determinada droga sirve a un grupo específico de pacientes, lo anterior, puede traducirse en el lenguaje de “Pruebas e Hipótesis”. Una hipótesis estadística es una proposición o conjetura con respecto a una o más poblaciones. Estas aseveraciones o suposiciones pueden ser con respecto a uno o varios parámetros, ó con respecto a la forma de las respectivas distribuciones de probabilidad. También es posible considerar una hipótesis estadística como una proposición sobre la distribución de probabilidad de una variable aleatoria ya que emplea distribuciones de probabilidad para representar poblaciones. Introducción: Prueba de hipótesis En esta unidad nos concentraremos en la prueba de hipótesis, otro aspecto de la inferencia estadística que al igual que la estimación del intervalo de confianza, se basa en la información de la muestra. Se desarrolla una metodología paso a paso que le permita hacer inferencias sobre un parámetro poblacional mediante el análisis diferencial entre los resultados observados (estadístico de la muestra) y los resultados de la muestra esperados si la hipótesis subyacente es realmente cierta. En el problema de estimación se trata de elegir el valor de un parámetro de la población, mientras que en las pruebas de hipótesis se trata de decidir entre aceptar o rechazar un valor especificado (por ejemplo, si el nivel de centramiento de un proceso es o no lo es). Prueba de hipótesis: Estadísticamente una prueba de hipótesis es cualquier afirmación acerca de una población y/o sus parámetros. Una prueba de hipótesis consiste en contrastar dos hipótesis estadísticas. Tal contraste involucra la toma de decisión acerca de las hipótesis. La decisión consiste en rechazar o no

una hipótesis en favor de la otra. Una hipótesis estadística se denota por “H” y son dos: Ho: hipótesis nula - H1: hipótesis alternativa Partes de una hipótesis 1-La hipótesis nula “Ho” 2-La hipótesis alternativa “H1” 3-El estadístico de prueba 4-Errores tipo I y II 5-La región de rechazo (crítica) 6-La toma de decisión 1. Concepto: Una prueba de hipótesis estadística es una conjetura de una o más poblaciones. Nunca se sabe con absoluta certeza la verdad o falsedad de una hipótesis estadística, a no ser que se examine la población entera. Esto por su puesto sería impráctico en la mayoría de las situaciones. En su lugar, se toma una muestra aleatoria de la población de interés y se utilizan los datos que contiene tal muestra para proporcionar evidencia que confirme o no la hipótesis. La evidencia de la muestra que es un constante con la hipótesis planteada conduce a un rechazo de la misma mientras que la evidencia que apoya la hipótesis conduce a su aceptación. Definición de prueba de hipótesis estadística es que cuantifica el proceso de toma de decisiones. Por cada tipo de prueba de hipótesis se puede calcular una prueba estadística apropiada. Esta prueba estadística mide el acercamiento del calor de la muestra (como un promedio) a la hipótesis nula. La prueba estadística, sigue una distribución estadística bien conocida (normal, etc.) o se puede desarrollar una distribución para la prueba estadística particular. La distribución apropiada de la prueba estadística se divide en dos regiones: una región de rechazo y una de no rechazo. Si la prueba estadística cae en esta última región no se puede rechazar la hipótesis nula y se llega a la conclusión de que el proceso funciona correctamente. Al tomar la decisión con respecto a la hipótesis nula, se debe determinar el valor crítico en la distribución estadística que divide la región del rechazo (en la cual la hipótesis nula no se puede rechazar) de la región de rechazo. A hora bien el valor crítico depende del tamaño de la región de rechazo. Pasos de la prueba de hipótesis. 1. Expresar la hipótesis nula 2. expresar la hipótesis alternativa 3. especificar el nivel de significancia 4. determinar el tamaño de la muestra 5. establecer los valores críticos que establecen las regiones de rechazo de las de no rechazo. 6. determinar la prueba estadística. 7. coleccionar los datos y calcular el valor de la muestra de la prueba estadística apropiada. 8. determinar si la prueba estadística ha sido en la zona de rechazo a una de no rechazo. 9. determinar la decisión estadística. 10. expresar la decisión estadística en términos del problema.

http://www.mitecnologico.com/Main/PruebaDeHipotesisI ntroduccion

Distribución normal La línea verde corresponde a la distribución normal estándar Función de densidad de probabilidad Función de distribución de probabilidad Parámetros Dominio Función de densidad (pdf) .

Esta curva se conoce como campana de Gauss y es el gráfico de una función gaussiana. La distribución normal también es importante por su relación con la estimación por mínimos cuadrados. por la enorme cantidad de variables incontrolables que en ellos intervienen. el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes. sin explicación alguna.Función distribución (cdf) Media Mediana Moda Varianza Coeficiente simetría Curtosis Entropía de de 0 0 Función generadora de momentos (mgf) Función característica En estadística y probabilidad se llama distribución normal. sociales y psicológicos. La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos. De hecho. distribución de Gauss o distribución gaussiana. la estadística es un modelo matemático que sólo permite describir un fenómeno. La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales. uno de los métodos de estimación más simples y antiguos. . de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional. Para la explicación causal es preciso el diseño experimental.

caracteres fisiológicos como el efecto de un fármaco. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad".Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:        caracteres morfológicos de individuos como la estatura.org/wiki/Distribuci%C 3%B3n_normal . la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas. En probabilidad. la distribución muestral de las medias muestrales es aproximadamente normal. etc. Por ejemplo. http://es. caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos. errores cometidos al medir ciertas magnitudes. nivel de ruido en telecomunicaciones. la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas y discretas. lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. cuando la distribución de la población de la cual se extrae la muestra no es normal. La distribución normal también aparece en muchas áreas de la propia estadística. 1 Además.wikipedia. caracteres psicológicos como el cociente intelectual.

búsqueda Distribución t de Student Función de densidad de probabilidad Función de distribución de probabilidad Parámetros grados de libertad (real) .Distribución t de Student Saltar a: navegación.

: función beta Función generadora de (No definida) . indefinida para otros valores Varianza valores Coeficiente de simetría para .Dominio Función densidad (pdf) de Función (cdf) de donde función hipergeométrica es la distribución Media Mediana Moda para . indefinida para otros para Curtosis para Entropía   : función digamma.

Aparece de manera natural al realizar la prueba t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones cuando se desconoce la desviación típica de una población y ésta debe ser estimada a partir de los datos de una muestra. el cociente es una variable aleatoria que sigue la distribución t de Student no central con parámetro de no-centralidad . la distribución t (de Student) es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. .momentos (mgf) En probabilidad y estadística. Contenido [ocultar]        1 Caracterización 2 Aparición y especificaciones de la distribución t de Student 3 Intervalos de confianza derivados de la distribución t de Student 4 Historia 5 Distribución t de Student No Estandarizada 6 Referencias 7 Enlaces externos Caracterización La distribución t de Student es la distribución de probabilidad del cociente donde    Z tiene una distribución normal de media nula y varianza 1 V tiene una distribución ji-cuadrado con grados de libertad Z y V son independientes Si μ es una constante no nula.

pero no de o . Sin embargo. Entonces sigue una distribución normal de media 0 y varianza 1. El parámetro representa el número de grados de libertad.. donde es la varianza muestral y demostró que la función de densidad de T es donde es igual a n − 1. Sea la media muestral. dado que la desviación estándar no siempre es conocida de antemano. Intervalos de confianza derivados de la distribución t de Student El procedimiento para el cálculo del intervalo de confianza basado en la t de Student consiste en estimar la desviación típica de los datos S y calcular el error estándar de la . Gosset estudió un cociente relacionado.Aparición y especificaciones de la distribución t de Student Supongamos que X1. lo cual es muy importante en la práctica. Xn son variables aleatorias independientes distribuidas normalmente. La distribución depende de .... La distribución de T se llama ahora la distribución-t de Student. con media μ y varianza σ2.

El resultado es una distribucón t de Student No Estandarizada cuya densidad está definida por:2 Equivalentemente.media . para efectos prácticos el valor esperado y la varianza son: E(t(n))= 0 y Var (t(n-1)) = n/(n-2) para n > 3 Historia La distribución de Student fue descrita en 1908 por William Sealy Gosset. De ahí que Gosset publicase sus resultados bajo el seudónimo de Student. Es este resultado el que se utiliza en el test de Student: puesto que la diferencia de las medias de muestras de dos distribuciones normales se distribuye también normalmente.org/wiki/Distribuci%C3%B3n_t_ de_Student . siendo entonces el intervalo de confianza para la media = . que prohibía a sus empleados la publicación de artículos científicos debido a una difusión previa de secretos industriales. puede escribirse en términos de de a la desviación estándar): (correspondiente a la varianza en vez http://es. Guinness.wikipedia. introduciendo un parámero locacional y otro de escala . la distribución t puede usarse para examinar si esa diferencia puede razonablemente suponerse igual a cero.1 Distribución t de Student No Estandarizada La distribución t puede generalizarse a 3 parámetros. Gosset trabajaba en una fábrica de cerveza.

se acusa una prueba de dos colas: una cola dos colas Los valores críticos para una prueba de una cola son diferenres de los de una prueba de dos colas. utilizaremos la prueba de una sola cola. Si se desea saber el aumento (positivo: cola derecha) o la disminución (negativo: cola izquierda) de la producción.wordpress. Si no se especifica dirección en la hipótesis alternativa. Una prueba es de una cola cuando la hipótesis alternativa H1 indica una sola dirección.com/2009/02/04/se gundo-bimestre/ . http://mcmedina1819.PRUEBA DE SIGNIFICANCIA Al decir una o dos colas nos estamos refiriendo a las gráficas unilaterales y bilaterales respectivamente. empleando un mismo nivel de significancia. En una prueba de una cola se coloca toda la región de rechazo en una sola cola.

Si el valor de la variable para un individuo es menor o igual que el valor . se utiliza el procedimiento Prueba T para muestras independientes. Variable de agrupación: aquí se debe introducir la variable que se utiliza para definir los grupos de sujetos sobre los que se estudian las diferencias. Entonces el sistema activa el botón DEFINIR GRUPOS y al presionarlo aparece una ventana donde se introducen los valores de la variable que definen los dos grupos de sujetos a comparar. aquellas variables sobre las que se va a contrastar si hay o no. y para ello. se selecciona: A continuación se abre una ventana con los siguientes campos: Contrastar variables: donde se han de introducir las variables que se van a analizar. o el valor de la variable que hará de corte para definir dichos grupos. Comparación de muestras independientes Para comparar las medias de dos muestras aleatorias procedentes de dos poblaciones normales e independientes. diferencias de grupos.COMPARACIÓN DE DOS MUESTRAS INDEPENDIENTES: PRUEBAS T PARA LAS DIFERENCIAS ENTRE DOS MEDIAS. es decir.

las desviaciones típicas y los errores típicos de la media. fijémonos en el que se han asumido varianzas iguales. y tecleamos un 1 en el primer grupo y un 3 en el segundo. y cuyo p-valor es 0. Por último pulsamos CONTINUAR y ACEPTAR para ejecutar el procedimiento. mientras que su p-valor 0. lo que nos conduce a aceptar que las varianzas sean iguales.05. La segunda tabla muestra el valor del estadístico para la prueba de Levene sobre la igualdad de varianzas. al segundo. También aparece en la tabla el valor del estadístico para resolver el contraste de igualdad de medias. El resultado que muestra la Tabla 3 contiene dos tablas.661. el número de casos en cada muestra. junto con su p-valor. el individuo pertenecerá al primer grupo. La primera recoge para ambos grupos. Ejemplo 4. y en caso contrario. Opciones: presionando este botón se obtiene una ventana donde se especifica igual que en la sección anterior el nivel de confianza para el intervalo y la forma de tratar los valores missing. Puesto que hemos concluido que las varianzas coinciden. junto con los correspondientes grados de libertad y sus p-valores. para los profesores asociados y los titulares de universidad de Profesores2.sav. presionamos el botón DEFINIR GRUPOS. el cual vale 8. supuesto varianzas iguales y distintas. los tiempos medios dedicados a la docencia.808.3. Seguidamente seleccionamos como Variable Agrupación la variable Categoría. ya que el p-valor es mayor que 0. que no contiene el cero. Tabla 3: Contraste sobre las Medias de dos Poblaciones Independientes .373. Este se distribuye como una F de Snedecor y vale 0. y elegimos la variable Tiemdoc para llevarla al campo Contrastar Variables. Vamos a comprobar si existen diferencias significativas entre los tiempos medios de dedicación a la docencia. luego se rechaza que las medias coincidan. seleccionamos el procedimiento Prueba T para muestras independientes. Para ello. (en ambos casos se distribuye como una t de Student). Razonamiento que también se puede deducir del intervalo de confianza.especificado. profesores asociados y titulares de universidad.

8173 78.deioc. la media Tiempo diario 1 29 251.961 0.4534 para la docencia 3 23 187.3759 29.1000 22.4209 49.Prueba T Estadísticos de Grupo Desviación Error típ.808 0.html .ull.36731 5.1813 diario varianzas iguales para la No Asumiendo 8.929 49.661 50 0.373 8. t gl Sig.2759 7.6986 Prueba de muestras independientes Prueba de Levene para la igualdad Prueba T para la igualdad de medias de varianzas F Sig.5337 4.1983 49.7345 docencia varianzas iguales http://nereida.000 64. bilateral Diferencia de medias Error típico de la diferencia Intervalo de confianza para la diferencia Inferior Superior Tiempo Asumiendo 0.2759 7.000 64. de Categoría N Media típ.es/~pcgull/ihiu01/cdrom/spss /contenido/node36.3704 79.

Se requieren dos modelos de regresión.PRUEBA DE FISHER PARA VARIANZAS Y DE IGUALDAD DE LAS VARIANZAS DE DOS POBLACIONES NORMALES. La hipótesis de que las desviaciones estándar de dos poblaciones normalmente distribuidas son iguales.org/wiki/Prueba_F_de_Fisher . En estadística se denomina prueba F (de Fisher) a cualquier prueba en la que el estadístico utilizado sigue una distribución F si la hipótesis nula no puede ser rechazada. El test entonces se basa en un cociente modificado de la suma de cuadrados de residuos de los dos modelos como sigue: Dadas n observaciones.  En muchos casos. En estadística aplicada se prueban muchas hipótesis mediante el test F. uno de los cuales restringe uno o más de los coeficientes de regresión conforme a la hipótesis nula. donde el modelo 1 tiene k coeficientes no restringidos. el test F puede calcularse como http://es. Esta es. quizás. entre ellas:  La hipótesis de que las medias de múltiples poblaciones normalmente distribuidas y con la misma desviación estándar son iguales. el test F puede resolverse mediante un proceso directo. la más conocida de las hipótesis verificada mediante el test F y el problema más simple del análisis de varianza.wikipedia. y el modelo 0 restringe m coeficientes.

a la función de pronóstico la podemos llamar "Y prima": Podemos resumir que las puntuaciones observadas equivalen a las puntuaciones esperadas.1) Sabiendo este concepto. ANalysis Of VAriance. más el error aleatorio: (1. podemos operar con esta ecuación de la siguiente forma: 1) Restamos a ambos lados de la ecuación (para mantener la igualdad) la media de la variable dependiente: . según terminología inglesa) es una colección de modelos estadísticos y sus procedimientos asociados. y es una variable aleatoria que añade a la función cierto error que desvía la puntuación observada de la puntuación pronosticada. el análisis de la varianza (ANOVA. El primer concepto fundamental es que todo valor observado puede expresarse mediante la siguiente función: Donde Y sería el valor observado (variable dependiente). Las técnicas iniciales del análisis de varianza fueron desarrolladas por el estadístico y genetista R. En estadística. sería una constante que en la recta de regresión equivale a la ordenada en el origen. es otra constante que equivale a la pendiente de la recta. debido al uso de la distribución F de Fisher como parte del contraste de hipótesis. y X el valor que toma la variable independiente. Por tanto. Fisher en los años 1920 y 1930 y es algunas veces conocido como "Anova de Fisher" o "análisis de varianza de Fisher".MODELO TOTALMENTE ALEATORIO: ANÁLISIS DE VARIANZA DE UN FACTOR. Introducción El análisis de la varianza parte de los conceptos de regresión lineal. A. en el cual la varianza está particionada en ciertos componentes debidos a diferentes variables explicativas.

Por tanto: O lo mismo que: . las llamamos Sumas de Cuadrados. Y reorganizando la ecuación: Ahora hay que tener en cuenta que la media de las puntuaciones observadas es exactamente igual que la media de las puntuaciones pronosticadas: Por tanto: Podemos ver que nos han quedado 3 puntuaciones diferenciales. pero al no estar divididas por el número de casos (n).. no se anulen: Y desarrollamos el cuadrado: Podemos ver que tenemos los numeradores de las varianzas. Ahora las elevamos al cuadrado para que posteriormente. excepto en el último término. y la covarianza en este caso es cero (por las propiedades de la regresión lineal. que es una Suma Cruzada de Cuadrados (el numerador de la covarianza)..2) Substituimos el error por la ecuación resultante de despejar la ecuación 1.. la covarianza entre el error y la variable independiente es cero). al hacer el sumatorio.1: Por tanto.

En el caso de que la diferencia debida al factor o tratamiento no sean estadísticamente significativa puede probarse que las varianzas muestrales son iguales: Donde: es el número de situaciones diferentes o valores del factor se están comparando. (Modelo 1) 2.de un factor. Ejemplo: El experimentador ha aprendido y ha considerado en el experimento sólo tres de muchos más métodos posibles. (Modelo 2) . "tratamiento" o tipo de situación. El Modelo de efectos fijos asume que los datos provienen de poblaciones normales las cuales podrían diferir únicamente en sus medias. el método de enseñanza es un factor aleatorio en el experimento. que mide la variación debida al "factor". El Modelo de efectos aleatorios asume que los datos describen una jerarquía de diferentes poblaciones cuyas diferencias quedan restringidas por la jerarquía. que es el caso más sencillo. "tratamiento" o tipo de situación estudiado. Visión general Existen tres clases conceptuales de estos modelos: 1. es un número real relacionado con la varianza. que mide la variación dentro de cada "factor". es el número de mediciones en cada situación se hacen o número de valores disponibles para cada valor del factor. Así lo que un simple test a partir de la F de Snedecor puede decidir si el factor o tratamiento es estadísticamente significativo. la idea básica del análisis de la varianza es comparar la variación total de un conjunto de muestras y descomponerla como: Donde: es un número real relacionado con la varianza.

Como ejemplo. permaneciendo la "variable respuesta" con una distribución normal. Independencia de las observaciones. mostramos el modelo para un ANOVA simplificado con un tipo de factores en diferentes niveles. cada uno de los cuales le afecta sólo a la media. La distribución de los residuales debe ser normal. El ejemplo más simple es el . por lo que cualquier variación observada en las puntuaciones se deberá al error experimental. Homocedasticidad: homogeneidad de las varianzas. (Si los niveles son cuantitativos y los efectos son lineales. Este modelo se supone cuando el investigador se interesa únicamente por los niveles del factor presentes en el experimento. La técnica fundamental consiste en la separación de la suma de cuadrados (SS. (Modelo 3) Supuestos previos El ANOVA parte de algunos supuestos que han de cumplirse:     La variable dependiente debe medirse al menos a nivel de intervalo. puede resultar apropiado un análisis de regresión lineal) El número de grados de libertad (gl) puede separarse de forma similar y corresponde con la forma en que la distribución chi-cuadrado (χ² o Ji-cuadrada) describe la suma de cuadrados asociada. Tipos de modelo Modelo I: Efectos fijos El modelo de efectos fijos de análisis de la varianza se aplica a situaciones en las que el experimentador ha sometido al grupo o material analizado a varios factores.3. Modelo II: Efectos aleatorios (componentes de varianza) Los modelos de efectos aleatorios se usan para describir situaciones en que ocurren diferencias incomparables en el material o grupo experimental. 'sum of squares') en componentes relativos a los factores contemplados en el modelo. Ejemplo: Si el método de enseñanza es analizado como un factor que puede influir donde están presentes ambos tipos de factores: fijos y aleatorios. El Modelo de efectos mixtos describen situaciones que éste puede tomar.

se procede a elaborar una tabla que reuna la información.wikipedia. de los que únicamente una muestra al azar (t niveles) están presentes en el experimento. denominada "Tabla de Análisis de varianza o ANOVA". Este modelo se supone cuando el investigador está interesado en una población de niveles.org/wiki/An%C3%A1lisis_de_la_ varianza . usando la denominada distribución F de Snedecor. las medias cuadráticas.de estimar la media desconocida de una población compuesta de individuos diferentes y en el que esas diferencias se mezclan con los errores del instrumento de medición. que adopta la siguiente forma: http://es. Grados de libertad Pruebas de significación El análisis de varianza lleva a la realización de pruebas de significación estadística. Tablas ANOVA Una vez que se han calculado las sumas de cuadrados. los grados de libertad y la F. teóricamente infinitos. del factor de estudio.

El tamaño de una muestra es el número de individuos que contiene. Reducir costes o aumentar la rapidez del estudio.44 1. llegando a la conclusión errónea de que no existe tal diferencia. Detectar una determinada diferencia. Estimar un parámetro determinado con el nivel de confianza deseado.96 2 2.5% 99% (Por tanto si pretendemos obtener un nivel de confianza del 95% necesitamos poner en la fórmula k=1. solicitar la colaboración de otros centros o ampliar el periodo de reclutamiento. Si el número de sujetos es excesivo. el estudio se encarece desde el punto de vista económico y humano. en un estudio de investigación epidemiológico la determinación de un tamaño adecuado de la muestra tendría como objetivo su factibilidad. Además es poco ético al someter a más individuos a una intervención que puede ser menos eficaz o incluso perjudicial. entre los grupos de estudio con un mínimo de garantía.15 1. 2. Los estudios con tamaños muestrales insuficientes. El nivel de confianza indica la probabilidad de que los resultados de nuestra investigación sean ciertos: un 95.65 1. Por ejemplo. no son capaces de detectar diferencias entre grupos.28 1.5 % de confianza es lo mismo que decir que nos podemos equivocar con una probabilidad del 4. Si el número de sujetos es insuficiente habría que modificar los criterios de selección. Una fórmula muy extendida que orienta sobre el cálculo del tamaño de la muestra para datos globales es la siguiente: n = ( (k^2) * N*p*q) / ( (e^2 * (N-1) )+( (k^2) * p*q)) N: es el tamaño de la población o universo (número total de posibles encuestados).58 Nivel de confianza 75% 80% 85% 90% 95% 95. 2. Así: 1.96) . k: es una constante que depende del nivel de confianza que asignemos.5%. Los valores k más utilizados y sus niveles de confianza son: k 1. 3.SELECCIÓN DEL TAMAÑO DE LA MUESTRA PARA ESTIMAR LA DIFERENCIA DE DOS MEDIAS 1. si realmente existe.

3%). Ejemplos: Ejemplo 1: si los resultados de una encuesta dicen que 100 personas comprarían un producto y tenemos un error muestral del 5% comprarán entre 95 y 105 personas. http://es.e: es el error muestral deseado. Ejemplo 2: si hacemos una encuesta de satisfacción a los empleados con un error muestral del 3% y el 60% de los encuestados se muestran satisfechos significa que entre el 57% y el 63% (60% +/.wikipedia. Ejemplo 3: si los resultados de una encuesta electoral indicaran que un partido iba a obtener el 55% de los votos y el error estimado fuera del 3%. El error muestral es la diferencia que puede haber entre el resultado que obtenemos preguntando a una muestra de la población y el que obtendríamos si preguntáramos al total de ella.3%) del total de los empleados de la empresa lo estarán. se estima que el porcentaje real de votos estará en el intervalo 52-58% (55% +/.org/wiki/Tama%C3%B1o_de_la_ muestra .

Sign up to vote on this title
UsefulNot useful