Está en la página 1de 15

INFERENCIA ESTADISTICA

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA


UNAD

PRUEBAS DE HIPTESIS, ANLISIS DE VARIANZA Y


ESTADSTICA NO PARAMTRICA

Curso:
INFERENCIA ESTADSTICA
Grupo : 100403_23

Integrado por:

DAIRO RAL MONTERROZA


MARTA ISABEL CUESTA
LEIDY ZORAIDA CANO
MARIAM VERONICA ARISMENDY
HECTOR FABIO ESQUIVEL

Tutor:

DANYS BRITO

MAYO DE 2011

INFERENCIA ESTADISTICA

TABLA DE CONTENIDO

1. INTRODUCCION

2. OBJETIVOS

3. DESARROLLO DE LA ACTIVIDAD

4. CONCLUSION

14

5.

15

BIBLIOGRAFIA

INFERENCIA ESTADISTICA

INTRODUCCION

La inferencia estadstica se refiere a un conjunto de mtodos mediante los cuales podemos hacer
afirmaciones con respecto a una poblacin completa a partir nicamente de la observacin de una parte
de ella.

La inferencia estadstica trabaja con muestras de subconjuntos formados por algunos individuos de la
poblacin. Por medio del estudio de la muestra se pretende inferir aspectos relevantes de esta. Debe
tomarse en cuenta algunos aspectos fundamentales para su estudio, cmo se selecciona la muestra,
cmo se realiza la inferencia, y qu grado de confianza se puede tener en ellas.
Dos formas bsicas para realizar inferencia estadstica son la estimacin y el contraste de hiptesis,
tambin llamado "prueba de hiptesis". Una hiptesis estadstica es una afirmacin con respecto a una
distribucin de probabilidad (por ejemplo, podramos decir que un cierto fenmeno se comporta de
forma que puede explicarse por una distribucin Binomial). En particular, una hiptesis estadstica
puede ser una afirmacin con respecto a un parmetro (si sabemos que la distribucin es Binomial,
entonces podramos establecer la hiptesis de que la probabilidad de xito es p = 0.5). Un contraste
estadstico de hiptesis es un procedimiento mediante el cual se compara lo propuesto por una hiptesis
contra la evidencia emprica que proporciona la observacin de datos provenientes de la poblacin
sobre la cual se hace la hiptesis. El ttulo que se ha dado a esta discusin tiene qu ver con una
cuestin bsica en el contraste de hiptesis, por la cual podra considerarse que no es muy adecuado el
nombre prueba. Lo anterior, porque este sustantivo podra dar al lector la impresin de que el
procedimiento implica certeza, lo cual en estadstica desde luego difcilmente se tiene.

El presente trabajo se ha desarrolla con el fin de reconocer y diferenciar los conceptos que aparecen en
la segunda unidad INFERENCIA ESTADISTICA y determinar cules son los aspectos ms
relevantes a tener en cuenta para el estudio de una muestra sobre una poblacin y as poder determinar
el grado de asercin de esta basndose en estimaciones requeridas, varianza y pruebas de hiptesis.

INFERENCIA ESTADISTICA

OBJETIVOS

Objetivo General
Reconocer los conceptos de la Unidad II Pruebas de Hiptesis, anlisis de varianzas y
estadsticas no paramtricas

Objetivos Especficos

Realizar el estudio de los conceptos de pruebas de hiptesis, anlisis de varianza, y pruebas


no paramtricas.

Aplicar los conceptos en el desarrollo del ejercicio propuesto por el tutor.

Consultar diferentes bibliografas para tener ms claro los conceptos finales y realizar
comparaciones.

Aplicar los fundamentos tericos en los que se basa la prueba de hiptesis estadstica,
considerada como alternativa para toma de decisiones.

Explicar los elementos conceptuales esenciales que tiene la inferencia estadstica en las
pruebas de hiptesis.

INFERENCIA ESTADISTICA

DESARROLLO

1. Establezca la diferencia entre: Nivel de significacin y potencia de una prueba; pruebas


paramtricas y pruebas No paramtricas.
TERMINOS
Nivel de significancia

La Potencia de una prueba


estadstica

DEFINICION
DIFERENCIAS
Es la probabilidad (en tanto por El grado de probabilidad de que
uno) de fallar en nuestra se acepte o rechace la hiptesis
estimacin, esto es, la diferencia nula. Para aceptar la alterna
entre la certeza (1) y el nivel de
confianza (1-). Por ejemplo, en
una estimacin con un nivel de
confianza del 95%, el valor es
(100-95)/100 = 0,05. El nivel de
significacin observado es la
probabilidad de obtener un
estadstico de contraste tan o
ms extremo que el observado y
se calcula partiendo de la base
de que la hiptesis nula es cierta.
Cuanto
menor
sea
esta
probabilidad, mayor es la
evidencia en contra de la
hiptesis nula. El nivel de
significacin
observado
se
denota generalmente por la letra
P (de probabilidad) y a menudo
se denomina valor P del
contraste.
Es la probabilidad de que
conducir
correctamente
a
rechazar una hiptesis nula falsa,
en este se da la probabilidad de
cometer un error de tipo II.
Como alternativa al intervalo de
confianza, en un ensayo de tipo
negativo puede ser interesante
indicar cul era la potencia de la
prueba para detectar una
diferencia
clnicamente
relevante, siendo importante que
esta no sea pequea.

INFERENCIA ESTADISTICA

TERMINOS
Inferencia Paramtricas

DEFINICION
Es una rama de la estadstica que
comprende los procedimientos
estadsticos y de decisin que
estn
basados
en
las
distribuciones de los datos
reales. Estas son determinadas
usando un nmero finito de
parmetro

Inferencia No Paramtricas

Es una rama de la estadstica que


estudia las pruebas y modelos
estadsticos cuya distribucin
subyacente no se ajusta a los
llamados criterios paramtricos.
Su distribucin no puede ser
definida a priori, pues son los
datos observados los que la
determinan. La utilizacin de
estos
mtodos
se
hace
recomendable cuando no se
puede asumir que los datos se
ajusten a una distribucin
conocida, cuando el nivel de
medida empleado no sea, como
mnimo, de intervalo.

DIFERENCIAS
Con las pruebas no paramtricas
es ms difcil rechazar la
hiptesis nula.

2. El tamao de una muestra para realizar inferencia estadstica depende de unos factores, (la
confiabilidad, la varianza y el error de estimacin), que la determinan. Explique los criterios
que tiene un investigador para la determinacin de estos factores.
Existen 3 factores que determinan el tamao de una muestra, ninguno de ellos tiene una relacin
directa con el tamao de la poblacin. Los factores son:
El grado de confianza elegido (Nivel de Confianza)
La variacin en la poblacin (Varianza)
El error mximo permitido (Error de Estimacin)

Nivel De Confianza: La longitud del intervalo de confianza aumenta al aumentar el nivel de


confianza ya que el valor crtico de la distribucin es mayor. Si consideramos un nivel de

INFERENCIA ESTADISTICA

confianza del 100%, el intervalo de confianza ser [-;+] que, evidentemente contiene al
verdadero valor del parmetro pero no es de ninguna utilidad en la prctica. Si disminuimos el
nivel de confianza tambin disminuye la longitud, sin embargo conviene mantenerlo en unos
lmites razonables que suelen ser del 95% o del 99% en la mayor parte de las aplicaciones.
Varianza: La longitud del intervalo de confianza disminuye con la varianza, es decir, la
estimacin ser ms precisa cuanto menor sea la variabilidad en la poblacin, lo que significa
que la poblacin es ms homognea. En la prctica es posible obtener estimaciones ms
precisas, por ejemplo, restringiendo la poblacin a conjuntos lo ms parecidos posible.
Error de estimacin: Es el valor absoluto de la diferencia entre una estimacin particular y el
valor del parmetro. En realidad por cada valor estimado del parmetro se tiene un error de
estimacin por lo general diferente. Sin embargo, es posible fijar un intervalo dentro del cual se
encontrarn la mayora de los valores de error de estimacin para un estimador y parmetro
dados.
3. Qu significan el error tipo I y el error tipo II. Explique su interpretacin con un ejemplo.
Error tipo I error : el rechazo de una hiptesis que es verdadera. Para el caso de prueba de
hiptesis consiste en el rechazo de la hiptesis nula Ho cuando sta es verdadera. Se denota con la letra
griega o por P (TI).
= P (TI) = P (Rechazar Ho/Ho es verdadera) = P (muestra caiga en C/ Ho)
Cuando una hiptesis nula cuando es cierta se denomina error de tipo I, y su probabilidad (que es
tambin el nivel de significancia) se simboliza como .

El hecho de que P sea muy bajo no califica el acontecimiento como


imposible. Simplemente que tiene poca probabilidad de ocurrir al
azar. A la probabilidad de cometer error tipo I se la denomina nivel de
significacin Habitualmente el investigador fija a priori el nivel de
significacin crtico para rechazar Ho (). Si P es menor que , se rechaza. En caso contrario, se acepta
Ho.
Error tipo II error . Es la aceptacin de una hiptesis falsa, es decir, es la aceptacin de la
hiptesis nula H0 cuando sta es falsa, es decir, la hiptesis verdadera es H1. Este error se lo denota por
la letra griega o por P (TII).
= P (TII) = P (Aceptar Ho/Ho es falsa) = P (Muestra est fuera de C/H1)
Por ejemplo, si tenemos las siguientes hiptesis

INFERENCIA ESTADISTICA

= 0
H1: = 1
Ho:

El primer error que se puede cometer es rechazar la hiptesis = 0 cuando el verdadero valor del
parmetro es: = 0, y este es el error tipo I, y el error tipo II consiste en aceptar la
hiptesis: = 0 cuando el verdadero valor del parmetro es: = 1
Ejemplo.

Un laboratorio desea probar la efectividad de un remedio que se aplica a un grupo de 20 personas. El


fabricante quiere probar que el nuevo remedio tiene una efectividad del 90% comparado con la
efectividad de un remedio en uso, que es del 60%. Aceptar el nuevo remedio si el nmero de xitos es
mayor o igual a 15; en caso contrario lo rechazar. Formule las hiptesis adecuadas (segn lo
planteado) y evale los valores de de y .
Si denominamos por la efectividad del nuevo remedio, podemos formular las hiptesis de la siguiente
manera, segn lo planteado por el fabricante:
= =0.90
H1: = 1 =0.60
Ho:

n = 20

Regin de rechazo: Si denotamos por X el nmero de xitos, entonces la regin crtica ser C=
{X/x<15}.

Los errores tipo I y II son los siguientes:


= P(TI) = P(Re Ho/Ho) = P(X<15/ = 0.90)
Dado que el nmero de xitos X sigue una distribucin binomial con parmetros
y=0.90 bajo la hiptesis nula, el error tipo I estar dado por:

n = 20

El error tipo II o est dado por:


= P(TII) = P(Ac Ho/H1) = P(X 15/ = 0.60)

Un buen procedimiento de prueba es aquel en que tanto como sean pequeos. Para nuestro
ejemplo = 0.126 es relativamente alto, y el valor de = 0.0113 es relativamente bajo. Estos valores

INFERENCIA ESTADISTICA

pueden modificarse cambiando apropiadamente la regin crtica. Por ejemplo, si se define la regin de
aceptacin como X 16, los errores tipo I y II seran:
=
P(TI)
=
P(X<15/ =
= P(TI) = P(X 15/ = 0.60) = 0.051

0.90)

0.043

Que son valores ms aceptables tanto para como para . Obsrvese que si se reduce el error tipo I se
aumenta el error tipo II (si se mantiene el mismo tamao de la muestra). Si se quieren reducir
simultneamente ambos errores debe aumentarse el tamao de la muestra.

4. Explique cules son los supuestos de homogeneidad, homocedasticidad, independencia


y Normalidad, que deben cumplirse para validar un anlisis de varianzas:
El anlisis de varianza sirve para comparar si los valores de un conjunto de datos numricos son
significativamente distintos a los valores de otro o ms conjuntos de datos. El procedimiento para
comparar estos valores est basado en la varianza global observada en los grupos de datos numricos a
comparar. Tpicamente, el anlisis de varianza se utiliza para asociar una probabilidad a la conclusin
de que la media de un grupo de puntuaciones es distinta de la media de otro grupo de puntuaciones.
Cuando se desea conocer la homogeneidad que existe entre tres o ms medias mustrales, se procede a
determinar la variabilidad entre esas medias, tcnica que se conoce como anlisis de varianza. Es
decir, cuando productos o individuos son sometidos a tratamientos determinados para ver cmo stos
influyen en resultados o comportamientos, lo ms aconsejable es utilizar la tcnica de anlisis de
varianza.
SUPUESTOS DEL ANLISIS DE VARIANZA

Para cada poblacin la variable de respuesta est normalmente distribuida.


La varianza de la variable respuesta es la misma para todas las poblaciones.

Las observaciones deben ser independientes.

Independencia de las observaciones.

La distribucin de los residuales debe ser normal.

Homocedasticidad: homogeneidad de las varianzas.

5. Comprueben a partir de dos muestras independientes de igual tamao de hombres y


mujeres, la opinin de acuerdo o desacuerdo con algn tema de su inters, a travs del
contraste de una hiptesis, en la se establezca si existen diferencias de opinin entre los
hombres y mujeres sobre el tema de inters consultado. Interprete los resultados a que

INFERENCIA ESTADISTICA

diere lugar este caso. Para dar respuesta a este caso utilice los pasos para el contraste de
una hiptesis.
Se desea contrastar la opinin de un grupo de hombre con uno de mujeres sobre el consumo o no del
cigarrillo. El tamao de la muestra para ambos grupos fue establecido en n=20, nos dispondremos a
establecer si hay diferencias significativas entre ambos sexos. Con base a los resultados obtenidos.

Estableceremos nuestras variables


X: sexo
Y: Fumador(s/n)

6. Establezca las consideraciones que deben hacerse para seleccionar entre un modelo
paramtrico o su correspondiente No paramtrico.
Como es conocido, los modelos de Anlisis de Varianza para su aplicacin requieren del cumplimiento
de supuestos tericos como la aleatoriedad, independencia, normalidad y homogeneidad de varianzas
de las poblaciones en estudio y para que sean vlidos los resultados obtenidos, es necesario que se
cumplan, de ah la necesidad de verificarlos y ante el incumplimiento de los mismo, la mayora de las
veces lo que se hace es transformar los datos. y en muy pocos casos se aplican modelos no
paramtricos.
Por otra parte, los modelos no paramtricos comenzaron a desarrollarse en los aos 40 del siglo pasado
en estudios vinculados con las ciencias de la conducta y sociales y a diferencias de los modelos
paramtricos, no hacen muchas ni tan poderosas suposiciones acerca de las poblaciones en estudio, ya
que en general asumen que las muestras sean aleatorias, los resultados de cada observaciones sean
independientes y que la/o las variables en estudio, en caso de ser cuantitativas, sean continuas, pero no
exigen respecto a la forma de la distribucin de probabilidad de las mismas.

7. Una de las opciones que tiene la estadstica para realizar inferencia sobre los parmetros de
una poblacin es la prueba de hiptesis. Explique las ventajas y desventajas con respecto al otro
mtodo de estimacin.
Las caractersticas que hacen de un estimador un buen mtodo
1. Imparcialidad. Se refiere al hecho de que una media de muestra es un estimador no sesgado de
una media de poblacin, porque la media de distribucin de muestreo de las medias de muestras
tomadas de la misma poblacin es igual a la media de la poblacin misma. Podemos decir que

INFERENCIA ESTADISTICA

una estadstica es un estimador imparcial (o no sesgado) si, en promedio, tiende a tomar valores
que estn por encima del parmetro de la poblacin y la misma extensin con la que tiende a
asumir valores por debajo del parmetro de poblacin que se est estimando.
2. Eficiencia. Se refiere al tamao del error estndar de la estadstica. Si comparamos dos
estadsticas de una muestra del mismo tamao y tratamos de decidir cul de ellas es un
estimador ms eficiente, escogeramos la estadstica que tuviera el menor error estndar o la
menor desviacin estndar de la distribucin de muestreo. Tiene sentido pensar que un
estimador con un error estndar menor (con menos desviacin) tendr una mayor oportunidad
de producir una estimacin ms cercana al parmetro de poblacin que se est considerando.
3. Coherencia. Una estadstica es un estimador coherente de un parmetro de poblacin si al
aumentar el tamao de la muestra, se tiene casi la certeza de que el valor de la estadstica se
aproxima bastante al valor del parmetro de la poblacin. Si un estimador es coherente, se
vuelve ms confiable si tenemos tamaos de muestras ms grandes.
4. Suficiencia. Un estimador es suficiente si utiliza una cantidad de la informacin contenida en la
muestra que ningn otro estimador podra extraer informacin adicional de la muestra sobre el
parmetro de la poblacin.
8. Los dos mtodos No paramtrico para realizar una bondad de ajuste de los datos de una
variable con respecto a una distribucin de probabilidad son: El de Chi-cuadrado y el de
Kolmogorov - Smirnov. Explique en que condiciones debe usarse cada uno de ellos.
Chi-cuadrado
Esta prueba puede utilizarse incluso con datos medibles en una escala nominal. La hiptesis
nula de la prueba Chi-cuadrado postula una distribucin de probabilidad totalmente
especificada como el modelo matemtico de la poblacin que ha generado la muestra.
Cuando las observaciones de una investigacin corresponden a muestras independientes y las
mediciones se tienen en escala nominal.
la prueba de ji cuadrada es el procedimiento de eleccin para el contraste de hiptesis. Esta
prueba estadstica se emplea en el anlisis de dos o ms grupos y de dos o ms variables.
"ji-cuadrado" o prueba de es considerada como una prueba no paramtrica que mide la
discrepancia entre una distribucin observada y otra terica.
La frmula que da el estadstico es la siguiente:

O
Cuanto mayor sea el valor de 2, menos verosmil es que la hiptesis sea correcta. De la misma
forma, cuanto ms se aproxima a cero el valor de chi-cuadrado, ms ajustadas estn ambas
distribuciones.

INFERENCIA ESTADISTICA

La prueba de Chi-cuadrado permite calcular al probabilidad de obtener resultados que


nicamente por efectos del azar, que se desvan de las expectativas en la magnitud observadas si
el modelo es correcto.

Kolmogorov Smirnov
Para Kolmogorov Smirnov, se necesita es que las mediciones se encuentren al menos en una
escala de intervalo. Se necesita que la medicin considerada sea bsicamente continua. Adems
dicha prueba es aplicable cualquiera sea el tamao de la muestra.
la prueba Kolmogrov-Smirnov es ms sensible a los valores cercanos a la mediana que a los
extremos de la distribucin.
La prueba de Smirnov - Kolmogorov puede aplicarse para tamaos de muestra pequeos, lo que
no sucede con la chi cuadrado.
Adems, la prueba S-K es ms poderosa que la Ji dos, es decir, cuando se rechaza la hiptesis
nula, se tiene una mayor confiabilidad en dicho resultado.
La prueba S-K debe usarse cuando la variable de anlisis es continua. Sin embargo, si la prueba
se usa cuando la distribucin de la poblacin no es continua, el error que ocurre en la
probabilidad resultante est en la direccin segura. Es decir, cuando se rechaza la hiptesis nula,
tenemos verdadera confianza en la decisin.
9. El anlisis de varianza es una tcnica estadstica utilizada para medir el efecto que tiene cada
uno de los niveles en que se clasifica una variable sobre otra variable que representa las repuestas
a las mediciones realizadas una experimentacin. Explique las condiciones que se deben imponer
a las dos variables y los supuestos que deben cumplirse para que tenga validez el uso de esta
tcnica.
El anlisis de la varianza es un mtodo para comparar dos o ms medias, que es necesario porque
cuando se quiere comparar ms de dos medias es incorrecto utilizar repetidamente el contraste basado
en la t de Student por dos motivos:

En primer lugar, y como se realizaran simultnea e independientemente varios contrastes de


hiptesis, la probabilidad de encontrar alguno significativo por azar aumentara. En cada
contraste se rechaza la H0 si la t supera el nivel crtico, para lo que, en la hiptesis nula, hay una
probabilidad. Si se realizan m contrastes independientes, la probabilidad de que, en la
hiptesis nula, ningn estadstico supere el valor)crtico es (1 - m), por lo tanto, la
probabilidad de que alguno lo supere es 1 - (1 - m, que para valores m. Una primera solucin,
denominada prximos a 0 es aproximadamente igual a de mtodo de Bonferroni, consiste en
bajar el valor /m, aunque resulta un mtodo muy conservador., usando en su lugar de.

INFERENCIA ESTADISTICA

En segundo lugar, en cada comparacin la hiptesis nula es que las dos muestras provienen de
la misma poblacin, por lo tanto, cuando se hayan realizado todas las comparaciones, la
hiptesis nula es que todas las muestras provienen de la misma poblacin y, sin embargo, para
cada comparacin, la estimacin de la varianza necesaria para el contraste es distinta, pues se ha
hecho en base a muestras distintas.

10. Existen dos tipos de modelo de anlisis de varianza: de efectos fijos y de efectos aleatorios.
Explique el significado cada uno de ellos en un anlisis de varianza.
El ANALISIS DE VARIANZA, consiste en comparar tres o ms medias de una muestra para
identificar su homogeneidad o variabilidad.
Del anlisis de varianza, podemos decir que esta tcnica estadstica, normalmente es utilizada para
analizar resultados en la investigacin con diseos experimentales y cuasi-experimentales; muchas
veces necesitamos comparar dos o ms distribuciones que corresponden a variaciones de una misma
variable dependiente, afectada por una o ms variables independientes.
Tericamente es posible dividir la variabilidad del resultado de un experimento en dos partes: la
originada por factores o tratamientos que influyen directamente en el resultado del experimento, y la
producida por el resto de factores desconocidos o no controlables, que se conoce con el nombre de
error experimental
Un modelo de anlisis de varianza es de efectos fijos cuando los resultados obtenidos slo son
vlidos para esos determinados niveles del factor estudiado y lo que ocurra a otros niveles del factor
puede ser diferente.
Adems este modelo los datos provienen de poblaciones normales las cuales podran diferir nicamente
en sus medias. Asume que el experimentador ha considerado para el factor todos los posibles valores
que ste puede tomar. Ejemplo: Si el gnero del individuo es un factor, y el experimentador ha incluido
tanto individuos masculinos como femeninos, el gnero es un factor fijo en el experimento.
Un modelo de anlisis de varianza es de efectos aleatorios cuando los resultados obtenidos son
vlidos para cualquier nivel del factor estudiado.
Adems este modelo describe una jerarqua de diferentes poblaciones cuyas diferencias son restringidas
por la jerarqua. En un factor se ha considerado tan slo una muestra de los posibles valores que ste
puede tomar. Ejemplo: Si el mtodo de enseanza es analizado como un factor que puede influir sobre
el nivel de aprendizaje y se ha considerado en el experimento slo tres de muchos ms mtodos
posibles, el mtodo de enseanza es un factor aleatorio en el experimento
La manera ms sencilla de distinguir entre ambos modelos es pensar que, si se repitiera el estudio un
tiempo despus, en un modelo I las muestras seran iguales (no los individuos que las forman) es decir
corresponderan a la misma situacin, mientras que en un modelo II las muestras seran distintas.
NOTA

INFERENCIA ESTADISTICA

En el modelo con efectos fijos se busca estimar los efectos y compararlos entre si. Aqu en el modelo
de efectos aleatorios, lo fundamental es estimar las varianzas s2ay s2e y compararlas. Lo anterior se
llama estimacin de las componentes de la varianza. Observamos que en el modelo con efectos
aleatorios las observaciones yi j no son todas independientes entre si y Var (yi j) = s2a+s2e, Var ( yi) =
s2a+s2eni. Ms precisamente: yi j =

CONCLUSIONES
-

El trabajo nos sirvi para identificar el contenido de la unidad II Inferencia Estadstica, as


como la apropiacin de sus conceptos.

El anlisis de varianza sirve para comparar si los valores de un conjunto de datos numricos son
significativamente distintos a los valores de otro o ms conjuntos de datos. El procedimiento
para comparar estos valores est basado en la varianza global observada en los grupos de datos
numricos a comparar. Tpicamente, el anlisis de varianza se utiliza para asociar una
probabilidad a la conclusin de que la media de un grupo de puntuaciones es distinta de la
media de otro grupo de puntuaciones.

Con el anlisis de la varianza se puede conocer la homogeneidad que existe entre tres o ms
medias mustrales determinando la variabilidad entre estas medias.

La Estadstica no Paramtricas en contraste con la Estadstica Paramtricas no se ocupa de


hacer estimaciones y pruebas de hiptesis acerca de parmetros y no depende del conocimiento
de cmo se distribuye la poblacin. De esto se deduce que los mtodos no parametritos son
convenientes si no se conoce la distribucin de la poblacin, por ejemplo, en una investigacin
exploratoria, otra ventaja es que, por lo general, los clculos necesarios son ms sencillos.

INFERENCIA ESTADISTICA

BIBLIOGRAFIA

http://www.monografias.com/trabajos16/confiabilidad/confiabilidad.shtml Factores Universales


para Determinar la Confiabilidad. Ing. Ivn Escalona Ingeniera Industrial UPIICSA IPN.

http://www.gestiopolis.com/finanzas-contaduria/estadistica-intervalos-de-confianza.htm
U n i v e r s i d a d A u t n o m a d e l N o r e s t e . Ariana Martnez Gonzlez;
Esmeralda Lira Herrera y Vernica Narro Chvez.

http://www.monografias.com/trabajos12/muestam/muestam.shtml
Snchez.

http://books.google.com.co/books?
id=ehmBzuuZdzUC&pg=PA313&lpg=PA313&dq=procedimientos+de
+la+estimaci%C3%B3n&source=bl&ots=-cYEyZKrp8&sig=pKD6jTRKmX8gc7P7PsFSHkmHwQ&hl=es&ei=51zGSe3YG5PFtge7dSvBQ&sa=X&oi=book_result&resnum=5&ct=result#PPA313,M1
Estadstica para ADMINISTRACION y ECONOMIA.

Ms.C:

Arsenio

Celorrio