Está en la página 1de 9

INSTITUTO TECNOLOGICO SUPERIOR

DE CINTALAPA

ESTADISTICA

2°ï

DOCTOR:LUDWI RODRIGUEZ

INTEGRANTES

Keving Martínez Cartas


José Manuel Hernández Camacho
Mitzi Escobar Medina

CINTALAPA CHIAPAS
CAMPANA DE GAUS (DISTRIBUCION NORMAL)
En estadística y probabilidad se llama distribución normal, distribución de
Gauss, distribución gaussiana o distribución de Laplace-Gauss, a una de
las distribuciones de probabilidad de variable continua que con más frecuencia
aparece en estadística y en la teoría de probabilidades.1
La gráfica de su función de densidad tiene una forma acampanada y es simétrica
respecto de un determinado parámetro estadístico. Esta curva se conoce
como campana de Gauss y es el gráfico de una función gaussiana.2
La importancia de esta distribución radica en que permite modelar numerosos
fenómenos naturales, sociales y psicológicos. 3Mientras que los mecanismos que
subyacen a gran parte de este tipo de fenómenos son desconocidos, por la
enorme cantidad de variables incontrolables que en ellos intervienen, el uso del
modelo normal puede justificarse asumiendo que cada observación se obtiene
como la suma de unas pocas causas independientes.
De hecho, la estadística descriptiva sólo permite describir un fenómeno, sin
explicación alguna. Para la explicación causal es preciso el diseño experimental,
de ahí que al uso de la estadística en psicología y sociología sea conocido
como método correlacional.
La distribución normal también es importante por su relación con la estimación
por mínimos cuadrados, uno de los métodos de estimación más simples y
antiguos.
Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el
modelo de la normal son:

 caracteres morfológicos de individuos como la estatura;


 caracteres fisiológicos como el efecto de un fármaco;
 caracteres sociológicos como el consumo de cierto producto por un mismo
grupo de individuos;
 caracteres psicológicos como el cociente intelectual;
 nivel de ruido en telecomunicaciones;
 errores cometidos al medir ciertas magnitudes;
 etc.
La distribución normal también aparece en muchas áreas de la propia estadística.
Por ejemplo, la distribución muestral de las medias muestrales es
aproximadamente normal, cuando la distribución de la población de la cual se
extrae la muestra no es normal.4 Además, la distribución normal maximiza
la entropía entre todas las distribuciones con media y varianza conocidas, lo cual
la convierte en la elección natural de la distribución subyacente a una lista de
datos resumidos en términos de media muestral y varianza. La distribución normal
es la más extendida en estadística y muchos tests estadísticos están basados en
una "normalidad" más o menos justificada de la variable aleatoria bajo estudio.
En probabilidad, la distribución normal aparece como el límite de varias
distribuciones de probabilidad continuas y discretas.
La distribución normal fue
presentada por primera vez
por Abraham de Moivre en un
artículo del año 1733,5 que fue
reimpreso en la segunda edición de
su The Doctrine of Chances, de
1738, en el contexto de cierta
aproximación de la distribución
binomial para grandes valores de n.
Su resultado fue ampliado
por Laplace en su libro Teoría
analítica de las
probabilidades (1812), y en la
actualidad se llama Teorema de De
Moivre-Laplace.
Laplace usó la distribución normal
en el análisis de errores de
experimentos. El
importante método de mínimos
cuadrados fue introducido
por Legendre en 1805. Gauss, que afirmaba haber usado el método desde 1794,
lo justificó rigurosamente en 1809 asumiendo una distribución normal de los
errores. El nombre de Gauss se ha asociado a esta distribución porque la usó con
profusión cuando analizaba datos astronómicos6 y algunos autores le atribuyen un
descubrimiento independiente del de De Moivre.7Esta atribución del nombre de la
distribución a una persona distinta de su primer descubridor es un claro ejemplo
de la ley de Stigler.
El nombre de "campana" viene de Esprit Jouffret que usó el término "bell surface"
(superficie campana) por primera vez en 1872 para una distribución normal
bivariante de componentes independientes. El nombre de "distribución normal" fue
otorgado independientemente por Charles S. Peirce, Francis Galton y Wilhelm
Lexis hacia 1875.[cita  requerida] A pesar de esta terminología, otras distribuciones de
probabilidad podrían ser más apropiadas en determinados contextos; véase la
discusión sobre incidencia, más abajo

https://es.wikipedia.org/wiki/Distribuci%C3%B3n_normal
INTERVALOS DE CONFIANZA PARA LA MEDIA DE LA POBLACION
En estadística, se llama intervalo de confianza a un par o varios pares de números
entre los cuales se estima que estará cierto valor desconocido con un determinado
nivel de confianza. Formalmente, estos números determinan un intervalo, que se
calcula a partir de datos de una muestra, y el valor desconocido es un parámetro
poblacional.
El nivel de confianza representa el porcentaje de intervalos que tomados de 100
muestras independientes distintas contienen en realidad el valor desconocido. En
estas circunstancias, α es el llamado error aleatorio o nivel de significación, esto
es, el número de intervalos sobre 100 que no contienen el valor1
El nivel de confianza y la amplitud del intervalo varían conjuntamente, de forma
que un intervalo más amplio tendrá más probabilidad de acierto (mayor nivel de
confianza), mientras que para un intervalo más pequeño, que ofrece una
estimación más precisa, aumenta su probabilidad de error.
Para la construcción de un determinado intervalo de confianza es necesario
conocer la distribución teórica que sigue el parámetro a estimar, θ.2 Es habitual
que el parámetro presente una distribución normal. También pueden construirse
intervalos de confianza con la desigualdad de Chebyshev.
En definitiva, un intervalo de confianza al 1 - α por ciento para la estimación de un
parámetro poblacional θ que sigue una determinada distribución de probabilidad,
es una expresión del tipo [θ1, θ2] tal que P[θ1 ≤ θ ≤ θ2] = 1 - α, donde P es
la función de distribución de probabilidad de θ.
Intervalo de confianza de la media de una población[editar]
De una población de media  y desviación típica  se pueden
tomar muestras de  elementos. Cada una de estas muestras tiene a su vez una
media. Se puede demostrar que la media de todas las medias muestrales coincide
con la media poblacional:3 
Pero además, si el tamaño de las muestras es lo suficientemente grande, 4 o la
distribución poblacional es normal, la distribución de medias muestrales es,
prácticamente, una distribución normal (o gaussiana) con media μ y una
desviación típica dada por la siguiente expresión: . Esto se representa como
sigue: . Si estandarizamos, se sigue que: 
En una distribución Z ~ N(0, 1) puede calcularse fácilmente un intervalo dentro del
cual caigan un determinado porcentaje de las observaciones, esto es, es sencillo
hallar z1 y z2 tales que P[z1 ≤ z ≤ z2] = 1 - α, donde (1 - α)·100 es el porcentaje
deseado (véase el uso de las tablas en una distribución normal).
En esta distribución normal de medias se puede calcular el intervalo de confianza
donde se encontrará la media poblacional si solo se conoce una media muestral
(con una confianza determinada. Habitualmente se manejan valores de confianza
del 95 y del 99 por ciento. A este valor se le llamará  (debido a que  es el error que
se cometerá, un término opuesto).
Para ello se necesita calcular el punto  —o, mejor dicho, su versión
estandarizada  o valor crítico— junto con su "opuesto en la distribución" . Estos
puntos delimitan la probabilidad para el intervalo, como se muestra en la siguiente
imagen:

Dicho punto es el número tal que:


Y en la versión estandarizada se cumple que:
Así:
De lo cual se obtendrá el intervalo de confianza:
Obsérvese que el intervalo de confianza viene dado por la media muestral el
producto del valor crítico  por el error estándar .
Si no se conoce y n es grande (habitualmente se toma n ≥ 30):5
Aproximaciones para el valor  para los niveles de confianza estándar son 1,96 para  y 2,576
para .6
Intervalo de confianza de una proporción[editar]
El intervalo de confianza para estimar una proporción p, conocida como una
proporción muestral pn de una muestra de tamaño n, a un nivel de confianza del
(1-α)·100% es:
En la demostración de estas fórmulas están involucrados el Teorema Central del
Límite y la aproximación de una binomial por una normal.7

Ejemplo práctico[editar]
Una máquina llena tazas con helado, y se supone que está ajustada para verter la
cantidad de 250 g. Como la máquina no puede llenar cada taza con exactamente
250 g, el contenido que se añade a cada taza individual presenta cierta variación y
se le asigna una variable aleatoria X. Se asume que esta variación se ajusta a
una distribución normal de alrededor de la cantidad promedio deseada de 250 g,
con una desviación estándar de 2.5 g.
Para determinar si la máquina está adecuadamente calibrada, se toma una
muestra aleatoria de n = 25 tazas de helado para pesarlas. La medición resultante
es X1, ..., X25, una muestra aleatoria procedente de  X.
Para μ, es suficiente con dar una estimación. El estimador adecuado es la media
muestral:
La muestra señala los pesos reales x1, ..., x25, con media:
Al tomar otra muestra de 25 tazas, es esperable, de igual manera, que la masa
presente valores como 250.4 o 251.1 gramos. Un valor medio muestral de
280 gramos en cambio, sería extremadamente excepcional si el contenido medio
de las tazas está en la práctica cerca de 250 gramos. Hay un intervalo en torno al
valor observado de 250.2 gramos de la media muestral, para el que si la media de
la población completa efectivamente toma un valor en este rango, los datos
observados no podrían ser considerados particularmente inusuales. Tal intervalo
se denomina intervalo de confianza para el parámetro μ. ¿Cómo se calcula tal
intervalo? Los extremos del intervalo deben calcularse a partir de la muestra para
que resulten funciones estadísticas de la muestra X1, ..., X25 y de este modo son
variables aleatorias a su vez.
En este caso, se determinarán los extremos considerando la media
muestral X que como proviene de una distribución normal está también
normalmente distribuida con la misma esperanza μ, pero con un error estándar de:
Por estandarización, se obtiene una variable aleatoria:
dependiente del parámetro μ que debe ser estimado, pero con una distribución
normal estándar independiente del parámetro μ. Por lo tanto, es posible hallar
números −z y z, independientes de μ, entre los cuales está Z con probabilidad
1 − α, una medida de cuán confiados queremos estar.
Tomamos 1 − α = 0.95, por ejemplo. Así, tenemos:

https://es.wikipedia.org/wiki/Intervalo_de_confianza

INTERVALOS DE CONFIANZA DE UNA MUSTRA GRANDE DE LA


POBACION TOTAL
Intervalos de confianza En esta sección vamos a proponer un procedimiento para
añadir la información de la incertidumbre que tenemos sobre la estimación
realizada con la muestra. Dicha incertidumbre se describirá mediante la utilización
de un intervalo de valores dentro de los cuales estará el valor poblacional μ con
cierta probabilidad. Un ejemplo de este tipo de resultados sería decir que la
estimación de la media es μˆ = 100 y que con una probabilidad del 95 % el valor
verdadero μ estará en el intervalo μ ∈ (95, 105). Cuanto más estrecho sea dicho
intervalo, menos incertidumbre existirá sobre el verdadero valor del parámetro. El
intervalo sobre el valor del parámetro, que se construye utilizando las propiedades
del estimador, se denomina intervalo de confianza. A la probabilidad de que con la
información de la muestra, el parámetro esté dentro del intervalo se le denomina
nivel de confianza.

Lo habitual es realizar intervalos de confianza con nivel de confianza del 95 %. Al


valor numérico que se obtiene en la estimación se le denomina también
estimación puntual, mientras que al uso de un intervalo de confianza se le
denomina estimación por intervalo. Veamos a continuación cómo se construyen
intervalos de confianza para μ, basado en el uso de muestras grandes.

De (6.1) tenemos que, si n es grande, podemos estandarizar obteniendo una


normal estándar. Z = X¯ − μ σ/√n ∼ N(0, 1). (6.3) Llamemos zα/2 al valor de la
N(0, 1) que deja un área a la derecha de valor α/2. Entonces, por la simetría de la
normal, a la izquierda de −zα/2 quedará un área igual a α/2. Por tanto P ¡ −zα/2 <Z
La expresión (6.5) quiere decir que tenemos una probabilidad 1 − α de seleccionar
una muestra tal que μ esté entre los valores x¯ ± zα/2σ/√n. Por tanto dada una
muestra, podemos construir el siguiente intervalo de confianza de nivel 100 × (1 −
α) % para μ IC(1 − α) : μ ∈ ½ x¯ ± zα/2 σ √n ¾ . (6.6) El intervalo de confianza
(6.6) se interpreta de la siguiente manera: Si tuviésemos un número infinito de
muestras de la población, y construyésemos con cada una un intervalo como en
(6.6), entonces el 100(1-α) % de dichos intervalos contendría al verdadero valor
del parámetro μ. En la práctica, sólo tenemos una muestra, y por eso sólo
podemos construir un intervalo. No tiene entonces sentido interpretar el intervalo
como la región en la que estará μ con probabilidad (1-α), puesto que en el
intervalo calculado, la media μ estará o no estará. Por eso, para expresar nuestra
incertidumbre sobre si el intervalo calculado con nuestra muestra contiene o no al
parámetro μ emplearemos la palabra nivel de confianza. Nótese que si la muestra
es suficientemente grande (por ejemplo, más de 30 datos), el intervalo (6.6) es
válido para cualquier variable aleatoria X, sea o no normal. Por intervalo válido
queremos decir que su nivel confianza es realmente 100 × (1 − α) %. Si la muestra
es pequeña, entonces X¯ tendrá una distribución en el muestreo que no será
normal, y por tanto no tendremos ninguna garantía en que (6.6) tenga el nivel de
confianza deseado. Es importante darse cuenta de que si X es normal, X¯ es
siempre normal, para cualquier tamaño muestral. Por tanto, si hay normalidad
(6.6) es siempre un intervalo exacto. Ejemplo 1 Una muestra aleatoria extraída de
una población con σ2 = 100 de n = 144 observaciones tiene una media muestral
X¯ = 160. se pide: (a) Calcular un intervalo de confianza del 95 % para la media
poblacional μ. (b) Calcular un intervalo de confianza del 90 % para la media
poblacional μ. SOLUCIÓN: Como se conoce la varianza de la población, Z = X¯−μ
σ/√n será una variable N(0, 1), luego P µ −zα/2 ≤ X¯ − μ σ/√n ≤ zα/2 ¶ = 1 − α Por
tanto el intervalo es: x¯ − zα/2 σ √n ≤ μ ≤ x¯ + zα/2 σ √n (6.7) (a) Un nivel de
confianza del 95 % equivale a usar α = 0,05 y por tanto, zα/2 = 1,96. El intervalo
es entonces IC(95 %) : μ ∈ [158,36, 161,63] (b) Un nivel de confianza del 90 %,
equivale a usar α = 0,10 y por tanto zα/2 = 1,65. El nuevo intervalo es IC(90 %) : μ
∈ [158,625, 161,375]

http://www.est.uc3m.es/esp/nueva_docencia/comp_col_leg/ing_tec_inf_gestion/
estadistica/Documentacion/Temario_sinpres/InferMuestrasGrandes/
Apuntes_InferGrandes.pdf

También podría gustarte