Está en la página 1de 76

Unidad 4

Estadística Inferencial

Christian Mejía
cimejia@uce.edu.ec

Universidad Central del Ecuador

Facultad de Ingeniería en Geología, Minas, Petróleos y Ambiental

Marzo, 2017

1
Estadística inferencial
Contenido

1 Introducción
2 Elementos y Cálculo de Probabilidad
3 Variables aleatorias: discretas y continuas
1 Función de Probabilidad
2 Función de Densidad de Probabilidad
3 Función de Probabilidad y Densidad Acumuladas
4 Esperanza y Varianza de una variable aleatoria
4 Distribuciones de Probabilidad: discretas y continuas
5 Inferencia Estadística
1 Procedimiento de Estimación
2 Estimadores y Parámetros
3 Teorema Central del Límite
4 Métodos de Estimación: Puntual e Intervalos de Conanza
5 Tamaño Muestral

2
Estadística inferencial
Introducción

Estadística Descriptiva + Probabilidades ≡ Inferencia Estadística

La Estadística inferencial es análoga a la descriptiva pero con


probabilidades, relaciona cada valor con su probabilidad en
lugar de su frecuencia.
Se trata con frecuencias probables o teóricas (antes de
tomar la muestra) a diferencia de frecuencias reales (después
de tomar la muestra). P(X ) reemplaza a hi
La estimación y la toma de decisiones se sustentan en la teoría
de probabilidades con un margen de error conocido.

3
Estadística inferencial
Elementos de Probabilidad

Conceptos básicos:

Hecho o fenómeno aleatorio


Espacio muestral
Evento o suceso
Probabilidad: denición y axiomas
Variable aleatoria

4
Estadística inferencial
Elementos de Probabilidad
Hecho o fenómeno aleatorio
Aquella experiencia que trae consigo un resultado que no se sabe a
ciencia cierta cuál será; es decir, no hay certeza del resultado, es
impredecible.

Ejemplos: Lo más sencillo es pensar en los juegos de azar y


aquellos procesos de la naturaleza que no se desarrollan de igual
forma.
Lanzar al aire una moneda una sola vez y observar el resultado; lanzar al
aire una moneda tres veces; dos dados son lanzados y se cuenta la suma
de sus caras; lanzar un dado hasta obtener el número seis, etc.
Registrar el color de los primeros 4 vehículos que pasan cada 10 minutos;
registrar el monto total depositado en una agencia bancaria cada hora;
mineralización de un yacimiento; proceso que da lugar a un reservorio de
petróleo; registrar la temperatura del ambiente cada media hora, etc.
5
Estadística inferencial
Elementos de Probabilidad

Espacio muestral (Ω)


Conjunto de todos los resultados posibles obtenidos a partir de
un experimento o fenómeno aleatorio.

Ejemplos:
Ω = {C , S}
Ω = {SSS, SSC , SCS, CSS, SCC , CSC , CCS, CCC }
Ω = {(rojo, verde, negro, blanco), (rojo, negro, blanco, azul), . . . }
Ω = {6, x 6, xx 6, xxx 6, xxxx 6, xxxxx 6, . . . }
Ω = {1200.35, 34564.17, 0, 17.18, 272634.0, . . . }
Ω = {22o C , 22.2o C , 23.17o C , 22.8o C , . . . }
Estadística inferencial
Elementos de Probabilidad

Evento o suceso
Un suceso es cualquier evento observable tras la realización de un
experimento. Cualquier subconjunto del espacio muestral.

Ejemplos:
S = {C } si el resultado de lanzar una moneda es cara
S = {3, 5, 6, 6, 5, 2, 3, 2} si se tira un dado 8 veces
S = {2.0; 3.3; 2.1; 2.5; 2.9} si se miden 4 cristales de
feldespato de un granito
S = {0.39; 1.02; 0.50; 0.30; 0.89} si se analizan 5 muestras por
cobre

7
Estadística inferencial
Elementos de Probabilidad
La PROBABILIDAD es una forma numérica de medir la
incertidumbre. Es decir, una forma de medir la facilidad o
dicultad de que un suceso ocurra.
La Teoría de la Probabilidad nos dirá que para medir la ocurrencia
de un evento existen tres formas equivalentes:
Mediante el concepto de probabilidad clásica
Mediante el concepto de frecuencia relativa

Sea como porcentaje o como fracción, estaremos "midiendo" la


ocurrencia de un evento en particular, es decir la medida de un
resultado favorable respecto a los resultados posibles.
La forma de medir la ocurrencia de un determinado evento S ,
dentro de un espacio muestral Ω, asociado a un experimento ξ ,
constituye la probabilidad de ocurrencia de dicho evento, denotado
por P(S).
8
Estadística inferencial
Elementos de Probabilidad

Definición clásica (a priori )

En un experimento ξ , la probabilidad de un evento S es igual al


número de casos favorables de la ocurrencia de S sobre el número
de casos posibles (Regla de Laplace).
k
P(S) =
n

donde k es el número de casos favorables de S en una serie de n


casos posibles siempre que todos los casos sean equiprobables.
Para calcularla, es necesario conocer antes de realizar el
experimento aleatorio, el número de resultados posibles.
Estadística inferencial
Elementos de Probabilidad

Ejemplos:
Para la experiencia aleatoria tirada de una moneda perfecta, cada
uno de los dos resultados posibles posee una probabilidad de 1/2.
Para la experiencia aleatoria tirada de un dado perfecto, cada uno
de los resultados posibles posee una probabilidad de 1/6.
La probabilidad de que al sacar dos naipes consecutivos de una
baraja, los dos sean reyes es:
Si se sacan con restitución los resultados de las dos
extracciones son independientes:
4 4 1
P(S) = 40
x 40 = 100

Si se sacan sin restitución:


4 3 1
P(S) = P(naipeIrey )xP(naipeIIrey |naipeIrey ) = 40
x 39 = 130

10
Estadística inferencial
Elementos de Probabilidad

Axiomas de Probabilidad:
Sea ξ un experimento aleatorio, que genera un espacio muestral Ω,
compuesto por eventos. La probabilidad de un evento S es un
número real, P(S), que se le asigna a cada uno de los eventos, tal
que cumplen con los siguientes axiomas:
1 P(S) ≥ 0
No existen probabilidades negativas
Si P(S) = 0 entonces el suceso es imposible
Si P(S) = 1 entonces el suceso es seguro
2 P(Ω) = 1
3 Si A ∩ B = ∅, entonces P(A ∪ B) = P(A) + P(B)

11
Estadística inferencial
Elementos de Probabilidad

A partir de los axiomas anteriores, se desprenden propiedades


importantes como:
1 P(∅) = 0
2 Si A ∩ B 6= ∅, entonces P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
3 P(S̄) = 1 − P(S)
4 P(A ∩ B) = P(A) ∗ P(B), entonces A y B son
independientes.
5 P(A ∩ B) = ∅, A y B son mutuamente excluyentes

12
Estadística inferencial
Elementos de Probabilidad

La asignación clásica está restringida a escasos experimentos


aleatorios (en general a juegos de azar).
Si el problema consiste en conocer la probabilidad de que un
autobús tarde más de veinte minutos en la realización de un
trayecto, la regla de Laplace no es aplicable.
Para la mayoría de casos se necesita aplicar otra asignación: la
denición empírica o frecuencista.

13
Estadística inferencial
Elementos de Probabilidad

Definición empírica (a posteriori )

La probabilidad de un suceso S se dene como el límite de la


frecuencia relativa que resultaría de considerar una serie innita
de experiencias.

nS
P(S) = lim
n→∞ n

donde nS es el número de veces que ocurre S en una serie de n


repeticiones del experimento.

La probabilidad de un suceso cuaquiera, S , tiende a coincidir con la


frecuencia experimental cuando el número de repeticiones del
experimento es lo sucientemente grande.
Estadística inferencial
Elementos de Probabilidad

Por ejemplo, la precipitación caída en una cuenca anualmente será


semejante año a año. Esta regularidad es mayor si se considera
gran cantidad de observaciones. Cuando esto sucede, la frecuencia
de ocurrencia, expresada como frecuencia relativa, se transforma en
la probabilidad de ocurrencia. Esta vericación experimental
conduce a interpretar la probabilidad como el límite de la frecuencia
relativa resultante de una serie innita de experiencias.

15
Estadística inferencial
Elementos de Probabilidad
Ejemplo:

La tabla presenta la distribución de frecuencias de las rocas


encontradas en el fondo de un río, a partir de eso decimos que
existe una probabilidad de 0,55 de encontrar cuarzo (11/20).

Esta denición frecuentista de la probabilidad se llama también


probabilidad a posteriori ya que sólo se puede dar la probabilidad
de un suceso después de repetir y observar un gran número de
veces el experimento. Algunos autores las llaman probabilidades
teóricas.
16
Estadística inferencial
Variable aleatoria

Variable aleatoria
Cualquier hecho que proveniente de un experimento o
fenómeno aleatorio.
Propiedades:
No es posible conocer con certeza el valor que tomará al ser
medida o determinada.
Debido al azar, puede tomar valores diferentes.
Se caracteriza porque si se repite sucesivamente el experimento
en las mismas condiciones, el resultado puede ser distinto.
Representación:
Se utilizan letras mayúsculas para representar variables aleatorias:
X ,Y ,W ; mientras que los valores de la variable aleatoria se notarán
con minúsculas, x , y , w , respectivamente.
17
Estadística inferencial
Variable aleatoria
Cuando se analiza una variable aleatoria, se desearía conocer con
exactitud el valor que tomaría la variable si se realizara el
experimento. Sin embargo, esto es imposible y genera
incertidumbre.
Ejemplo:
Sea ξ el fenómeno aleatorio: lanzar al aire una moneda tres veces.
El espacio muestral es:
Ω = {SSS, SSC, SCS, CSS, SCC, CSC, CCS, CCC}

Si denimos a X como la variable aleatoria que representa "el


número de veces que ocurra cara", los posibles valores que tome X
serán 0, 1, 2, 3. Por tanto el rango de X será:

RX = {0, 1, 2, 3}

18
Estadística inferencial
Variable aleatoria

Otros ejemplos:
Tiempo de vida útil de una computadora
Dureza de una probeta de hormigón
Número de accidentes laborales diarios en una ciudad
Cotización diaria en bolsa de un valor
Número de mensajes diarios recibidos en un teléfono móvil
El tamaño de cristales de feldespato
El contenido metálico de un mineral

Clasicación:
Variable aleatoria discreta (v.a.d.)
Variable aleatoria continua (v.a.c.)

19
Estadística inferencial
Variable aleatoria

Variable aleatoria discreta


Aquella que puede tomar sólo ciertos valores (puntuales) dentro de
un intervalo de los números reales, y entre dos valores
consecutivos no puede tomar ningún otro.

Ejemplos:
Las puntuaciones otorgadas por los jueces a los deportistas de
gimnasia como: 7.2, 8.7, 9.7, no puede ser la puntuación 8.74
u 8.747.
El número de terremotos al mes que se producen en una
región.
El número de bloques encima de la ley de corte en un
yacimiento.

20
Estadística inferencial
Variable aleatoria

Función de Probabilidad
Asigna a cada uno de los resultados posibles xi de la v.a.d. X , la
probabilidad de obtener dicho valor:

f (xi ) = P(X = xi )

Propiedades:
f (xi ) ≥ 0 para cualquier valor posible de X .
Siempre existe un valor de probabilidad para cada xi que pertenezca
al dominio de la variable.
P(X = xi ) = P(X = x1 ) + · · · + P(X = xn ) = 1
P P
f (xi ) =

21
Estadística inferencial
Variable aleatoria
Función de Probabilidad Acumulada
Sea X una v.a.d., la función de probabilidad acumulada Pac es:
xj
X
Pac (xj ) = P(X = x)
x=x1

Esta función permite calcular la probabilidad de que la v.a.d.


asuma un valor menor o igual que un número particular. Es una
función escalonada, se incrementa por saltos o escalones en cada
uno de los posibles valores de X .
Estadística inferencial
Variable aleatoria

Ejemplo:
Al lanzar dos monedas, el espacio muestral original es:
Ω = {SS, SC , CS, CC }

Cuando el resultado del experimento no ofrece directamente un


número, se realiza una codicación numérica de los resultados.

Tabulamos los resultados: 1 y a 2 será P(X=0), P(X=1) y


P(X=2), respectivamente.
Las variables aleatorias se
describen con su función de
probabilidad y con la función
de probabilidad acumulada.
La probabilidad asociada a 0, a

23
Estadística inferencial
Variable aleatoria
Esperanza matemática de una v.a.d.

Sea X una v.a.d., la esperanza matemática o valor esperado de X


se dene como:
n
X
µ = E (X ) = x1 P1 + x2 P2 + · · · + xn Pn = xi P(X = xi )
i=1

La esperanza para una v.a.d. es un valor medio ponderado de los


valores que puede asumir la variable X .

E (X ) = 1
24
Estadística inferencial
Variable aleatoria

Varianza de una v.a.d.

La varianza de una v.a.d. es una medida de la dispersión de los


valores que toma con respecto a la esperanza matemática.

La varianza de una v.a.d. X con función de probabilidad f (x) y


media µ es:
n
X
σ 2 = V (X ) = [(xi − µ)2 f (xi )]
i=1

σ 2 = V (X ) = E (X 2 ) − µ2
Estadística inferencial
Variable aleatoria

Variable aleatoria continua (v.a.c.)


Aquella que puede tomar todos los valores posibles dentro de un
intervalo de los números reales.

Ejemplos: Sea X una v.a.c. como:


La ley de un yacimiento
Concentración tóxica de un elemento en el agua
La longitud de un cristal
La distancia (en millas) entre la Tierra y la Luna es de
238857.1234... millones, y así sucesivamente dependiendo de
la precisión del dispositivo de medición.
Cualquier medida de tiempo, longitud, peso y volumen, tiene
un número incontable de valores posibles.

26
Estadística inferencial
Variable aleatoria

La función de probabilidades para una v.a.c. es entonces


continua en el sentido que su gráco es suave, no presenta saltos.
En las v.a.c. la probabilidad de que la variable tome un valor
concreto es cero.
Debido a la continuidad, la probabilidad de que X asuma cualquiera
de sus valores posibles es cero, así que la función de probabilidades
no es práctica. En su lugar se utiliza la función Densidad de
Probabilidad.
Esta curva puede considerarse una representación teórica que se
dene a partir de un modelo matemático de las potenciales
observaciones.

27
Estadística inferencial
Variable aleatoria
Función de Densidad de Probabilidad
Sea X una v.a.c., f (x) es función de densidad de probabilidad si:
1 f (x) ≥ 0, ∀x ∈ R
R∞
−∞ f (x) dx = 1
2
Rb
3 P(a ≤ X ≤ b) = f (x) dx a, b ∈ R
a

28
Estadística inferencial
Variable aleatoria

Por lo tanto, la función de densidad es una medida de la


concentración de probabilidad dentro de un intervalo.
Esta probabilidad se interpreta como un área (una integral) bajo la
curva de f (x) llamada densidad de probabilidad.
La función de densidad permite calcular la probabilidad que tomará
la variable entre dos valores de interés comprendido en el rango de
la variable.
No hay necesidad de integrar la función, el cálculo se basa en la
consulta de los valores dados en tablas.

29
Estadística inferencial
Variable aleatoria

Función de Distribución Acumulada


Siendo X una v.a.c. con una función de densidad f (u), la función
de distribución de X se dene como:
Z x
F (x) = P(X ≤ x) = f (u) du
−∞

Propiedades:
∀x ∈ R, F (x) ∈ [0, 1]
Si a < b → P(a < X < b) = F (a) − F (b)
lim F (x) = P(X < ∞) = 1
x→∞
P(X ≥ a) = 1 − P(X ≤ a) a ∈ R
Estadística inferencial
Variable aleatoria

Notas:
P(X = a) = 0 a ∈ R
P(a ≤ X ≤ b) = P(a < X < b) a, b ∈ R

Diferencias entre v.a.d. y v.a.c.


DISCRETA CONTINUA
Función de Probabilidad Función de Densidad de Probabilidad
Rb
P(X = a) = Pi P(X = a) = 0 y P(a ≤ X ≤ b) = a f (x) dx
Función Distribución de Probabilidad en v.a.d.
P(X ≤ xi ) = P(X = a) + P(X = b) + · · · + P(X = xi )
Función Distribución
Rx de Probabilidad en v.a.c.
P(X ≤ x) = −∞ f (u) du = se usan tablas

31
Estadística inferencial
Variable aleatoria

Esperanza matemática de una v.a.c.

Sea X una v.a.c. con función de densidad f (x), la esperanza


matemática o valor esperado de X se dene como:
Z ∞
µ = E (X ) = x f (x) dx
−∞
Estadística inferencial
Variable aleatoria
Varianza de una v.a.c.

Sea X una v.a.c. con función de densidad f (x) y media µ. La


varianza de X es:
Z ∞
2 2
σ = V (X ) = E [(X − µ) ] = (x − µ)2 f (x) dx
−∞

Se puede obtener una aproximación a la varianza con:


n
X
V (X ) = (xi − x̄)2 f (xi ) c
i=1

donde c es la amplitud del intervalo de clase.

Por tanto, la desviación estándar para ambos casos es:


p
V (X )
Estadística inferencial
Distribuciones Probabilísticas
Por qué son importantes las distribuciones de probabilidad?
Ayudan a modelizar el comportamiento de una variable aleatoria,
permitiendo a la inferencia estadística extraer conclusiones acerca
de una población a partir de una muestra.
Si la distribución real del conjunto de datos (muestra), es decir, los
datos observados, es cercana a la de una distribución de
probabilidad teórica, cuyas propiedades y características son
conocidas, muchos de los cálculos se pueden realizar en los datos
reales con base en la distribución teórica.
Si los datos se aproximan a una de estas distribuciones, su modelo
teórico se puede utilizar para propósitos de toma de decisiones.
Facilita el cálculo de probabilidades, ya que si sabemos que una
variable aleatoria sigue una determinada distribución, el cálculo de
probabilidad se reduce a manejo de tablas y fórmulas estándares.
34
Estadística inferencial
Distribuciones Probabilísticas

35
Estadística inferencial
Distribuciones Probabilísticas
Distribuciones de Probabilidad
Objeto matemático descrito a través de ecuaciones, que cumple
ciertas propiedades y que permite precisar:
Los posibles valores de una variable aleatoria;
Las probabilidades con las que la variable toma cualquier valor,
o conjunto de valores.

Distribuciones discretas de probabilidad (v.a.d.)


Distribución Binaria (Bernoulli)
Distribución Binomial
Distribución Poisson
Distribuciones continuas de probabilidad (v.a.c.)
Distribución Uniforme
Distribución Normal
Aquí se describen los principales modelos probabilísticos con los que
se pueden cotejar las variables aleatorias. Pasemos a analizar y
36
conocer su forma, principales aplicaciones y propiedades.
Estadística inferencial
Distribuciones Probabilísticas

Distribución Binaria (Bernoulli)


Cuándo se aplica?
Sea un experimento aleatorio con sólo dos resultados posibles:

Ω = {Exito, Fracaso}

Variable aleatoria
Se dene a la variable aleatoria X como 1 si el resultado es éxito y
0 si el resultado es fracaso.

X ∼ B(p)

La variable aleatoria X posee distribución Binaria, con parámetro p .

37
Estadística inferencial
Distribuciones Probabilísticas

Función de probabilidad
Toma el valor de 1 para la probabilidad de éxito p y para la
probabilidad de fracaso q = 1 − p toma el valor de 0.

P(X = x) = p x q 1−x

Esperanza y varianza de la distribución Binaria


E (X ) = p = µ

V (X ) = p (1 − p) = p q

38
Estadística inferencial
Distribuciones Probabilísticas

39
Estadística inferencial
Distribuciones Probabilísticas
Distribución Binomial
Cuándo se aplica?
Surge de repetir n veces una experiencia aleatoria binaria.
Variable aleatoria
X = número de resultados favorables que se obtienen en n pruebas:
X ∼ Bi(n, p)
Función de Probabilidad
 
n x n−x
P(X = x) = p q
x
donde:  
n n!
=
x x!(n − x)!
Esperanza y Varianza
E (X ) = n p
40
Estadística inferencial
Distribuciones Probabilísticas

41
Estadística inferencial
Distribuciones Probabilísticas
Distribución Poisson
Cuándo se aplica?
Para contar el número de veces que ocurre un cierto fenómeno
durante un período de tiempo o región del espacio jos.
La probabilidad de un éxito es proporcional al tamaño de
espacio y período de tiempo. Tiende a cero a medida que se
reduce el período de tiempo o las dimensiones de la región en
estudio.
Cuenta la ocurrencia de sucesos llamados raros, los cuales se
identican con una probabilidad de éxito sumamente pequeña
y un número grande de observaciones.
Es la distribución límite de una distribución binomial cuando n
es muy grande y la probabilidad muy pequeña.
Por tanto, halla la probabilidad de ocurrencia de cualquier
número de éxitos X por unidad de medición (minuto, hora,
día, cm, metro, etc.).
42
Estadística inferencial
Distribuciones Probabilísticas

Ejemplos:
Número de personas que llegan a un almacén, banco o aeropuerto
en un tiempo determinado; número de llamadas por minuto;
número de defectos en piezas similares en el material, ya sea por
cm2 o cm; número de bacterias en un cultivo; número de
accidentes por día; reclamaciones en un período de tiempo.
También se aplica a las ocurrencias con respecto a un campo
continuo (área o tiempo), para describir el número de fallos en un
lote de materiales o la cantidad de llegadas por hora a un centro de
servicios.
Estadística inferencial
Distribuciones Probabilísticas
Variable aleatoria
X signica el "número de hechos que se producen en un intervalo
de tiempo o de espacio":

X ∼ Po(λ)
donde λ es el promedio de ocurrencias del hecho o fenómeno.
Función de Probabilidad
λx e −λ
P(X = x) =
X!
donde e = 2.71828, base de los logaritmos neperianos; y λ = np
Esperanza y Varianza
E (X ) = λ
V (X ) = λ
44
Estadística inferencial
Distribuciones Probabilísticas

Sea X : cantidad de clientes; y λ = 3: ritmo o velocidad promedio


de llegadas por cada unidad de tiempo (3 clientes por hora).
Cuanto más se aleje el valor que toma la v.a.d. de la media más
pequeña se hará la probabilidad, la probabilidad será alta cuando
más nos acercamos a la media.
45
Estadística inferencial
Distribuciones Probabilísticas
Distribuciones de Probabilidad de una v.a.c.

Una v.a.c. sigue aquella distribución de probabilidad cuya


función de densidad f (x) se considera como el mejor modelo
matemático ajustable al histograma.
Es sumamente importante cuando hacemos un estudio,
calcular la función de densidad que mejor se ajusta a la
distribución de la variable, pues esto va a permitir realizar
cualquier cálculo de probabilidad.
La propiedad fundamental de f (x) es que el área comprendida
bajo la función de densidad entre dos valores a y b, coincide
con la probabilidad de que la v.a.c. tome valores en dicho
intervalo. Si f (x) es la función de densidad de una v.a.c. X , la
probabilidad de que X tome valores en un intervalo será:
Z b
P(X ∈ [a, b]) = f (x) dx
a
46
Estadística inferencial
Distribuciones Probabilísticas
Distribución Uniforme
Cuándo aplicarla?
Los valores mínimo y máximo son jos.
Todos los valores entre el mínimo y máximo ocurren con la
misma probabilidad.
Variable aleatoria
La variable aleatoria X posee un rango de valores: [a, b]

X ∼ Unif (a, b)

Función de densidad
Todos los valores de X son igualmente posibles, por lo que:
1
f (x) = a≤x ≤b
b−a
47
Estadística inferencial
Distribuciones Probabilísticas

Función de distribución
Si x ∈ [a, b]:
x
1 x −a
Z
F (x) = P(X ∈ [a, x]) = dt =
a b−a b−a

Esperanza y varianza
a+b
E (X ) =
2
(b − a)2
V (X ) =
12

48
Estadística inferencial
Distribuciones Probabilísticas

Distribución Uniforme (rectangular)

49
Estadística inferencial
Distribuciones Probabilísticas
Distribución Normal
Cuándo aplicarla?
Se debe al matemático Gauss y su estudio sobre los errores de
medición, donde observó que eran muy comunes los errores de
poca magnitud, mientras que eran poco frecuentes los errores
grandes. Es aplicable a un amplio rango de problemas, lo que la
convierte en la distribución más utilizada en Estadística.
Representación
X ∼ N(µ; σ 2 )
Función de densidad
1 1 x−µ )2
f (x) = √ e − 2 ( σ
σ 2π
La forma de esta distribución es la denominada campana de

Gauss .
50
Estadística inferencial
Distribuciones Probabilísticas

Ejemplos:
Algunos asociados a fenómenos naturales que siguen el modelo de
la Distribución Normal son: características morfológicas de
individuos, como la estatura; características sociológicas, como el
consumo de cierto producto por un mismo grupo de individuos;
características psicológicas, como el cociente intelectual; nivel de
ruido en telecomunicaciones, etc.
Esperanza y varianza
E (X ) = µ
V (X ) = σ 2

51
Estadística inferencial
Distribuciones Probabilísticas

Distribución Normal

52
Estadística inferencial
Inferencia Estadística

Inferir es, en general , establecer un nuevo conocimiento


partiendo de uno ya "dado".
Consiste en determinar algunas características desconocidas de
una población partiendo de datos muestrales conocidos.
Estas características poblacionales serán "inferidas" utilizando
los conceptos estudiados: población, muestra, medidas de
posición y dispersión, y los recursos de la TEORÍA DE LA
PROBABILIDAD (conceptos básicos, variables aleatorias y
distribuciones de probabilidad).

Objetivo
La inferencia es la parte de la estadística que tiene como objetivo
obtener conocimiento acerca del comportamiento de una población
a través de la información obtenida por una muestra.

53
Estadística inferencial
Inferencia Estadística

Procedimiento Inferencial

54
Estadística inferencial
Inferencia Estadística
Denir la población de estudio
Población: conjunto de individuos a estudiar y sobre los que
se desea información.
De la población se extrae un subconjunto que se denomina
muestra.
La muestra debe ser representativa de la población, debe
tener una composición similar en cuanto a la proporción de
distintas características.
La representatividad de la muestra queda garantizada con la
aleatoriedad como método de muestreo.
Sobre cada uno de los individuos (casos de estudio) medimos
una o varias características que denominamos variables.
Así a cada población le corresponde una variable aleatoria
que denotaremos con X .
55
Estadística inferencial
Inferencia Estadística

Proceso de Muestreo
Dada una población, consiste en obtener, al azar, un valor de la
variable X , llamada x1 . El valor obtenido puede ser cualquiera de
los de la población, luego los posibles valores para x1 son todos los
de X , y por tanto, x1 puede considerarse como una realización
particular (observación) de una variable aleatoria X1 con la misma
distribución que X .
A continuación obtenemos, independientemente de la primera
observación, un valor x2 que puede considerarse como una
realización particular de una variable aleatoria X2 con la misma
distribución que X e independiente de X1 .
El proceso continúa hasta obtener una muestra de tamaño n, n
observaciones x1 , x2 , ..., xn de n variables aleatorias X1 , X2 , ..., Xn
independientes e idénticamente distribuidas.
Estadística inferencial
Inferencia Estadística

Estadístico y estimador
Una vez obtenida la muestra la describimos en términos de algunas
de sus características fundamentales. Las medidas más importantes
a considerar: media aritmética, varianza y desviación estándar o
típica.
La primera tiene como n primordial, calcular un solo valor para
representar a ese conjunto de observaciones. La desviación típica
para determinar la dispersión o variabilidad entre esos datos. A
menor variabilidad mayor será la representatividad del promedio.
A tales características las solemos denominar estadísticos. El
estadístico que se utiliza para estimar un parámetro poblacional se
llama estimador, mismo que en forma genérica se simboliza θ̂ en
tanto el parámetro a estimar con θ.

57
Estadística inferencial
Inferencia Estadística

Diferencias entre estimador y parámetro:


Un parámetro es una característica que está tomada sobre la
población, mientras que el estimador es una característica
tomada a partir de la muestra.
El parámetro es único, mientras que el estimador diere de
muestra en muestra, por lo tanto, es una variable aleatoria con
una distribución determinada.
No hay ningún estimador perfecto pues se trata de una
variable aleatoria que tienen una función de densidad
correspondiente a las distribuciones muestrales.
Estadísticos muestrales → Inferencia → Parámetros poblacionales

58
Estadística inferencial
Inferencia Estadística
El Teorema del Límite Central constituye una justicación de la
presencia de la normalidad en la naturaleza.

Teorema del Límite Central


Si X̄ es la media de una muestra aleatoria de tamaño n tomada de
una población con media µ y varianza σ 2 , entonces la forma límite
de la distribución de:
X̄ − µ
Z= √
σ/ n
conforme n → ∞, es la distribución normal estándar N(0, 1).

La aproximación normal para X̄ será buena si n ≥ 30 sin importar


la forma de la población. Si n < 30, la aproximación es buena sólo
si la población no es muy diferente de una distribución normal. Si
se sabe que la población es normal, X̄ seguirá una distribución
normal exacta.
59
Estadística inferencial
Inferencia Estadística

Teorema del Límite Central

60
Estadística inferencial
Inferencia Estadística

El estimador de la media de la población es un valor que


probablemente no coincide con la media de la población. Sin
embargo, teniendo en cuenta la distribución muestral de medias, es
con probabilidad alta, cercano a la misma.

Ejemplo:
Supongamos que el no de barriles de petróleo que produce un pozo
al día es una v.a. con distribución no especicada. Si se observa la
producción en 64 días y se sabe que la desviación típica del no de
barriles por día es 16, obtener la probabilidad de que la media
muestral se encuentre a no más de 4 barriles del verdadero valor de
la producción media diaria.
Estadística inferencial
Inferencia Estadística

62
Estadística inferencial
Inferencia Estadística
A partir del Teorema del Límite Central se puede concluir:
La media de las medias muestrales coincide con la media de la
población:
µX̄ = µ
La varianza de las medias muestrales es igual a la varianza de
la población dividido el tamaño de la muestra n:
σ2
σX̄ 2 =
n
La desviación estándar de la distribución de medias muestrales,
llamado error estándar, es:
σ
σX̄ = √
n
La distribución de las medias muestrales es simétrica, aunque
la distribución de la variable no lo sea.
63
Estadística inferencial
Estimadores

Estimación
Consiste en elegir un valor que represente el parámetro poblacional.
A partir de una muestra (reducida) de valores queremos calcular
con una buena aproximación el valor correcto (inevitablemente con
error) así como una estimación del error en la aproximacion.

Métodos de estimación de los parámetros de una


distribución:
Estimación puntual: un único valor para cada parámetro.
Estimación por intervalos: rango de valores probables para
el parámetro.

64
Estadística inferencial
Inferencia Estadística

65
Estadística inferencial
Inferencia Estadística

Estimación puntual
Utiliza el valor de un estadístico de muestra para inferir el
parámetro poblacional, por ejemplo X̄ para estimar µ.

Consecuencias:
La estimación puntual de un parámetro siempre será
aproximada, puesto que depende del azar a través de la
muestra.
En todo caso se cometerá un error al estimar un parámetro
puntualmente.
Es necesario conocer alguna cota del error cometido en la
estimación del parámetro.
Para acotar el error cometido se utilizan los intervalos de
conanza
66
Estadística inferencial
Inferencia Estadística

Estimación por intervalos


Dado que las estimaciones puntuales pocas veces coinciden con los
parámetros poblacionales es preferible determinar un rango dentro
del cual se encuentre el valor parámetro que se va a estimar.
Ejemplo: Suponga que se preguntan el nivel de concentración de
arsénico de un acuífero ([As]). Primero se podrá hacer una estimación
puntual, esto es calcular el promedio de una muestra de pequeño tamaño
(n = 6) y obtener 4 mg/l. Luego hacer armaciones del tipo:
Puede ser que la concentración: (3.5 ≤ [As] ≤ 4.5) error 0.5
Casi seguro que la concentración: (3 ≤ [As] ≤ 5) error 1
Seguro la concentración está entre (2 ≤ [As] ≤ 6) error 2
Cada armación tiene una medida de la seguridad de que la
concentración esté comprendida en el intervalo y un error asociado.
67
Estadística inferencial
Estadística Inferencial

Intervalo de confianza

P[Li ≤ θ ≤ Ls] = 1 − α

[Li, Ls] recibe el nombre de intervalo de conanza del


100 (1 − α)% para el parámetro desconocido θ.
Li y Ls son los límites de conanza inferior y superior,
respectivamente.
(1 − α) es el coeciente de conanza (CC ) asociado a este
intervalo.
Por tratarse de una probabilidad el CC es un valor entre 0 y 1,
aunque se expresa en forma porcentual.
Para que la estimación sea buena, CC debe ser grande,
próximo a 1.

68
Estadística inferencial
Estadística Inferencial

Ejemplo:
Si α = 10%, entonces 1 − α = 90%, se tiene un intervalo de
conanza del 90%. Signica que la probabilidad de que el intervalo
contenga al verdadero valor del parámetro es del 90%.
El Coeciente de Conanza (CC ) lo elige el investigador. En los
trabajos geológicos se utilizan CC de 90%, 95% y 99%.
En conclusión, la estimación de cualquier parámetro poblacional por
el método de los intervalos de conanza requiere:
1 Fijar el coeciente de conanza
2 Extraer la muestra y calcular el estadístico
3 Conocer la distribución que tiene el estimador del parámetro

69
Estadística inferencial
Estadística Inferencial

Intervalos de conanza para la media poblacional µ conocida


la varianza poblacional σ 2

Para estimar la media poblacional µ el mejor estimador es la media


muestral X̄ . Se conoce que la media muestral se distribuye
normalmente con valor esperado E (X̄ ) = µ, varianza σ 2 y la
distribución asociada es:

X̄ − µ
Z=p
σ 2 /n
Si se ja el CC como 1 − α, entonces la probabilidad α se divide en
dos partes, una parte se asocia con el límite inferior, α/2, y la otra
con el superior, α/2. Si −Zα/2 y Zα/2 son los valores de la
distribución normal estándar que tienen probabilidades acumuladas
α/2 y 1 − α/2, respectivamente.

70
Estadística inferencial
Estadística Inferencial
Entonces cuando se calcula el intervalo de conanza de µ conocida
σ 2 , la expresión toma la forma:

Probabilidades asociadas al Coeciente de Conanza en la


distribución normal estándar.
71
Estadística inferencial
Estadística Inferencial
Ejemplo: Los siguientes datos corresponden a concentración de
plomo en euentes de una industria:
{8415, 8100, 8820, 9215, 7875, 9800, 8235, 10305, 8325, 9430}

El intervalo (8294, 9410) tiene 95% de probabilidad de contener a


la media poblacional.
72
Estadística inferencial
Estadística Inferencial

Tamaño muestral
La longitud del intervalo de conanza disminuye al aumentar el
tamaño muestral, lo que signica que se obtienen estimaciones más
precisas cuanto mayor sea el tamaño muestral.
Debido a consideraciones prácticas de coste y tiempo, en general no
es posible aumentar indenidamente el tamaño muestral para
obtener estimaciones más precisas, es por ello que en la práctica se
selecciona el tamaño muestral necesario para obtener una
determinada precisión, establecida a priori.

∴ Tamaño de la muestra = f (precisión)

73
Estadística inferencial
Estadística Inferencial

Cálculo de tamaño muestral para obtener un intervalo de


conanza para µ de amplitud denida
El cálculo del tamaño de muestra que se debe tomar para obtener
una estimación por intervalos de conanza de la media poblacional
µ, de una amplitud especíca, requiere datos de un muestreo
preliminar.
Se dene la amplitud del intervalo de conanza como la diferencia
entre el límite superior y el límite inferior (A = Ls − Li ). La
Amplitud se expresa entonces como:

74
Estadística inferencial
Estadística Inferencial

Si se llama δ a la amplitud especíca del intervalo de conanza que


se requiere en la estimación de la media poblacional µ, el tamaño
de la muestra n se despeja de la expresión anterior:

El procedimiento para calcular el tamaño de muestra requiere


denir el coeciente de conanza de la estimación y proponer un
tamaño de muestra inicial n0 , con ambos se establece el valor de
tα/2,V0 (V0 = n0 − 1) utilizado en la expresión anterior. Como el
tamaño de la muestra se calcula partiendo de un muestreo
preliminar de tamaño n0 , el coeciente tV0 ;α/2 depende de n0 , se
recomienda rehacer el cálculo con el tn−1;α/2 correspondiente al
tamaño de muestra n obtenido.
75
Estadística inferencial
Estadística Inferencial
Ejemplo
Cálculo del tamaño de la muestra para disminuir de 2.46 a δ = 0.5
el intervalo de conanza de µ de los datos de concentración de
arsénico (mg/l) del ejemplo anterior:

Para disminuir el error de la estimación a 0.5 manteniendo el


coeciente de conanza en 90% se debe tomar una muestra de
tamaño 45.
76

También podría gustarte