Está en la página 1de 17

ESTADISTICA

La Estadística se divide en 2 áreas de estudio:


DESCRIPTIVA : Area que se dedica a analizar
y representar los datos en forma básica,
tratando de extraer conclusiones sobre el
comportamiento de las variables en estudio.

Este análisis se realiza a través de la


Recolección, descripción y resumen de datos.
Estadística

INFERENCIAL : Encargada del análisis e


interpretación de los datos que nos permiten
inferir o estimar características de la población
a partir del estudio de una muestra.

Tiene como base de análisis, el modelamiento,


la inferencia y predicción.
ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

REPRESENTACION GRAFICA DEL ANALISIS DE INFERENCIA

Aplicación de la
técnica de muestreo
apropiado.
POBLACION
muestra

ESTIMADOR
Media Muestral ( x)
PARAMETROS Varianza Muestral(s2)
Media Poblacional (μ) Proporción Muestral(p)
Varianza Poblacional(2)
Proporción Poblacional(π)

Estadística Inferencial

error muestral: x-μ


ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

1
DEFINICIONES IMPORTANTES

Población: Es la totalidad de elementos acerca del cual se


desea información.

La mayor parte del tiempo los investigadores trabajan con información


limitada de la población, ya sea por tiempo, costo, disponibilidad y/o
facilidad para obtener la información. En este caso se acostumbra a
trabajar con un subconjunto de esta, denominado Muestra

Muestra: Es un subconjunto o parte de la población

Una buena muestra debe ser representativa y confiable, esto es, debe
reflejar lo más fiel posible las características de la población en estudio.

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

TIPOS DE MUESTRAS
Un punto clave en el proceso de inferencia es la elección de la
muestra, pues los resultados de la inferencia serán tanto mejores
cuanto más representativa sea ésta de la población de partida.

Existen varias formas de seleccionar muestras de las poblaciones:

Muestra aleatoria: cuando los elementos de la población se eligen


de forma aleatoria, usando cualquier mecanismo de azar.

Muestra aleatoria simple (m.a.s.): Se garantiza que todos los


individuos de la población tengan la misma probabilidad de ser
elegidos en la muestra y que cada uno de sus elementos se elijan
de forma independiente.

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

2
Muestra sistemática: Previamente los individuos de la población se
encuentran en una lista, después se elige uno al azar (xi) y a continuación,
a intervalos constantes, se eligen todos los demás hasta completar la
muestra.

Los intervalos son seleccionados en base a un coeficiente de elevación “k = N/n”.

Donde: “N” es el tamaño de la población y “n” el de la muestra.

La elección de los elementos muestrales vendrán dados por xi+k, xi +2k,….

Ejemplo: Si de una población de 500 se debe tomar una muestra de tamaño


50, el intervalo de selección es de tamaño 10. Este intervalo de selección
indica que se habrá que seleccionar cada décimo caso de la población para
integrarlo a la muestra.

Se inicia la selección de la muestra eligiendo mediante un método aleatorio el


primer caso. Suponiendo que en este ejemplo el primer caso seleccionado
sea el número 13, el segundo será el 23 y así sucesivamente hasta completar
el tamaño de muestra deseado.

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

Muestra estratificada: se dividen los elementos de la población


en clases o estratos (edad, renta, etc…) y dentro de cada uno de
ellos se eligen los elementos por m. a. s. o sistemático.

Muestra no aleatoria: Se seleccionan los individuos de forma


subjetiva (opinática), lo que puede introducir cierto sesgo a los
resultados obtenidos.

A partir de ahora utilizamos siempre el muestreo aleatorio simple.

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

3
MUESTRA ALEATORIA SIMPLE
(m.a.s)
Definición: Sea X una variable aleatoria correspondiente a una
población con función de distribución f(x).
Se extrae una muestra aleatoria de tamaño “n” conformada por Xi
donde i=1, 2,…n.

Donde las variables X1, X2, .., Xn son independientes y tienen la


misma distribución f(x) que la distribución de la población, entonces
las variables aleatorias X1, X2, .., Xn forman un conjunto de variables
independientes e idénticamente distribuidas, las mismas que
constituyen una muestra aleatoria simple de tamaño “n” proveniente
de una población con distribución f(x).

(X1,X2,..,Xn) muestra aleatoria simple.

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

FUNCIÓN DE DISTRIBUCIÓN CONJUNTA DE VARIABLES INDEPENDIENTES


E IDENTICAMENTE DISTRIBUIDAS

Caso continuo:

Si X1,X2,..,Xn son variables aleatorias continuas, independientes e


idénticamente distribuidas, la distribución de densidad conjunta será:
n
f ( x1, x2 ,......xn )  f ( x1 ) f ( x2 ).......f ( xn )   f (x )
i 1
i

Caso discreto:

Si X1,X2,..,Xn son variables aleatorias discretas, independientes e


idénticamente distribuidas, la distribución de probabilidad conjunta será:
n
P( X 1  x1 , X 2  x2 ,...... X n  xn )  P( X 1  x1 ) P( X 2  x2 ).......P( X n  xn )   P(X i  xi )
i 1

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

4
Parámetro: es una caracterización numérica de la
distribución de la población (esperanza, varianza,…).

Es un valor fijo y desconocido, puesto que para


conocerlo necesitaríamos estudiar toda la población.

Como los parámetros poblacionales son difíciles de


obtener directamente, se recurre a los estadísticos o
estadígrafos para estimarlos.

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

Estadístico: es una variables aleatorias que depende solamente de la


muestra observada.

Es una caracterización numérica de la muestra (media, varianza, …).

Su valor no es fijo, sino que depende de la muestra particular


seleccionada.

Por ejemplo: Si X1, X2, ..., Xn, es una muestra aleatoria de una población
X, entonces :
n

1 n  (x  x)i
2

x  x y s 2 i 1
n 1
n i
n i 1

Son estadísticos.

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

5
Distribución Muestral: Se llama así a la función de distribución (o
probabilidad) de un estadístico.

Error Estándar del Estadístico: es la desviación estándar de la


distribución muestral de un estadístico.

Teoremas de aplicación:

Teorema 1: Si X e Y son dos variables aleatorias Independientes, a y


b son constantes, entonces:

E[aX ± bY] = aE[X] ± bE[Y]

Una consecuencia inmediata de este teorema: cuando a=1 y b=1, es:

E(X ± Y) = E(X) ± E(Y)

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

Teorema 2: Si X e Y son dos variables aleatorias Independientes,


entonces:

a) E(XY) = E(X) E(Y)

b) Var(X+Y)= Var(X) + Var(Y)

Teorema 3: Si X e Y son variables aleatorias independientes,


entonces;

Cov(X,Y)=0

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

6
Teorema 4: Si X e Y son dos variables aleatorias con función de
probabilidad conjunta y varianzas finitas, entonces:

Var(aX ± bY)= a2Var(X) + b2Var(Y) ± 2ab Cov(X,Y)

Asimismo, es importante considerar la siguiente propiedad:

Var(X)=E(X2) – ( X )2

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

SUMA DE VARIABLES ALEATORIAS DE DISTRIBUCIÓN


DESCONOCIDA
Sean “n” variables X1, X2, ...., Xn independientes con esperanza
y varianza finitas : E ( X i )  i y V ( X i )   i2
n
y sea S   X i  X 1  X 2  ......  X n
i 1

Entonces , utilizando propiedades de Esperanza y de Variancia


indicados en los teoremas anteriores:
n n n
E ( S )  E ( X i )   E ( X i )  i
i 1 i 1 i 1

y como las variables son independientes:


n n n
V ( S )  V ( X i )  V ( X i )    i2
i 1 i 1 i 1

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

7
Ejemplo de aplicación
Consideremos una muestra de “n” elementos de una población.
Definamos Xi como la observación hecha al i-ésimo elemento.

Se dispone entonces de “n” variables aleatorias independientes :


X1 ,X2 ,...., Xn idénticamente distribuidas

 i  1...n :
E( X i )   y V ( X i )   2

Indicar la Media y Variancia de:


n

X i
X  i 1
n
ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

RECORDANDO:
X1 ,X2 ,...., Xn idénticamente distribuidas
Solución
n  i  1...n : E ( X i )   y V (X i )   2
Hacemos S   Xi
i 1
entonces : n n n
E ( S )  E ( X i )   E ( X i )    n
i 1 i 1 i 1
n n n
V ( S )  V ( X i )  V ( X i )    2  n 2
i 1 i 1 i 1
n
 Xi
i 1 S
Definiendo : X   , entonces:
n n
S 1 1
E ( X )  E ( )  E ( S )  n  
n n n
S 1 1 2
V ( X )  V ( )  2 V ( S )  2 n 2 
n n n n

Luego, X es una variable aleatoria que se distribuye con media y variancia :


2
E( X )   y V (X ) 
n
ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

8
X es una variable aleatoria que se distribuye con media y varianza :
E( X )  
2
V (X ) 
n

RECORDANDO:
X1 ,X2 ,...., Xn idénticamente distribuidas
 i  1...n : E ( X i )   y V (X i )   2

Observaciones:

vemos que la esperanza de la media muestral es igual a la media poblacional, y


que la variaza de la media muestral es menor que la variancia poblacional,
disminuyendo su valor a medida que aumenta el tamaño de la muestra.

Esto significa que la distribución de la media muestral es más concentrada que la de


la propia variable, y cuanto mayor sea el tamaño de la muestra más se concentra
esta distribución alrededor de la media poblacional.

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

LEY DE LOS GRANDES NÚMEROS

Cualquiera sea la distribución de la variable X (siempre que tenga


esperanza y varianza finitas), la distribución de la media muestral ( X ) se
concentra más y más alrededor de la media Poblacional , conforme
aumente el tamaño de la muestra.

Entonces:

“La Ley de los Grandes Números afirma que la media muestral de ‘n’
valores observados es aproximadamente igual a E(X) cuando n   “

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

9
enunciando dicho concepto en términos de probabilidad será:

Sea “d” un número real positivo, arbitrariamente pequeño.


La probabilidad de que la media muestral X diste de la media
poblacional  en una magnitud mayor que d tiende a "cero"
a medida que el tamaño de la muestra (n) tiende a "infinito"

Es decir: P X    d  0


n 

Lo que significa que : X  cuando n

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

TEOREMA DEL LÍMITE CENTRAL

Es el teorema más importante de toda la inferencia estadística.

La Ley de los Grandes Números trata de la convergencia en


probabilidad, pero nada dice acerca de la distribución de la media
muestral.

El Teorema del Límite Central trata de la convergencia en


distribución de la suma de variables aleatorias independientes, de
las cuales no se requiere conocer su distribución.

Enunciando el Teorema:

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

10
Sean “n” variables aleatorias independientes e idénticamente
distribuidos: X1, X2,...., Xn con esperanza y varianza finitas,
con n grande. Entonces la distribución de la suma de estas
variables converge a la distribución Normal.
E ( X i )  
Sean: X1,X2,....,Xn independientes con 
V  X i     0
2

y S n  i 1 X i  X 1  X 2  ......  X n 


n D
N ( E ( Sn ),V (Sn ))
n

Entonces: S n  E S n  D
V S n  
N (0,1)
n 

El teorema del límite central garantiza una distribución normal cuando


“n” es suficientemente grande.

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

Aplicación del Teorema del Límite Central


- Hallar la Distribución de la media X , teniendo en cuenta lo siguiente:
Se considera una muestra de tamaño “n” (n suficientemente grande)
donde se define v.a. Xi con E ( X i )   V  X i    2 dado que las
“n” variables aleatorias independientes X1 ,X2 ,....,Xn se encuentran
idénticamente distribuidas.
Solución:
Luego por el Teorema del Límite Central:
n D
Sn   X i  X1  X 2  ......  X n  N ( E ( S n ),V ( S n ))
i 1
dado " n" suficientemente grande

n n n
Tenemos: E ( S n )  E ( X i )   E ( X i )    n
i 1 i 1 i 1
n n n
V ( S n )  V ( X i )  V ( X i )    i2  n 2
i 1 i 1 i 1

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

11
Por el Teorema del Límite Central también se establece que:
Por el TLC se determino: E ( Sn )  n
S n  E S n  D
 N (0,1) V ( Sn )  n 2
 (Sn ) n 

Entonces :

S n  E S n  S n  n S n  n D
   N (0,1)
V S n  n 2 n n 

Sn  n 
S n  n n  X  D
pero   N (0,1)
n n n  n 
n

 2 
para " n"   X ~N  , 
 n 
 

ESTADISTICA APLICADA II LIC. RITA GUZMAN LOPEZ

DISTRIBUCIONES DE PROBABILIDAD IMPORTANTES

Hemos visto la distribución muestral de la media para un tamaño de


muestra grande (n≥30) lo que nos permitía determinar su aproximación a
la normal basados en la aplicación del Teorema del Limite Central.

Sin embargo cuando la muestra es pequeña (n<30), no podemos aplicar


el Teorema del Limite Central y si la población no es normal, tampoco
podemos suponer que la distribución muestral es normal.

Así que para el caso de muestras pequeñas asumiremos distribuciones


relacionadas con la normal, siendo estas: distribución t-Student, la
distribución F – Fisher y la distribución Chi-cuadrado.

ESTADISTICA APLICADA II LIC.


LIC.RITA
RITAGUZMAN
GUZMANLOPEZ
LOPEZ

12
DISTRIBUCIÓN CHI-CUADRADO

Definición:

Sean Z1, Z2, …, Zr variables aleatorias independientes con


distribución normal estándar, con parámetros media 0 y varianza 1.
La variable aleatoria:
X  Z12  Z 22  ...  Z r2 ~  (2r g .l )

Se dice que “X” es una variable aleatoria chi-cuadrado con “r” grados
de libertad (o que tiene una distribución chi-cuadrado con “r” grados de
libertad).

Nota:
Los grados de libertad son el número de variables aleatorias
independientes de la muestra.

ESTADISTICA APLICADA II LIC.


LIC.RITA
RITAGUZMAN
GUZMANLOPEZ
LOPEZ

La media y varianza de la variable aleatoria chi-cuadrado con “r” grados


de libertad son:

  E( 2 )  E( X )  r

 2  V (  2 )  Var ( X )  2r

ESTADISTICA APLICADA II LIC.


LIC.RITA
RITAGUZMAN
GUZMANLOPEZ
LOPEZ

13
Teorema 1: Si la Variable aleatoria X es N(µ,σ2), entonces la v.a.
( X   )2
Y ~  (21g .l .)
 2

Teorema 2: (Propiedad Aditiva o reproductiva de la Chi-cuadrado):

Sea: X12, X22,… Xp 2 variables aleatorias chi-cuadrados


independientes con grados de libertad r1, r2,…,rp respectivamente,
entonces la variable aleatoria :

p
X  X  X  ...  X
2
1
2 2
2
2
p ~ 2
( r g .l ) donde : r   ri
i 1

ESTADISTICA APLICADA II LIC.


LIC.RITA
RITAGUZMAN
GUZMANLOPEZ
LOPEZ

Teorema 3: Sea: X1, X2,… Xn una muestra aleatoria de variables con


distribución N(μ,σ2). Entonces, la variable aleatoria:
n

(X i   )2
i 1
~  (2n
 2 g .l )

1 n
Adicionalmente: Sea X1,.., Xn, con distribución normal con X   Xi
n i 1
es una variable aleatoria normal N(μ, σ2/n), por lo tanto:
X 
~ N (0,1)
/ n
 X   ( X   ) 2 n( X   ) 2
2

Entonces:     ~  (21g .l )
  / n   2
 2

n
ESTADISTICA APLICADA II LIC.
LIC.RITA
RITAGUZMAN
GUZMANLOPEZ
LOPEZ

14
DISTRIBUCIÓN t-STUDENT
Definición:
Sea “Z” una variable aleatoria N(0,1). Sea “Y” una v.a. que tiene una
distribución Chi-cuadro con “r” grados de libertad, y si Z e Y son
independientes, entonces la variable aleatoria :

Z Z r
T  ~ t( r )
Y /r Y

Se dice que tiene una distribución t-student (o simplemente tiene una


distribución “t” ) con “r” grados de libertad.

ESTADISTICA APLICADA II LIC.


LIC.RITA
RITAGUZMAN
GUZMANLOPEZ
LOPEZ

Esta distribución es simétrica y su media y varianza esta dado por :

  E (T )  0 r 1
r
 2  Var (T )  r2
r 2

Así, la distribución “t” no tiene media cuando r=1 y la varianza no existe


cuando r=1 ó 2.

La distribución “t” es muy similar a la distribución normal estándar, ya


que ambas cumplen:

-Varían de - a 
-Son simétricas
-y centradas alrededor de t=0
ESTADISTICA APLICADA II LIC.
LIC.RITA
RITAGUZMAN
GUZMANLOPEZ
LOPEZ

15
DISTRIBUCIÓN F- FISHER
En mucha situaciones estaremos interesados en comparar las varianzas de
dos variables aleatorias independientes distribuidas normalmente, en estos
casos recurriremos a la distribución “F”.

Definición:
Sea “U” y “V” dos variables aleatorias independientes que tiene
distribuciones Chi-cuadrado, con “r1” y “r2” grados de libertad,
respectivamente. Entonces la variable aleatoria:

U r1
F ~ F( r1 ,r2 )
V r2
Tiene una distribución “F-fisher” con “r1” y “r2” grados de libertad .

ESTADISTICA APLICADA II LIC.


LIC.RITA
RITAGUZMAN
GUZMANLOPEZ
LOPEZ

La media y varianza de la variable aleatoria F- Fisher con “r1 y r2” grados


de libertad son:

r2
  E(F )  , r2  2
r2  2

2r22 (r1  r2  2)
  V (F ) 
2
, r2  4
r1 (r2  2) 2 (r2  4)

ESTADISTICA APLICADA II LIC.


LIC.RITA
RITAGUZMAN
GUZMANLOPEZ
LOPEZ

16
DISTRIBUCION MUESTRAL DE
ESTADISTICOS

ESTADISTICA APLICADA II LIC.


LIC.RITA
RITAGUZMAN
GUZMANLOPEZ
LOPEZ

17

También podría gustarte