Está en la página 1de 4

Formulario Primer Parcial Métodos Estadísticos 2

 ( x i  x ) ni
Varianza =
s2  i
n
ESTADÍSTICA DESCRIPTIVA
 xi 2 ni
x n i
 x2
Media aritmética i i     n
x i
n   x i  x  ni  
2

Mediana Cuasi­varianza * =
s  i
2

N i 1  n / 2  N i ­ Si n/2 < Ni  n 1
n
Me=xi s2
n 1
­ Si n/2= Ni  x i  Me n i
Desviación media respecto a la mediana DMe  i
Me=(xi+xi+1)/ 2
n
Moda   Recorrido Intercuartílico RQ = C3- C1
Mo=xi     tal que     ni es máximo s
Coeficiente de Variación de Pearson      CV  x  

3
 ( x i  x ) ni
Percentil de orden p Coeficiente de asimetría  de Fisher  
g1  i
Pp=xi          tal que Ni­1<  pn    Ni ns 3
100
Coeficiente de apuntamiento  de Fisher
 x ir ni
Momento de orden r respecto al origen ar  i
n  xi  x  4 ni
g2  i 3
Momento de orden r respecto a la media  ns 4
 ( xi  x ) r ni Momento de orden r,s respecto al origen
i
mr    x ir y sj nij
n
i j
a rs 
n
Momento de orden r,s respecto a la media Vm,n 
m!
 m( m  1)  ( m  n  1)
 Variaciones ( m  n)!
  ( x i  x ) r ( y j  y ) s nij
Variaciones con repetición Vm, n  m
n
m rs 
i j 
n  Permutaciones Pn  n!
Covarianza  n ,, nk n!
 Permutaciones con repetición Pn 1 
  ( x i  x )( y j  y )nij   x i y j nij n1! n k !
i j i j
s xy    xy
n n Teorema de la probabilidad total:
s xy
Coeficiente de correlación lineal rxy 
sx sy Si el espacio muestral lo podemos dividir en n sucesos A i, disjuntos
dos a dos,
n

Recta de regresión p( B)   p( B A j ) p( A j )
j 1
Recta de regresión de Y sobre X  y=a+bx  con
s xy Teorema de Bayes:
b a  y  bx
s x2
Si el espacio muestral lo podemos dividir en n sucesos A i, disjuntos
 ( yi  yi* ) 2  ( yi  a  bx i ) 2 dos a dos, de los que conocemos su probabilidad y la probabilidad
Varianza residual s e2  i
 i
n n condicionada p ( B Ai ) , entonces
s 2 p ( B Ai ) p ( Ai )
p ( Ai B )  n
Coeficiente de determinación     R  1 
2 e
2
s y  p( B A j ) p( A j )
j 1

Desigualdad de Tchebychev
PROBABILIDAD
Si X es una v.a. con media  y varianza  2 , entonces para todo k,
constante positiva se verifica:
Fórmulas de combinatoria
1
m! m(m  1)(m  n  1) P ( X    k )  1
 Combinaciones C m, n   k2
n!(m  n)! n!
DISTRIBUCIONES DISCRETAS DE PROBABILIDAD  1
 a xb
f ( x) =  b - a

0 en otro caso
Distribución binomial (o Bernoulli con n=1)
 n  x ba (b-a)2
  p (1  p ) n  x x  0,1,2,....., n E( X )  ; Var(X)=
f ( x)   x  E ( X )  np Var ( X )  np (12  p ) 12
 0 en otro caso

Distribución exponencial
Distribución binomial negativa (o geométrica con r=1)
 x  1 p r (1  p ) x  r x  r , r  1, r  2,.....  e  x
 x0 1 1
f ( x)   r  1
f ( x)   E( X )  Var ( X ) 
E( X )  r / p Var ( X ) r0(1 en
p)otro2
/ p caso  2
 0 en otro caso
Distribución hipergeométrica
  n a  n  n a 
  x  k  x 
 x  max(0, n a  k  n),..., min(n a , k ). n  k na n
f ( x)   n E ( X )  kna / n Var ( X )  k (1  a )
 k  n 1 n n
 
 0 en otro caso

Distribución de Poisson

 e   x
 x  0,1,2,.....
f ( x)   x! E ( X )  Var ( X )  

0 en otro caso

DISTRIBUCIONES CONTINUAS DE PROBABILIDAD

Distribución uniforme
Distribución normal
1 ( x   ) 2
1
e2 
2
f ( x)  x  R
2 2
E( X )   Var ( X )   2

Distribución Gamma

 x  1e  x / 
 x0
f ( x )     ( ) E ( X )   Var ( X )   2
 0 en otro caso

siendo ( )  0 x  1e  x dx
Propiedades de la función gamma:
( )  (  1)(  1)
si n es un entero positivo  ( n)  ( n  1)!)

Distribución normal bivariante

1
1

( x  μ)'  -1 (x -  ) 
f ( x)  1/ 2
e 2
x  R 2
2 

Teorema central del límite


Si X 1 , X 2 ,........, X n son independientes con idéntica distribución y
2 n
E ( X i )   Var ( X i )   2
 X  N ( , ) ( o equivalentemente X i  N (n , n 2 ) )
n  n i 1 n 

También podría gustarte