Está en la página 1de 11

GUÍA DE FÓRMULAS ESTADÍSTICAS

En esta guía no se presentan todas las fórmulas que contiene el libro. Esto se
debe a que el alumno podrá disponer de la misma durante las evaluaciones.
Las fórmulas que no están consignadas en esta guía deben ser conocidas, de
memoria, por el alumno al realizar su evaluación.

Medidas de Tendencia Central

Media Aritmética:
n

x i
x i 1
(datos no agrupados)
n
n

x i * fai
x i 1
n
(datos agrupados en serie de frecuencias)
 fa
i 1
i

m i * fai
x i 1
n
(datos agrupados en intervalos de clase)
 fa
i 1
i

Mediana:
~
x  x( n 1) / 2 (datos no agrupados, nro. impar de observaciones)
~ x  x n / 21
x  n/2 (datos no agrupados, nro. par de observaciones)
2
~ n / 2  Fai 1
x  Li  hi (datos agrupados en intervalos de clase)
fai

Modo:
d1
xˆ  Li  hi (datos agrupados en intervalos de clase)
d1  d 2

Media Geométrica:
x g  n x1 * x2 * ... * xn (datos no agrupados)
n

 fai
xg  i 1
x1fa1 * x 2fa2 * ... * x nfan (datos agrupados en serie de
frecuencias)
Nota: Para datos agrupados en intervalos de clase, sustituir xi por mi.
Media Armónica:
n
xa  n (datos no agrupados)
 1 / xi
i 1
n

 fa i
xa  n
i 1
(datos agrupados en serie de frecuencias)
 fa
i 1
i / xi

Nota: Para datos agrupados en intervalos de clase, sustituir xi por mi.

Fractil j-ésimo:
 j / k n  Fai 1
Fractilj = Li  hi k = 4,10,100
fai

Medidas de Dispersión

Medidas de Dispersión Absoluta

Desviación Media:
n

x i x
DM  i 1
(datos sin agrupar)
n
n

x i  x * fai
DM  i 1
n
(datos agrupados en serie de frec.)
 fa
i 1
i

Nota: Para datos agrupados en intervalos de clase, sustituir xi por mi.

Variancia:
n

 x  x
2
i
S2  i 1
(datos sin agrupar)
n
n

 x  x  * fai
2
i
S2  i 1
n
(datos agrupados en serie de frec.)
 fai 1
i

Nota: Para datos agrupados en intervalos de clase, sustituir xi por mi.


Desviación Típica:
n n

 x  x  * fai x
2 2
i i * fai
S  S  2 i 1
 i 1
n
 x2
n
 fa
i 1
i

(para datos agrupados en serie de frecuencias)


Nota: Para datos agrupados en intervalos de clase, sustituir xi por mi.

Medidas de Dispersión Relativa


S
Coeficiente de Variación: CV  *100
x

Medidas de Asimetría o Sesgo


x  xˆ
1º Coeficiente de Sesgo de Pearson: SP1 
S
3x  ~x
2º Coeficiente de Sesgo de Pearson: SP2 
S
Q  Q2   Q2  Q1 
Coeficiente de Sesgo Cuartílico: CSC  3
Q3  Q1
P90  P50   P50  P10 
Coeficiente de Sesgo Percentílico: CSP 
P90  P10

Medidas de Curtosis
Q3  Q1
Coeficiente de Curtosis Percentílico: CC 
2P90  P10 
Nota: Para la distribución normal, CC = 0.263

Probabilidad

𝑃(𝐴 ∪ 𝐵 ∪ 𝐶) = 𝑃(𝐴) + 𝑃(𝐵) + 𝑃(𝐶) − 𝑃(𝐴 ∩ 𝐵) − 𝑃(𝐴 ∩ 𝐶)


− 𝑃(𝐵 ∩ 𝐶) + 𝑃(𝐴 ∩ 𝐵 ∩ 𝐶)

𝑃(𝐴 ∪ 𝐵 ∪ 𝐶) = 1 − 𝑃(𝐴̅ ∩ 𝐵̅ ∩ 𝐶̅ )

P  Ai  * P B / Ai 
Teorema de Bayes: P  Ai / B  
 PA * PB / A 
n

j j
j 1

Valores Característicos de Variables Aleatorias

Esperanza Matemática:
E  X      X R X * P X  (v.a. discreta)
X

E  X      X * f  X  * dX (v.a. continua)


Variancia:
V  X    X2  EX  E  X   E X 2   E  X 
2 2

V  X    X2  X R X 2 * P X  
X
 X * PX  2
(discreta)
2
V  X    X2   X 2 * f  X  * dX    X * f  X  * dX 
 
(continua)
 
  

Desviación Típica:
D X    X   V  X 

Desigualdad de Chebyshev:
P(|X – µ|  k)  1/k2 o P(|X – µ| < k)  1 – 1/k2 k>0

Distribuciones Discretas de Probabilidad

Distribución Discreta Uniforme


f(xi) = 1/k i = 1,2,...,k

Distribución Binomial
Función de Probabilidad y Función de Distribución:
P X  x    nx p x q n x x = 0,1,...,n

Distribución Multinomial
p  x1 , x 2 ,..., x k    nx1 , x2 ,..., xk  p1x1 p 2x2 ... p kxk

   x ! x n!...
k k
!
n
x1 , x2 ,..., xk
x!
 xi  n
i 1
p
i 1
i 1
1 2 k

Distribución Hipergeométrica
Función de Probabilidad: P X  x  
   N1
x
N2
n x

  N
n
N: tamaño del lote, N1: nro. de elementos de la clase 1 en el lote
N2: nro. de elementos de la clase 2 en el lote, n: tamaño muestral
N
Esperanza Matemática: E x   n 1
N
n * N1 * N 2 * N  n 
Variancia: V x  
N 2  N  1

Distribución de Poisson
e  * x
Función de Probabilidad: P X  x   x = 1,2,...
x!
Esperanza Matemática y Variancia:
  EX     V X    2   X  

La distribución de Poisson como límite de la binomial:


e   x
Lim n  nx  p x q n  x 
p 0 x!

Distribuciones Continuas de Probabilidad

Distribución Uniforme o Rectangular


Función de Densidad de Probabilidad:
 1
 a xb
f x    b  a
0 para cualquier otro caso
Función de Distribución:
0 xa
x  a

F x    a xb
 b  a
1 xb
Esperanza Matemática: E(X) = (a + b) /2
Variancia: V(X) = (a – b)2 /12

Distribución Normal o de Gauss


1  x 
2
  
Función de Densidad de Probabilidad: f x  
1 2  
e
 2

Distribución Exponencial
Función de Densidad de Probabilidad:
 .e x x  0
f x   
0 para cualquier otro caso
Función de Distribución:
 x f t dt  1  e x x  0
F  x   P  X  x   0
0 para cualquier otro caso

Esperanza Matemática: E(x) = 1/

Variancia: V(x) = 1/2


Distribución Chi-Cuadrado
Función de Densidad de Probabilidad:
 1
 v/2 x v / 21e  x / 2 x0
f  x    2 v / 2 
0
 para cualquier otro caso
v: nro. de grados de libertad

Esperanza Matemática: E(X) = v


Variancia: V(X) = 2v

Distribución t de Student
Función de Densidad de Probabilidad:
 v 1 / 2
v  1 / 2  t 2  Z
ht   1   -<t<+ T
v / 2 v  v  V /v

Distribuciones de Muestreo

Distribución en el Muestreo de la Media


E X   
D X    / n

Distribución en el Muestreo de la Proporción


E(p) = 
 1   
D p   (muestreo con reposición)
n
 1    N n
D p   . (muestreo sin reposición)
n N 1

Distribución en el Muestreo de la Variancia


n 1 2
E S 2   
n
nS2
~  2
o
n  1  S´2 ~  2
n 1 n 1
2 2
Estimación de Parámetros

Intervalo de Confianza para la Media Poblacional

1. Población normal y  conocido:


  
 x  z1 / 2 . 
 n
Nota: En el caso en que las muestras se tomen sin reposición de una población
finita de tamaño N, debe emplearse el factor de corrección finita.
  N n  N n
 x  z1 / 2 . . ; x  z1 / 2 . . 
 n N 1 n N 1 
z 2 . 2
Tamaño de la muestra: n  1 / 22
e

2. Población normal,  desconocido y n  30:


 S S 
P  x  z1 / 2 .    x  z1 / 2 .   1
 n n

3. Población normal,  desconocido y n < 30:


 S' S' 
P  x  t1 / 2,n 1 .    x  t1 / 2,n 1 .   1
 n n
O de manera equivalente:
 S S 
P  x  t1 / 2,n 1 .    x  t1 / 2 n 1 .   1
 n 1 n 1

4. Población no normal y  conocido:


   
P  x  z1 / 2 .    x  z1 / 2 .   1 n  30
 n n
   
P  x  t1 / 2,n 1 .    x  t1 / 2,n 1 .   1 n < 30
 n n

5. Población no normal,  desconocido y n  30:


 S S 
P  x  z1 / 2 .    x  z1 / 2 .   1
 n n
Nota: Se utilizan el Teorema Central del Límite y Z como una aproximación
de t.

6. Población no normal,  desconocido y n < 30:


Nota: No se puede utilizar ni la distribución normal ni la t de Student para
construir un intervalo de confianza para , debiendo recurrirse a la
desigualdad de Chebyshev para obtener una aproximación del intervalo de
confianza.

Intervalo de Confianza para la Proporción Poblacional

Muestreo con reposición:


 p1  p  p1  p  
 p  z1 / 2 . ; p  z1 / 2 .  n > 30
 n n 
Nota: Para n  30, dividir por n – 1 en lugar de por n.

Muestreo sin reposición:


 p1  p  N  n p1  p  N  n 
 p  z1 / 2 . . ; p  z1 / 2 . . 
 n N 1 n N 1 

z12 / 2 1   
Tamaño de la muestra: n 
e2

Intervalo de Confianza para la Variancia Poblacional

 
 n.S 2 n. S 2

P 2   2  2   1
  1 ,n 1  
, n 1
 2 2 

Nota: Si n > 30   2,n1  1 / 2 z  2n  3 
2

Intervalo de Confianza para el Desvío Poblacional:


 
 n.S 2 n.S 2 
P     1
  1 ,n 1  2 
2
, n 1
 2 2 

Prueba de Hipótesis

Prueba de Hipótesis para la Media Poblacional ( conocida, n > 30,


Teorema Central del Límite válido)

1. Ensayo de dos colas o bilateral


Probar H0:  = 0 contra H1:  = 1  0

Criterio de decisión: Rechazar H 0  x   0  z1 / 2
n
Probabilidad de error tipo II:
  0  1     1 
(1) = P z   z1 / 2   P z  0  z1 / 2 
 / n   / n 
z   z1 / 2 
2
z 1 / 2  z 
2

Tamaño de muestra: n  2 o n 2
 0   1  2
1   0  2

2. Ensayo unilateral a derecha


Probar H0:  = 0 contra H1:  = 1 > 0

Criterio de decisión: Rechazar H 0  x   0  z1
n
   1 
Probabilidad de error tipo II: (1) = P z  0  z1 
 / n 
z1  z1   2
2

Tamaño de muestra: n  
1   0 2
Ensayo unilateral a izquierda
Probar H0:  = 0 contra H1:  = 1 < 0

Criterio de decisión: Rechazar H 0  x   0  z
n
   0  1
Probabilidad de error tipo II: (1) = 1  P z   z 
 / n 
z  z1   2
2

Tamaño de muestra: n  
1   0 2
Prueba de Hipótesis para la Proporción Poblacional

1. Ensayo de dos colas o bilateral


Probar H0:  = 0 contra H1:  = 1  0
 0 (1   0 )
Criterio de decisión: Rechazar H 0  p   0  z1 / 2
n
Probabilidad de error tipo II:
   
   
  0  1  0  1
(1) = P z   z1 / 2   P z 
  z1 / 2 
 1 (1   1 )  1 (1   1 )
   
 n   n 

2. Ensayo unilateral a derecha


Probar H0:  = 0 contra H1:  = 1 > 0
 0 (1   0 )
Criterio de decisión: Rechazar H 0  p   0  z1
n
 
 
 0  1
Probabilidad de error tipo II: (1) = P z   z1 
 1 (1   1 )
 
 n 

3. Ensayo unilateral a izquierda


Probar H0:  = 0 contra H1:  = 1 < 0
 0 (1   0 )
Criterio de decisión: Rechazar H 0  p   0  z
n
 
 
 0  1
Probabilidad de error tipo II: (1) = 1  P z   z 
 1 (1   1 )
 
 n 

Prueba de Hipótesis para la Variancia Poblacional

1. Ensayo de dos colas o bilateral


Probar H 0 :  2   02 contra H 1 :  2   12   02
S ' 2 n  1
Criterio de decisión: Aceptar H 0    / 2, n 1 
2
  12 / 2, n 1
 2
0
O de manera equivalente:
S2 n
Criterio de decisión: Aceptar H 0   2 / 2, n 1   12 / 2, n 1
 02

2. Ensayo unilateral a derecha


Probar H 0 :  2   02 contra H 1 :  2   12   02
12 , n1  02
Criterio de decisión: Rechazar H 0  S '  2

n 1
O de manera equivalente:
12 , n1  02
Criterio de decisión: Rechazar H 0  S  2

3. Ensayo unilateral a izquierda


Probar H 0 :  2   02 contra H 1 :  2   12   02
2 , n1  02
Criterio de decisión: Rechazar H 0  S '  2

n 1
O de manera equivalente:
2 , n1  02
Criterio de decisión: Rechazar H 0  S  2

n
Regresión y correlación

Pendiente de la recta de regresión de Y en X

n  xiyi   xi yi 
b
n  xi   xi
2 2

Ordenada al origen de la Recta de Regresión de Y en X

a
 yi  b xi   yi  b  xi  y  bx
n n n

Coeficiente de correlación r de Pearson

n xiyi   xi yi 
r
n xi 2   xi n yi 2   yi 
2 2

Coeficiente de determinación entre X e Y

r 2
=
 (Y 'Y ) 2
 (Y  Y ) 2

Ensayo sobre 
n2
Estadístico de prueba t(obtenido) = r
1 r2

También podría gustarte