Está en la página 1de 20

Universidad Nacional de Asunción

Facultad de Ingeniería

Cátedra de
Probabilidad y Estadística

FORMULARIO

Año 2022

Raimundo Sánchez A.
Formulario de Probabilidad y Estadística
Estadística descriptiva
∑𝐧𝐣=𝟏 𝐱 𝐣
Media aritmética 𝐱=
𝐧
∑k
j=1 fj xj
Para una distribución de frecuencias x =
∑k
j=1 fj
𝐍
−(∑ 𝐟)𝟏
𝟐
Mediana 𝐱̃ = 𝐋𝟏 + ( )𝐜
𝐟𝐦𝐞𝐝𝐢𝐚𝐧𝐚
𝚫𝟏
Moda 𝐱̂ = 𝐋𝟏 + ( )𝐜
𝚫𝟏 +𝚫𝟐
Media Geométrica 𝐆 = 𝐍√𝐱 𝟏 𝐱 𝟐 𝐱 𝟑 . . . 𝐱 𝐧
f f N f
Para una distribución de frecuencias G = N x⏟1 x1 … x1 x⏟2 x2 … x2 … x⏟k xk … xk = √x11 x22 … xkk

f1 veces f2 veces fk veces
𝐧
Media Armónica 𝐇= 𝟏
∑𝐧𝐣=𝟏
𝐱𝐣
𝐢
𝐍−(∑ 𝐟)𝟏
𝟒
Cuartiles, deciles y percentiles 𝐐𝐢 = 𝐋𝟏 + ( )𝐜
𝐟𝐐𝐈
𝐢
𝐍−(∑ 𝐟)𝟏
𝟏𝟎
𝐃𝐢 = 𝐋𝟏 + ( )𝐜
𝐟𝐃𝐢
𝐢
𝐍−(∑ 𝐟)𝟏
𝟏𝟎𝟎
𝐏𝐢 = 𝐋𝟏 + ( )𝐜
𝐟𝐏𝐢
∑𝐧𝐣=𝟏|𝐱 𝐣 −𝐱|
Desviación Media 𝐃𝐌 =
𝐧
∑k
j=1 j |xj −x|)
(f
Para una distribución de frecuencias DM =
n
𝐧 𝟐
∑𝐣=𝟏(𝐱 𝐣 −𝐱)
Desviación Típica 𝐬=√
𝐧
2
∑k
j=1[fj (xj −x) ]
Para una distribución de frecuencias s = √
n

Varianza v = s2
Probabilidad
Definición axiomática de la probabilidad
Si S es un espacio muestral y E un evento de S, entonces p(E) es una función de probabilidad sobre
S si satisface los siguiente axiomas:
1.– p(E)  0
2.– p(S) = 1
3.– Si, para los eventos E1, E2,  , Ei  Ej =   i  j, entonces p(E1  E2  ) = p(E1) + p(E1) + .
Para sucesos equiprobables:
h
p(E) = n; n = casos posibles ; h = casos favorables ; E, E1, E2, E3: sucesos
Sucesos independientes: p(E1 E2) = p(E1) × p(E2)
p(E1 E2 E3) = p(E1) × p(E2) × p(E3)
Sucesos dependientes p(E1 E2) = p(E1) × p(E2/E1)
p(E1 E2 E3) = p(E1) × p(E2/E1) × p(E3/(E1 E2))
Probabilidad de que ocurra E1 o E2 o ambos: p(E1 + E2) = p(E1) + p(E2) – p(E1 E2)
Sucesos mutuamente excluyentes: p(E1 ∩ E2) = 0 p(E1 + E2) = p(E1) + p(E2)
p(AEk )p(Ek )
Teorema de Bayes: p(Ek A) =
p(AE1 )p(E1 )+...+p(AEk )p(Ek )+...+p(AEn )p(En )

Esperanza matemática E(X)


E(X) = p1 X1 + p2 X2 + p3 X3 + … + pK XK =  px, donde X denota una variable aleatoria discreta que
puede tomar los valores X1, X2, … XK, con probabilidades p1, p2, ... pK, donde p1 + p2 + … + pK = 1
Propiedades:
E(cX) = cE(X)
E(X + Y) = E(X) + E(Y)
E(X Y) = E(X) E(Y)
2 = E[(X – )2] = E(X2) – 2 = E(X2) – [E(X)] 2
Var(X + Y) = Var(X) + Var(Y)
Var(X – Y) = Var(X) + Var(Y)

Distribuciones de Probabilidades
𝐧!
Distribución Binomial 𝐩(𝐱) = (𝐧𝐱)𝐩𝐱 𝐪𝐧−𝐱 = 𝐩𝐱 𝐪𝐧−𝐱
𝐱!(𝐧−𝐱)!
n = cantidad de ensayos
x = cantidad de éxitos (x = 0, 1, 2, ......, n)
n – x = cantidad de fracasos
p = es la probabilidad de éxito
q = es la probabilidad de fracaso = 1 – p
Propiedades
Media: μ = n p ; Desviación típica: σ = √npq
𝛌𝐱  𝐞−𝛌
Distribución de Poisson 𝐩(𝐱) =
𝐱!
λ = es una constante dada ( promedio a largo plazo de eventos para el tiempo de interés)
e = la base de los logaritmos naturales (e =2,71828..)
x = cantidad de éxitos (x = 0, 1, 2, ......)
Propiedades:
Media: μ = λ ; Desviación típica: σ = √λ
𝐍! 𝐗 𝐗 𝐗
Distribución Multinomial 𝐩(𝐱 𝟏 ; 𝐱 𝟐 ; … ; 𝐱 𝐊 ) = 𝐩𝟏 𝟏 𝐩𝟐 𝟐 … 𝐩𝐊𝐊
𝐗 𝟏 !𝐗 𝟐 ! …𝐗 𝐊 !
E1, E2, ..., EK, sucesos que ocurren con frecuencias p1, p2, ..., pK, respectivamente.
p(x1; x2; … ; xK) es la probabilidad de que E1, E2, ..., EK ocurran x1; x2; … ; xK.
N = x1; x2; … ; xK.

Distribución Binomial Negativa p(x) = x–1Cr–1 pr qx–r ; x = r, r + 1, r + 2, …


x = cantidad de pruebas que deben de hacerse para obtener r éxitos.

𝐳𝟐

𝐞 𝟐
Distribución Normal 𝐘=
√𝟐𝛑
𝐱−𝛍
variable tipificada: 𝐳 = 𝛔
b
z2

e 2
p( a < z < b ) = ∫ dz
√2π
a
x = evento favorable (éxito)
μ = media
e = la base de los logaritmos naturales (e =2,71828...)
π = 3,14159…
σ = desviación típica

Aproximación de la distribución binomial por la normal


x = B(n, p) se puede aproximar a N(μ = np, σ =√npq)

Distribuciones de Probabilidades Bivariadas


Variables aleatorias discretas: p(x; y) = P(X = x; Y = y) donde p(x; y)  0 para todo x, y, de X, Y,
y xyp(x, y) = 1. La suma se efectúa sobre todos los valores posibles de x e y.
La distribución acumulativa bivariada es la probabilidad conjunta de que X  x e Y  y, dado por
F(x; y) = P(X  x; Y  y) =   p(xi; yi)
𝒙𝒊 ≤𝒙 𝒚𝒊 ≤𝒚
𝒃 𝒅
Variables aleatorias continuas: 𝑷(𝒂 < 𝑿 < 𝒃, 𝒄 < 𝒀 < 𝒅 = ∫𝒂 ∫𝒄 𝒇(𝒙; 𝒚)𝒅𝒚𝒅𝒙 para cualquier
 
valor de a, b, c y d, donde f(x; y)  0; –  < x; y < , y ∫− ∫− 𝑓(𝑥; 𝑦)𝑑𝑦𝑑𝑥 = 1, entonces f(x; y) es
la función de probabilidad bivariada de X e Y.
La función de distribución bivariada acumulativa de X e Y es la probabilidad conjunta de que X  x;
𝑥 𝑦
Y  y, dada por: 𝑃(𝑋 ≤; 𝑌 ≤ 𝑦) = 𝐹(𝑥; 𝑦) = ∫−∞ ∫−∞ 𝑓(𝑢; 𝑣)𝑑𝑢𝑑𝑣
Estadística inferencial
Distribución de muestreo de medias
σ Np −N
μX̄ = μ ; σX̅ = √ para muestras de una población finita sin reposición
√N N p −1
σ
μX̄ = μ ; σX̅ = para muestras de una población infinita o muestreo con reposición de
√N
una población finita
, : media y desviación típica de la población
μX̅ , σX̅ : media y desviación típica de la distribución de muestreo de medias
Np: tamaño de la población
N: tamaño de la muestra. Si N  30 la distribución de muestreo de medias es aproximadamente
normal

Distribución de muestreo de proporciones


pq p(1−p)
μp = p ; σp = √ = √ para muestras de una población infinita o muestreo con
N N
reposición de una población finita
μ = p ; σ = √p q para muestras de una población finita sin reposición
, : media y desviación típica de la población
p, p: media y desviación típica de la distribución de muestreo de proporciones
p: probabilidad de ocurrencia de un suceso
q: probabilidad de no ocurrencia, o fracaso, de un suceso
N: tamaño de la muestra. Si N  30 la distribución de muestreo de proporciones es
aproximadamente normal

Distribución de muestreo de diferencias y sumas (medias y proporciones)


σ21 σ22
μX̅1−X̅2 = μX̅1 − μX̅2 = μ1 − μ2 ; σX̅1−X̅2 = √σ2X̅1 + σ2X̅2 = √ +
N1 N2

σ2X̅1 σ2X̅2
μX̅1+X̅2 = μX̅1 + μX̅2 = μ1 + μ2 ; σX̅1+X̅2 = √σ2X̅1 + σ2X̅2 =√ +
N1 N2
(Muestras de una población infinita o muestreo con reposición de una población finita)
1, 1: media y desviación típica de la población 1
2, 2: media y desviación típica de la población 2
μX̅1 , σX̅1 : media y desviación típica de la distribución de muestreo de medias de la población 1
μX̅2 , σX̅2 : media y desviación típica de la distribución de muestreo de medias de la población 2
N1: tamaño de la muestra (población 1) ; N2: tamaño de la muestra (población 2)
Si N1 y N2  30, se distribuyen según distribución normal
p1 q1 p2 q2
μp1−p2 = μp1 − μp2 = p1 − p2 ; σp1−p2 = √σ2p1 + σ2p2 = √ +
N1 N2
p1 q1 p2 q2
μp1+p2 = μp1 + μp2 = p1 + p2 ; σp1+p2 = √σ2p1 + σ2p2 = √ +
N1 N2
(Muestras de una población infinita o muestreo con reposición de una población finita)
μp1 , σp1 : media y desviación típica de la distribución de muestreo de proporciones de la población 1
μp2 , σp2 : media y desviación típica de la distribución de muestreo de proporciones de la población 2
p1: probabilidad de éxito de un suceso (de la población 1)
q1 = 1 – p1: probabilidad de no éxito de un suceso (de la población 1)
p2: probabilidad de éxito de un suceso (de la población 2)
q2 = 1 – p2: probabilidad de no éxito de un suceso (de la población 2)
N1: tamaño de la muestra de la población 1
N2: tamaño de la muestra de la población 2
Si N1 y N2  30 se distribuyen según distribución normal.

Intervalo de confianza para las medias


σ
̅
X ± zc si el muestreo es de una población infinita o de una finita con reposición
√N
σ Np −N
̅
X ± zc √ si el muestreo es de una población finita de tamaño Np y sin reposición
√N N p −1
̅: media de la muestra
X
: desviación típica poblacional
Np: tamaño de la población (finita)
N: tamaño de la muestra. Si N  30 la distribución de muestreo de medias es aprox. normal
zc: coeficiente de confianza (del apéndice II)
Np Z 2 σ2
N=
(Np − 1)e2 + Z 2 σ2

Intervalo de confianza para proporciones


pq p(1−p)
P ± zc √ = P ± zc √ → si el muestreo es de una población infinita o de una finita con
N N
reposición
p.q Np −N
P ± zc √ √N si el muestreo es de una población finita de tamaño Np y sin reposición
N p −1

P: proporción (probabilidad) de éxitos en la muestra de tamaño N


p: probabilidad de éxito de un suceso de la población
q: probabilidad de no éxito de un suceso de la población
Np: tamaño de la población finita
N: tamaño de la muestra
zc: coeficiente de confianza (del apéndice II)
𝐍𝐩 𝐙𝟐 𝐩 𝐪
𝐍=
(𝐍𝐩 − 𝟏)𝐞𝟐 + 𝐙𝟐 𝐩 𝐪

Intervalo de confianza para diferencias y sumas (medias y proporciones)


𝜎12 𝜎22
̅
X1 − ̅
X2 ± zc 𝜎X̅1 −X̅2 = ̅
X1 − ̅
X2 ± zc √ +
N1 N2
𝜎12 𝜎22
̅1 + X
X ̅ 2 ± zc 𝜎X̅ +X̅ = X
̅1 + X
̅ 2 ± zc √ +
1 2
N1 N2
si el muestreo es de una población infinita o de una finita con reposición
̅1 , σ1 , N1 : media, desviación típica y tamaño de la muestra sacada de la población 1
X
̅
X2 , σ2 , N2 : media, desviación típica y tamaño de la muestra sacada de la población 2
p1 q1 p2 q2
P1 − P2 ± zc 𝜎p1−p2 = P1 − P2 ± zc √ +
N1 N2

p1 q1 p2 q2
P1 + P2 ± zc 𝜎p1+p2 = P1 + P2 ± zc √ +
N1 N2
P1: proporción (probabilidad) de éxitos en la muestra de tamaño N1
P2: proporción (probabilidad) de éxitos en la muestra de tamaño N2
p1, p2: probabilidad de éxito de un suceso estimadas de P1 y P2 respectivamente
q1, q2: probabilidad de no éxito de un suceso q1 = 1 − p1 , q2 = 1 − p2
N1, N2: tamaño de las muestras
zc: coeficiente de confianza (del apéndice II)

Intervalo de confianza para desviaciones típicas


σ
s ± zc σs = s ± zc
√2N
: desviación típica de una población normalmente distribuida
s: desviación típica de la muestra de tamaño N
zc: coeficiente de confianza (del apéndice II)

Ensayos de hipótesis y significación

Medias:
̅
X−μ
z= σ
√N
̅
X: media muestral
: media poblacional
 : desviación típica poblacional
N: tamaño de la muestra
Proporciones
P−p
z=
√pq/N
P: proporción de éxitos en la muestra
p: proporción de éxitos en la población
σp = √pq/N: desviación típica poblacional
N : tamaño de la muestra
q=1–p
X−Np
si P = X / N, donde X es el número real de éxitos en una muestra, z se convierte en: z =
√pqN
Diferencias de medias
σ21 σ22 ̅ 1 −X
X ̅1
μX̅1−X̅2 = 0 y σX̅1−X̅2 = √ + donde z viene dada por z =
N1 N2 2 2
σ σ
√ 1+ 2
N1 N2

̅1 , X
X ̅ 2 : media muestral de población 1 y 2
1, 2: desviación típica poblacional de 1 y 2
N1, N2: tamaño de la muestra de la población 1 y 2

Diferencias de proporciones
1 1
μP1−P2 = 0 y σP1−P2 = √pq ( + ) donde p viene dada por
N N 1 2
N1 P1 +N2 P2
p= y q=1–p
N1 +N2
P1 −P2
la variable tipificada z viene definida por z =
σP1 −P2
P1 y P2 proporciones muestrales de dos grandes muestras de tamaños N1 y N2

Teoría de pequeñas muestras – Distribución t de “Student”


̅−μ
X ̅−μ
X
t= √N − 1 = √N
s ŝ
N: tamaño de la muestra
̅
X: media muestral
: media poblacional
s: desviación típica muestral
ŝ = s√N/(N − 1)
Intervalos de confianza
s
̅
X ± tc
√N − 1
̅: media muestral
X
tc: coeficientes de confianza
s: desviación típica muestra
N: tamaño de la muestra
Ensayos de hipótesis y significación
Medias
̅
X−μ ̅
X−μ
t= √N − 1 = √N
s ŝ
̅
X: media muestral
: coeficiente de confianza
s: desviación típica muestral
N: tamaño de la muestra
Grados de libertad υ = N − 1
Diferencias de medias
̅ 1 −X
X ̅2 N1 s21 +N2 s22
t= donde σ = √
σ√
1
+
1 N1 +N2 −2
N1 N2
̅
X1 , ̅
X2 : media muestral de población 1 y 2
s1, s2: desviación típica muestral de 1 y 2
N1, N2: tamaño de la muestra de la población 1 y 2
grados de libertad  = N1 + N2 – 2
Prueba t para medias dependientes/pareadas/intrasujeto
x̅d − μ
t=
sd
∑(X − ̅
X) 2
s=√
N
s
sd =
√N − 1
̅
X̅ d : media de las diferencias
Sd: desviación estándar de las diferencias
Grados de libertad  = N – 1

Prueba t para medias Independientes


̅ diferencias − ( μ1 − μ2 )
X
t=
sd

(N1 − 1)s12 + (N2 − 1)s22 1 1


sd = √[ ]( + )
N1 + N2 − 2 N1 N2

∑(X − ̅
X) 2
s=√
N
GLtotal = n1 + n2 – 2 o total = 1 + 2

Distribución Chi-cuadrado
N s 2 (X1 − ̅X)2 + (X2 − ̅
X)2 + (X3 − ̅
X)2 +. . . . . +(XN − ̅
X) 2
χ2 = 2 =
σ σ2
 : desviación típica poblacional
s: desviación típica muestral
N: tamaño de la muestra
Intervalos de confianza para 2
s√N s√N
Para el 95% de confianza <σ<
χ0,975 χ0,025
Grados de libertad  = N – 1
𝟏 𝟐
Si   30: 𝟐𝐩 = (𝐳𝐩 + √𝟐 − 𝟏)
𝟐
Test de Chi-cuadrado
k
2
(o1 − e1 )2 (o2 − e2 )2 (ok − ek )2 (oi − ei )2
χ = + +. . . . + =∑
e1 e2 ek ei
i=1
oi: frecuencia observada
ei: frecuencia esperada
N: total de frecuencias y se cumple ∑ oj = ∑ ej = N
Grados de libertad  = k – 1

Tablas de contingencia
k
(oi − ei )2

ei
i=1
Grados de libertad  = (k – 1)(h – 1) para tablas h × k
oi: frecuencia observada
ei: frecuencia esperada
AJUSTE DE CURVAS
Recta de mínimos cuadrados
Y = a0 + a1 X
las constantes a0 y a1 se obtienen resolviendo el sistema:
∑ Y = a0 N + a1 ∑ X
∑ YX = a0 ∑ X + a1 ∑ X 2

Parábola de mínimos cuadrados


Y = a0 + a1 X + a2 X 2
las constantes a0, a1 y a2 se obtienen resolviendo el sistema:
∑ 𝐘 = 𝐚𝟎 𝐍 + 𝐚𝟏 ∑ 𝐗 + 𝐚𝟐 ∑ 𝐗 𝟐 .
∑ 𝐘𝐗 = 𝐚𝟎 ∑ 𝐗 + 𝐚𝟏 ∑ 𝐗 𝟐 + 𝐚𝟐 ∑ 𝐗 𝟑 .
∑ 𝐘𝐗 𝟐 = 𝐚𝟎 ∑ 𝐗 𝟐 + 𝐚𝟏 ∑ 𝐗 𝟑 + 𝐚𝟐 ∑ 𝐗 𝟒 .

Si se tienen tres variables


Z = a0 + a1 X + a2 Y
Se resuelve el siguiente sistema para obtener las constantes a0 , a1 , a2
∑ Z = a0 N + a1 ∑ X + a2 ∑ Y
∑ ZX = a0 ∑ X + a1 ∑ X 2 + a2 ∑ XY
∑ YZ = a0 ∑ Y + a1 ∑ XY + a2 ∑ Y 2

Correlación
Variación total: ∑(Y − ̅
Y) 2
Variación no explicada: ∑(Y − Yest )2
Variación explicada ∑(Yest − Y ̅)2
variación explicada ∑(Yest −Ȳ)2
Coeficiente de correlación r = ±√ = ±√ ∑(Y−Ȳ)2
variación total
ANÁLISIS DE VARIANZA

La media global está dado por:


1
X= ∑aj=1 ∑bk=1 Xjk
ab
VARIACIÓN TOTAL-
𝟐
𝐕 = ∑𝐣,𝐤(𝐗 𝐣𝐤 − 𝐗)

VARIACIÓN DENTRO DE LOS TRATAMIENTOS


2
VW = ∑j,k(Xjk − Xj )

VARIACIÓN ENTRE TRATAMIENTOS


2
VB = b  ∑j(Xj − X)

EXPERIMENTOS DE DOS FACTORES


VARIACIÓN TOTAL
2
V = ∑j,k(Xjk − X)

VARIACIÓN DEBIDA AL ERROR O AZAR


2
VE = ∑(Xjk − Xj − Xk + X)
j,k
VARIACIÓN ENTRE FILAS (TRATAMIENTOS)
a
2
VR = b  ∑(Xj − X)
j=1
VARIACIÓN ENTRE COLUMNAS (BLOQUES)
b
2
VC = a  ∑(Xk − X)
k=1
FORMULAS ABREVIADAS PARA CALCULAR VARIACIONES

FACTOR ÚNICO

VARIACIÓN TOTAL
2 T2
V = ∑j,k Xjk −
ab
VARIACIÓN ENTRE TRATAMIENTOS
1 T2
VB =  ∑j Tj2 −
b ab
VARIACIÓN DENTRO DE LOS TRATAMIENTOS
VW = V − VB
donde T es el total de los valores Xjk y Tj es el total de los valores en el tratamiento j-ésimo
PARA DOS FACTORES

VARIACIÓN TOTAL
2 T2
V = ∑j,k Xjk −
ab

VARIACIÓN ENTRE FILAS (TRATAMIENTOS)


a
1 2
T2
VR =  ∑ Tj −
b ab
j=1

VARIACIÓN ENTRE COLUMNAS (BLOQUES)


b
1 2
T2
VC =  ∑ Tk −
a ab
k=1

VARIACIÓN DEBIDA AL ERROR O AZAR


𝐕𝐄 = 𝐕 − 𝐕𝐑 − 𝐕𝐂
PARA DOS FACTORES CON REPETICION

VARIACIÓN ENTRE FILAS (TRATAMIENTOS)


a
2
VR = bc  ∑(Xj•• − ̅
X)
j=1

VARIACIÓN ENTRE COLUMNAS (BLOQUES)


b
2
VC = ac  ∑(X•k• − ̅
X)
k=1

VARIACIÓN RESIDUAL
2
VE = V − VR − VC − VI = ∑(Xjkl − Xjk• )
j,k,l

VARIACIÓN POR INTERACCIÓN


2
VI = c ∑(Xjk• − Xj•• − X•k• + ̅
X)
j,k

VARIACIÓN TOTAL
2 T2
V = VR + VC + VE + VI =   ∑(Xjkl − ̅ 2
X) =   ∑ Xjkl −
abc
j,k,l j,k,l
CUADROS PARA CÁLCULOS

Grados de Cuadrado
Variación F
libertad medio
Entre tratamientos VB
a–1 ŜB2 = ŜB2 /ŜW
2
VB a−1
Dentro de los tratamientos VW
a(b – 1) Ŝw
2
=
VW = V – VB a(b − 1)
Total
ab – 1
V

Grados de Cuadrado
Variación F
libertad medio
Entre tratamientos VB
a–1 ŜB2 = ŜB2 /ŜW
2
VB a−1
Dentro de los tratamientos VW
N–a Ŝw2
=
VW = V – VB N−a
Total
N–1
V

Variación Grados de libertad Cuadrado medio F


Entre tratamientos VR
a–1 ŜR2 = ŜR2 /ŜE2
VR a−1
Entre bloques VC
b–1 Ŝc2 = ŜC2 /ŜE2
VC b−1
Residual o aleatoria VE
(a–1)(b–1) ŜE =
2
VE (a − 1)(b − 1)
Total
ab – 1
V

Variación Grados de libertad Cuadrado medio F


Entre tratamientos VR
a–1 ŜR2 = ŜR2 /ŜE2
VR a−1
Entre bloques VC
b–1 Ŝc2 = ŜC2 /ŜE2
VC b−1
Interacción VI
( a – 1 )( b – 1 ) ŜI2 = ŜI2 /ŜE2
VI (a − 1)(b − 1)
Residual o aleatoria VE
ab ( c – 1 ) ŜE2 =
VE ab(c − 1)
Total
abc – 1
V

También podría gustarte