Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Formulas de Estadistica PDF
Formulas de Estadistica PDF
Relativa Elementos de la población o muestra desde entre las clases C1... a Ci . Fi = f 1 + f 2 ..... f i ⇒ Fn = 1
Acumulada
Datos Agrupados
Si la muestra consta de 20 o más datos, se los datos se agrupan en clases.
Pasos para agrupar datos
1 Determinar el rango o recorrido de los datos: Rango (RM) = Valor mayor de la muestra (V m) – Valor menor de la muestra (V m)
2 Establecer el número de clases (k).
n si n no es muy grande
Número de clases = Número de int ervalos = k ≈
1 + 3.22 log(n) en otro caso
3 Establecer la amplitud de clase. Amplitud para cada Clase (A): Rango (RM) / Número de Clases (k). 1
4 Formar clases y agrupar datos.
Este paso implica definir:
Rango de una tabla de frecuencias (RT) = k * A
Diferencia (d) = RT-RM
Límite inferior de la primera clase (LI1) = Mínimo {xi} – (d/2)
Límite superior de la primera clase (LS1) = L1 + A
Marca de clase i: (L i - 1 + L i )/2
5 Construir histogramas y gráficos de frecuencias de forma similar a los datos no agrupados pero recogiéndolos por intervalo e intervalos de clase
1.2 Medidas de Centro (Tendencia Central).
Medida Fórmula Significado
n
Media Aritmética ∑x
i =1
i * ni
x=
n
Media Geométrica G = x1 * x 2 * ..x n
n xi (ni)= dato i, n = número de datos en la muestra
1 n
H= =
Media Armónica 1 n 1 n
1
∑
n i =1 xi
∑x
i =1 i
k
Media Aritmética
∑w x i i
ponderada x =
w i =1
k
wi (a veces frecuencia) = peso del dato i
∑w
i =1
i
Con una muestra de n datos, el cálculo del promedio recortado, requiere ordenar los datos de menor a mayor, y
luego eliminar los datos menores y los mayores, dejando sólo los del centro. A estos últimos se calcula el
Media Recortada promedio habitual. Este cálculo elimina la influencia de posibles valores extremos. Aunque, aparentemente, se
pierde información, realmente, el ordenar todos los datos, hace uso completo de la muestra, aunque como
consecuencia de esto, algunos datos no se usen en el paso siguiente.
1
Amplitud de Clase de la mediana: A = LRS-LRI, LRS = límite superior y LRI = límite inferior de la clase que contiene la mediana.
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 2 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
1.2.1 Medidas de Dispersión
1.2.1.1 Datos no agrupados.
Medida Fórmula Significado
Desviación absoluta media 1 n
Dm = ∑ xi − x
n i =1 _
Varianza muestral (s2) o 1 n xi = dato i, x = media aritmética, n = número de datos
poblacional ( σ2 ) S2 = ∑
n i =1
( xi − x ) 2
Desviación estándar o 2 s2 = varianza o variancia
diferencia promedio (s) s= s
k
Desviación Media DM = ∑ f i * mi − x mi = marca de clase i,
_
i =1
k k
x = media aritmética,
∑x ∑x fi = frecuencia de la clase i.
2 2
i − x fi i − x * fi
k
S= =
∑ fi = n = número total de datos en muestra
Desviación Estándar i =1 i =1
n
n −1
∑ fi − 1
i =1
i =1
i =1
Cuartil División de una distribución de frecuencias observadas en una proporción de cuatro partes Q i = X i * ( n +1)
4
Decil División de una distribución de frecuencias observadas en una proporción de diez partes. Di = X i * ( n +1)
10
Percentil División de una distribución de frecuencias observadas en una proporción de cien partes
Pi = X i*( n+1)
100
Nota: Cuando los índices sean facciones se calcula el promedio entre los índices contiguos.
1.2.2.3.1 Cuantiles. Datos Agrupados.
Cuantil Significado Fórmula
Mediana La mediana distribuye una distribución de n
frecuencias observadas en una proporción de 2 − Fmediana −1
dos partes X mediana = Límite Inferiori + * A
f mediana
Límite i = límite real inferior de clase que contiene a la mediana,
F mediana - 1 = sumatoria de frecuencias anteriores a la clase en donde está la mediana,
f mediana = frecuencia de clase en donde está la mediana,
n = número de datos en la muestra
A = Amplitud de Clase (donde está la mediana)
Cuartil División de una distribución de frecuencias i
observadas en una proporción de cuatro ( − F (i − 1))
Qi = límite inf eriori + 4 *A
partes fi
Decil División de una distribución de frecuencias i
( − F (i − 1))
observadas en una proporción de diez partes. 10
Di = límite inf eriori + *A
fi
Percentil División de una distribución de frecuencias (
i
− F (i − 1))
observadas en una proporción de cien partes 100
Pi = límite inf eriori + *A
fi
Desviación Intercuartílica (caso general) Q3 − Q1
Desciación int ercuartílica =
2
1.2.3 Medidas de Forma.
Concentración EL índice de Gini (IG) establece si los n −1
n1 + n2 + n3 + ...ni
pi = *100 ;
n
x1 * n1 + x 2 * n 2 + x3 * n3 + ...xi * ni
qi = * 100
x1 * n1 + x 2 * n 2 + x3 * n3 + ...xi * n n
3 PROBABILIDAD.
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 5 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Espacio Representado por δ, es el conjunto de todos los resultados posibles de un experimento
muestral
Eventos Hecho suceso o acontecimiento, que es subconjunto del espacio muestral. Los experimentos y eventos probabilísticos se pueden
expresar con la notación de conjuntos;
• A∪B; Evento que ocurre si y solo sí A ocurre o B ocurre o ambos ocurren.
• A∩B; Evento que ocurre, sí y solo sí, A y B ocurren a un mismo tiempo.
• A c; Es el complemento de A. Es el evento que ocurre, sí y solo sí, A no ocurre.
• A y B son eventos mutuamente excluyentes o exclusivos si A∩B = φ (vacío)
Laplace Probabilidad (p) de un evento = Numero de eventos favorables / Total de eventos.
Axiomas (1) La probabilidad de que ocurra un evento A cualquiera se encuentra entre cero y uno: 0 ≤ p(A) ≥ 1.
(2) La probabilidad de que ocurra el espacio muestral δ debe de ser 1: p(δ) = 1.
(3) Si A y B son eventos mutuamente excluyentes, entonces la p(A∪B) = p(A) + p(B).
(4) Si se hay n eventos mutuamente excluyentes o exclusivos A1, A2, A3,.....An, entonces; p(A1∪A2∪.........∪An) = p(A1)
+ p(A2) + .......+ p(An)
Teoremas • Si un evento nulo o vacío, la probabilidad de que ocurra es cero; p(φ)=0.
• La probabilidad del complemento de A, A c es p(A c)= 1 – p(A).
• Si un evento A ⊂ B, p(A) ≤ p(B).
• La p( A \ B ) = p(A) – p(A∩B),
• Si A y B san eventos p(A∪B)=p(A) + p(B) – p(A∩B),
• En un espacio muestral (δ), con n elementos {a1, a2, a3,.....,a n}, cada uno con una probabilidad pi ≥ 0, este espacio en un espacio
finito de probabilidad; que cumple (a) Las probabilidades asociadas a cada uno de los elementos de δ debe ser mayor o igual a
cero, pi≥0 y (b) La sumatoria de las probabilidades asociadas a cada uno de los elementos de δ es igual a 1. Σpi = 1 Si no se
cumple con las características aludidas, no es un espacio finito de probabilidad
condición Sea δ un espacio muestral que tiene definido un evento E y p(E) > 0, la probabilidad de ocurrencia de un evento A (también, definido
en el mismo espacio muestral), dado que E ocurrió, es; p( A ∩ E )
p( A | E ) =
p( E )
Compuesta La probabilidad de darse simultáneamente dos sucesos (intersección de A y B) es igual la probabilidad del suceso B condicionada al
cumplimiento del suceso A, multiplicada por la probabilidad a priori del suceso A, es decir: p ( A ∩ B ) = p ( B / A) * p ( A)
Prob. total. La probabilidad de que ocurra el suceso B es igual a la suma de multiplicar a la probabilidad de cada suceso de A por cada una de las
probabilidades de B condicionadas de los diferentes sucesos A. Este teorema se aplica si los sucesos de A forman un sistema completo
n
(suma de sus probabilidades es 1). p ( B ) = ∑ p ( Ai ) * p ( B / Ai ) .
i =1
Independe- Se dice que un evento B es independiente de un evento A, si p(BA) = p(B); probabilidad que ocurra B no es afectada por la
ncia. ocurrencia del evento A, al sustituir la expresión anterior en el teorema de multiplicación de probabilidades, p(A∩B) = p(A)*p(BA) =
p(A)p(B), entonces, p(A∩B)=p(A)p(B).
Teorema de Si δ es un espacio muestral formado por los eventos A1, A2, A3,.....,An mutuamente excluyentes, entonces, δ = A1∪A2∪A3∪.....∪An.
Bayes Un evento B definido en δ, tal que; B = δ∩B = (A1∪A2∪A3∪.....∪An)∩B = (A1∩B)∪(A2∩B)∪(A3∩B)∪.....∪(An∩B), Donde cada
uno de los eventos Ai∩B son eventos mutuamente excluyentes, por lo que, p(B) = p(A1∩B) + p(A2∩B) + p(A3∩B) +......+ p(An ∩B),
como la p(Ai ∩B) = p(Ai) p(BAi) , o sea que la probabilidad de que ocurra el evento Ai y el evento B es igual al teorema de la
multiplicación para probabilidad condicional, luego; p(B) = p(A1)p(BA1) + p(A2)p(BA2) + p(A3)p(BA3) + p(An)p(BAn) Si
deseamos calcular la probabilidad de ocurrencia de un evento Ai dado que B ocurrió, entonces;
p( Ai ∩ B) p( Ai ) * p( B / Ai )
p( Ai / B) = =
p( B) p( A1 ) * p( B / Ai ) + p( A2 ) * p( B / A2 ) + ... + p( An ) * p( B / An )
Sistemas de n
confiabilidad Si los eventos son serie y exclusivos: p( A1 ∩ A2 ∩ ..... ∩ An ) = Π p( Ai )
i =1
n
Si los eventos son paralelos y exclusivos: p ( A1 ∪ A2 ∪ ..... ∪ An ) = 1 −
Π (1 − p( A ))
i =1
i
Propiedades 1. La variable X no es aleatoria por atribuir un valor cualquiera a un elemento e∈ E porque este valor es determinístico.
Lo aleatorio, es el experimento, no se sabe que elemento de E puede ocurrir.
2. La composición de una función real con una variable aleatoria es también otra variable aleatoria, pues está definida
sobre E y cada elemento asocia un real. X : E. → R; h : R. → R ⇒ h (X) = h. X = h o X: E → R
3. Las variables aleatorias se clasifica en: (1) VA discretas: sólo toman un número finito o infinito numerable de
valores. X : E → N. Y, (2) VA continua: toma un número infinito no numerable de valores. X : E. → R
4. Si los elementos de E tienen una distribución de probabilidad, ésta se transmite a los valores que toma la variable
aleatoria X. Es decir, la VA conserva la estructura probabilística del experimento aleatorio que describe, así que si P
es la función de probabilidad definida sobre el espacio muestral E, que induce otra función P,. definida sobre R, se
conservan los valores de las probabilidades:
P [X = x] = P [{e ∈ E : X (e) = x}] y P [X ∈ (a, b) ] =P [{e ∈ E : X (e) ∈ (a, b)}]
5. Propiedades de la Esperanza: (1) Si c es una constante, E(c)=c; (2) E(X - µ) = E(X) - µ = 0; (3) E[c g(X)] = c E[g(X)]; (4)
[u(X) + v(X)] = E[u(X)] + E[v(X)]
6. Propiedades de la Varianza: (1) Si c es constante, Varianza (c)=0; (2) Varianza (X) = E(X2) - µ2;(3) Si a y b son constantes
arbitrarias, Varianza (a + b X) = b2 Varianza (X)
5.1 FUNCIONES DE VAD TÍPICAS.
Función Significado
Uniforme Experimento aleatorio de una variable aleatoria X de n valores con rangos x1, x2,.... x n todas con igual probabilidad.
1 → p = P (X = 1)
X ∼ UD (n) si X =
0 → q = (1- p) = P (X = 0)
1
f X ( x; UD(n)) f X ( xi ; UD(n)) = p( xi ;UD (n)) = para X = {1,2,3,....n}
n
FX ( x; UD (n)) = P( X ≤ x i ) = ∑ p( X = y; UD(n))
F (x; UD(n)) Y ≤ xi
n +1 n2 −1
E( X ) = Var ( X ) =
2 12
Bernoulli Experimento aleatorio realizado una sola vez para observar si cierto suceso ocurre o no, siendo p la probabilidad de éxito
y q = (1- p) de fracaso. En este experimento X = 1 si el suceso ocurre y X = 0 en caso contrario.
1 → p = P (X = 1)
X ∼ Ber(p) si X =
0 → q = (1- p) = P (X = 0)
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 7 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Función Significado
P (X = 1)= p
f X ( x; Ber ( p)) = P (X = 0)= 1 - p
P (X = n) = 0, ∀n ≠ 0, 1
0 si x < 0
F (x) = q si 0 ≤ x < 1
1 si x ≥ 1
E [X] = µ = p Var ( X ) = σ 2 = p * (1 − p ) = p * q
Binomial Veces que un suceso ocurre cuando se realizan pruebas idénticas e independientes con 2 resultados posibles.
El espacio muestral del experimento es el conjunto E de n-uplas (éxito o fracaso). La variable
X ∼ Bin (n, p)
X de interés es el número de éxitos obtenidos en esas n pruebas.
f X (x; Bin (n, p)) = C xn * p x * (1 − p ) n − x
F ( xi ) = p ( X ≤ xi ) = C 0n p 0 q n + C1n p 1 q n −1 + .... + C kn p k q n − k
F (x) = siendo k el mayor número entero menor o igual a xi.
Esta función de distribución proporciona, para cada número
E [X] = µ = n * p Var ( X ) = σ 2 = n * p * (1 − p) = n * p * q
Binomial Ensayos Bernoulli independientes con una probabilidad constante p, con vad X ensayos hasta tener r éxitos.
Negativa El espacio muestral del experimento es el conjunto E de n-uplas (éxito o fracaso). La variable
X ∼ Bn (p ,r)
X de interés es el número de éxitos efectuados hasta que se tiene r éxitos.
f X (x; Bn (p, r)) = C rx−−11 * p r * (1 − p) x − r donde x = r , r + 1, r + 2,...
F ( xi ) = p( X ≤ xi ) = C0n p 0 q n + C1n p1q n−1 + .... + C kn p k q n− k
F (x) = siendo k el mayor número entero menor o igual a xi.
Esta función de distribución proporciona, para cada número
r *q r *q
E( X ) = Var ( X ) =
p p2
Geométrica Predecir el instante en que se produce el primer éxito.
El espacio muestral del experimento de repetir pruebas hasta encontrar el primer éxito, .que se
X ∼ Ge(p)
produce en el instante k, para lo cual deben producirse (k - 1)fracasos.
f X (x; Ge (p)) = P (X = k) = p (1 - p)k , donde k = 1, 2, 3, 4, . . .
x x
F ( x ) = P ( X ≤ x ) = ∑ p * (1 − p ) k = ∑ p * q k = 1 − q para ( k = 0,1,...)
k +1
F (x) =
k =0 k =0
E [X] = µ = q/ p Var ( X ) = σ 2 =
q
p2
Hiper- Considerando un conjunto de N objetos con K objetos clasificados como éxitos y N-K clasificados como fallas, tomar
Geométrica muestra de tamaño n (sin reemplazo) entre N objetos donde K y n son ≤ N, la VAD X es éxitos de la muestra.
C xK * C nn−−xK
f X ( x; K − Ge x; N, K, n)) = donde x = 0, 1, 2,...mínimo( K , n)
C nN
x
F (x) = F ( x ) = P ( X ≤ x ) = ∑ f X ( x; K − Ge (x; N, K, n) )
k =0
E [X] = µ = np V ar [X] = σ2 = n p q ((N-n) /N-1)) con p = K/N
Poisson Contar éxitos en n pruebas cuando n es grande y de ocurrencia rara (probabilidad de éxito pequeña).
X ~ Poi(λ ) Se supone que X ∼ Bin (n, p): P (X = 1)= C xn * p x * (1 − p ) n − x , n → ∞, λ = n * p, n → 0
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 8 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Función Significado
λ k
f X ( x; Po (λ )) = P (X = k) = e λ * donde k = 0, 1, 2, . . .
k!
x
λk
F (x) = P( X ≤ x) = ∑ e * λ
donde k = 0, 1, 2, . . .
k =0 k!
E( X ) = µ = λ Var ( X ) = σ 2 = λ
6 VARIABLES ALEATORIAS CONTINUAS.
6.1 GENERALIDAD.
Función Significado
Densidad o VAC, X, f : R .→ R, es una función integrable no negativa de la recta real, que verifica las propiedades: f(x) ≥ 0;
Masa ∞ b
f ( x)dx = 1 ; P (X ∈ A) = f ( x)dx . Sí dados a < b, P [a ≤ X ≤ b] = f ( x)dx
∫ ∫ ∫
−∞ A a
∫ f (t )dt
−∞
∑(x −µ) * f (x )
∞ ∞
2
σ 2
E [X] = µ = x * f ( x ) * dx
∫ =
∫(x−µ) * f (x) σ=
2
i i
−∞ −∞ i
6.2 FUNCIONES DE VAC TÍPICAS.
Función Significado
Uniforme Hay dos aplicaciones básicas: (1) La mayoría de los mecanismos aleatorios asociados a experimentos de calibración, son
distribuciones uniformes. (2) Muchos fenómenos de barrido (lectura a disco, CD, ...) pueden asociarse a barridos con
velocidad uniforme, los tiempos de búsqueda son de distribución uniforme.
X ∼ Uc (a, b)) = Se asocial a una recta paralela al eje x con límites a y b.
1
si a < x < b
f X (x; Uc (a, b)) = b−a
0 Re sto
0 si x ≤ a
x−a
F (x) = si a < x < b
b−a
1 si x ≥ b
a+b (b − a) 2
E( X ) = µ = Var ( X ) = σ 2 =
2
12
Beta Inferencia relativa a proporciones (Qué proporción de chips defectuosos hay en una línea de producción)..
Una VAC X con parámetros α, β en [0, 1], donde α, β > 0, puede usarse para modelar
fenómenos aleatorios que tomen valores sobre un intervalo finito [α, β], tomando α como el
X ∼ Be (α, β) ) = origen y β - α como la unidad. Considérese la función Gamma como
∞
Γ(α ) = ∫ xα −1e− x dx con la propiedad básica que Γ(α + 1) = αΓ(α )
0
Γ(α + β ) α −1
x * (1 − x) β −1
f X ( x; Be (α , β )) = Γ(α ) + Γ( β )
0 Re sto
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 9 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Función Significado
x
P (X ≤ x) =
F (x) = ∫ f (t )dt
−∞
E [X] = µ = α V ar [X] = σ2 = α *B
α +β (α + β ) 2 * (α + β + 1)
Exponenci Describe procesos en los que interesa saber el tiempo hasta que ocurre determinado evento, asume que el proceso no
al tiene memoria (no depende de lo que ocurrió). También X asocia a la distancia entre ocurrencias sucesivas de un proceso
Poisson con media λ > 0. En este caso α se asimila como λ.
Modelos de fiabilidad de llegadas y de tiempos de servicios de sistemas. Es equivalente en el
X ∼ Exp (x; λ) =
caso continuo a la distribución geométrica en el caso discreto.
λ * e − λ *x para x > 0
f X ( x; λ ) =
0 Re sto
0 para x ≤ 0
F (x) =
1 − e −αx para x > 0
1 1
E( X ) = µ = Var ( X ) = σ 2 =
λ λ2
Normal Origen, en errores de medición, propuesta por el matemático Gauss, expresa que los errores de medición se aproximan a
la denominada curva normal de errores. Tres razones de su uso: (1) Interés en mediciones de diversas magnitudes,
sometidas a errores que, típicamente, se modelan como una distribución normal. (2) Propiedades estadísticas y
probabilísticas, su cálculo de interés estadístico, es relativamente sencillo. El Teorema Central del Limite asegura que,
para muestras grandes y bajo condiciones apropiadas, muchas observaciones se aproximan, en distribución, a la normal
X ~ N( µ , σ 2 ) Una VAC X con parámetros µ y σ 2 se asemeja a una campana de gauss
( x−µ )2
f X ( x; α ) =
1 −
f X ( x; N ( µ , σ 2 ) = e 2σ 2
, donde − ∞ < x < ∞
2π σ
x
P (X ≤ x) =
F (x) = ∫ f (t )dt
−∞
E [X] = µ V ar [X] = σ2
Normal Consideramos ahora, específicamente, la denominada distribución z normal estándar, con µ = 0 y σ = 1,
Estándar Z ∼ N (0, 1) = Una VAC Z con parámetros µ = 0 y σ2=1
z2
1 −
f Z ( z, N (0, 1)) = f X ( x; N (0,1) = e 2
, donde − ∞ < z < ∞
2π
∞ −t 2
1
F (Z) = p( Z ≤ z ) = ∫
−∞ 2π
e 2
dt
E [X] = 0 V ar [X] = 1
Aproximaciones de Binomial y Poisson a normal estándar
X − np (BINOMIAL)
np(1 − p )
Z=
X −λ (Poisson)
λ
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 10 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Función Significado
Gamma Esta distribución depende de dos parámetros λ y k denominados parámetros de escala y de forma respectivamente. Es
decir, al variar k varía la forma de la distribución, mientras que al variar λ sólo varía la escala de la distribución. Si se
define el valor del parámetro λ en función del parámetro k y el parámetro µ según la expresión λ =k / µ , se tiene que la
función de densidad se escribe:
2 * Γ( 2 )
x
E [X] = n V ar [X] = 2 x n
Exponenci La distribución exponencial negativa es caso especial de la distribución gamma. Las distribuciones exponencial y gamma
al Negativa son importantes en teoría de colas y confiabilidad. El tiempo entre llegadas en las instalaciones de servicio y el tiempo de
falla de los componentes y sistemas eléctricos, frecuentemente involucran la distribución exponencial.
Relación con el proceso de Poisson. La aplicación más importantes de la distribución exponencial es el proceso Poisson.
La distribución de Poisson se usa para calcular la probabilidad de números específicos de “eventos” en un período. En
ocasiones el período o la cantidad de espacio es la variable aleatoria. La relación entre la distribución exponencial
(exponencial negativa) y el proceso de Poisson cumple: λ = 1 .
β
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 11 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Función Significado
X ~ EN(β ) Una VAC X con parámetro β
x
1 −
f (x) = f ( x) = x β
Si x > 0, β > 0; f ( x) = 0, en otro caso.
β
x
E( X ) = β Var ( X ) = β 2
7 VARIABLES ALEATORIAS DISCRETAS O CONTINUAS CONJUNTAS.
Las Variables Aleatorias Conjuntas Discretas o continuas se asocian a experimentos aleatorios con + de una variable aleatoria.
Propiedades • Función de probabilidad de una a n variables VAD ó VAC con función de probabilidad conjunta.
• Función de probabilidad binomial a la función de probabilidad multinomial en el caso VAD.
• Funciones de momentos a covarianzas, correlaciones y distribuciones normales multivariadas.
• Propiedades de la esperanza y la varianza a múltiples variables.
7.1 GENERALIDAD.
Función Significado
Densidad o Masa • La función de densidad conjunta de VAD X1, X2, X3, ... X p ,es: f (X1, X2, X3, ... X p) = p (X1=x1, X2=x2,
o Probabilidad X3=x3, ... X p = x p) para todos los puntos (x1, ...x p) en el rango X1, X2, X3, ... X p
Distribución • función de densidad conjunta de VAD X1, X2, X3, ... X p ,es: f (X1, X2, X3, ... X p) satisface propiedades:
o f X 1, X 2,... Xp ( x1, x 2,...xp) ≥ 0
o ∑ ∑ ......∑ f
x2 x2 xp
X 1, X 2 ,... Xp ( x1 , x 2 ,...x p )... = 1
• Función de probabilidad VAC Xi,....Xp es f(X1,...Xp; x1,...xp) función de probabilidad marginal de Xi:
• E(Xi)=
∫ ∫ ...∫ x i f ( X 1 ,... X p ; x1 , x 2 ,....x p )dx1 , dx 2 ,....dx p
• V(Xi)= ∑ (x
R
i − µ X i ) 2 f ( X 1 ,... X p ; x1 , x 2 ,....x p )dx1 , dx 2 ,....dx p
∑y i
una muestra. Se expresa con una fórmula, por ejemplo el estimador de la media poblacional: Y = i =1
): El
n
estimador puntual θ´ es un estimador insesgado para θ si E(θ´) = θ, si no es insesgado la diferencia entre E(θ´) -
θ se conoce como sesgo de θ´, es decir si el estimador es insesgado el sesgo es cero.
3. Si se consideran todos los estimadores insesgados de θ, el que tiene la menor varianza recibe el nombre de
estimador insesgado de varianza mínima (EIVM).
4. El error cuadrático medio de un estimador θ´ del parámetro θ es ECM (θ´) = E (θ´- θ)2= V (θ´) – (sesgo)2.
5. Si θ es un parámetro objetivo y θ´ es un estimador, el error de estimación E es: |θ´-θ|. Para comparar dos
estimadores θ1´ y θ2´ se usa el concepto de eficiencia relativa de θ1´ respecto θ2´ = ECM (θ1´) / ECM (θ2´).
9. Estimadores Puntuales
θ n θˆ E (θˆ) V (θˆ)
σ2
µ n y µ Media
n
pq
p n y p Proporción
n
σ 12 σ 22
µ1-µ2 n1n2 Y1 − Y2 µ1-µ2 + Diferencia entre dos medias
n1 n2
Y1 Y2 p1q1 p2 q2
p1-p2 n1n2 − p1-p2 + Diferencia entre dos proporciones
n1 n 2 n1 n2
Método de 1. Si X es una VAD con distribución f(x, θ) donde θ es un parámetro desconocido. Sean x1, ...x n los valores
Máxima observados de la muestra aleatoria de tamaño n. La función de verosimilitud de la muestra es
Verosimilitud L(θ) = f(x1, θ). f(x2, θ) f(x3, θ)..... f(x n, θ)
2. El estimador de máxima verosimilitud de θ, es el valor de θ, que maximiza la función de verosimilitud
8.3 Distribuciones de Muestreo.
Función Significado
Densidad o Masa o • De una estadística recibe el nombre de distribuciones de muestreo
Probabilidad • Distribución de muestro de medias. Si X1, X2, X3... X n es una muestra aleatoria de tamaño n tomada de una
Distribución
población finita o infinita con media µ y varianza finita σ2 y X es la media muestral entonces la forma
límite de la distribución de Z = X − µ cuando n → .∞. = 1 es la distribución normal estándar.
σ/ n
• Planteamiento típico: Se dan Media y Desviación estándar y la forma de distribución muestral. Se toma una
muestra n y se pide la probabilidad específica respecto a la muestra un valor de confiabilidad:
P( ( X ( condición ) Valor ) = 1 − α )
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 14 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Ji cuadrada Si Z1, Z2, Z3... Z k es variables aleatorias distribuidas normal e independiente, con media µ y varianza finita σ2 = 1,
entonces la variable aleatoria X = Z12, Z22, Z32... Z k2 tiene la función de densidad de probabilidad
k k
1 −1 −
f ( x) = x2 e 2
para x > 0 y se dice que sigue una distribución ji-cuadrado con k grados de
k
2 k/2
Γ( )
2
libertad, abreviadamente, χ k2 .
∞
Puntos Críticos: P ( X > χα2 , k ) = ∫ f (u)du = α
χ α2 , k
X critico − µ
Z=
σ
n
Casos:
1. Intervalo de confianza para la media si se conoce la varianza.
σ σ
x α = X − z1− α * ,x α = X +z α *
2 2 n 1− 2 1−
2 n
2. Intervalos de confianza para la media si no se conoce la varianza (caso general).
Sˆ Sˆ
x α = X − t n −1,1− α * , x α = X +t α *
2 2 n 1− 2 n −1, 1−
2 n
3. Intervalo de confianza para la varianza.
(n − 1) * Sˆ 2 (n − 1) * Sˆ 2
σ ∈ 2
2
,
χ
n −1,1− α χ 2 α
n −1,
2 2
4. Estimación de tamaño muestral.
z2 α
1−
N≥ 2
Ŝ 2
d2
5. Intervalos para la diferencia de medias de dos poblaciones Sub-caso diferencia de medias homocedáticas
1 1
µ1 − µ 2 = ( Xˆ 1 − Xˆ 2 ) ± t α * Sˆ +
n1+ n 2 − 2 ,1−
2
n1 n 2
6. Intervalos para la diferencia de medias de dos poblaciones Sub-caso diferencia de medias no homocedáticas
Sˆ12 Sˆ12
µ1 − µ 2 = ( Xˆ 1 − Xˆ 2 ) ± t α * +
n1+ n 2 − 2 ,1−
2
n1 n2
7. Intervalo para una proporción (variables dicotómicas).
pˆ * qˆ
p = pˆ ± z α *
1−
2
n
8. Elección del tamaño muestral (variables dicotómicas).
z2 α z2 α
1− pˆ * qˆ 1 1− 2
N ≥ pˆ * qˆ 2
2
, Si error = z 2 α ó N≥ , se sin no se tiene estimación de p
error 1−
2
N 4 error 2
9. Intervalo para la diferencia de dos proporciones (variables dicotómicas).
pˆ 1 * qˆ1 pˆ 2 * qˆ 2
p1 − p 2 ∈ pˆ 1 − pˆ 2 ± z α * −
1−
2
n1 n2
8.5 Prueba de hipótesis.
8.5.1 Procedimiento General de Prueba de Hipótesis.
Propósito Efectuar una prueba de hipótesis
Condiciones Calidad de la prueba depende de la cantidad de datos. Generalmente 30 o mas datos. Las consideradas en cada
caso respecto a cada función de distribución muestral
Entradas Datos clasificados en orden creciente; Nro. de datos en la distribución a probar (n); Distribuciones muestrales
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 16 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Pasos 1. Del contexto del problema identificar parámetros de interés
2. Establecer la hipótesis nula: H0
3. Especificar una apropiada hipótesis alternativa, H1
4. Seleccionar el nivel de significancia (α)
5. Establecer un estadístico de prueba apropiado.
6. Establecer la región de rechazo para el estadístico
7. Calcular cantidades muestrales necesarias, sustitución y cálculo en el estimador estadístico de prueba
8. Decidir rechazo o no rechazo de H0 para notificarlo al contexto del problema
Interpretación Áreas de cola < 0,05 generalmente son suficientes para rechazar la prueba. Áreas de cola > 0,2 son suficientes
para aceptar la prueba. Valores intermedios indican grados intermedios de prueba.
Una Población
Población Contrastes Estadístico de Región de Rechazo Int. de confianza IC( 1-α)
Contraste
a) z 0 =
x − µ0 1 − a ) z0 > zα 1 − b) t 0 > t
n − 1;
α a) µ ∈= x ± z α σ
(1) H0: µ =µ0; H1: µ ≠µ0 σ/ n
2 2
n
2 − a) z 0 < − z α 2 − b) t 0 < −t 2
N(µ, σ2) (2) H0: µ ≥µ0; H1: µ <µ0 α
x − µ0 2
n −1;
2
S
(3) H0: µ ≤µ0; H1: µ>µ0 b) t 0 = 3 − a) z 0 > z α b) µ ∈= x ± t
3 − b) t 0 > t
s/ n n −1;
α
n −1;
α
n
2
2 2
1) z0 > zα
(1) H0: p =p0; H1: p ≠p0 p − p0 2
pq
B(n, p) con n →∞ (2) H0: p ≥p0; H1: p <p0 z0 = 2) z 0 < − z α
p ∈n→∞ = p ± z α
p0 q 0 / n 2
n
(3) H0: p ≤p0; H1: p>p0 3) z 0 > z α 2
2
X0 > χ 2 α
(n − 1) s 2 n −1;
X0 = 1) 2
(1)H0: σ =σ0; H1: σ ≠σ0 σ 02 (n − 1) s (n − 1) s
2 2
z0 > χ n −1;1−α
2
Dos Poblaciones
Población Contrastes Estadístico de Contraste Región de Rechazo
1 − b) t 0 > z α
Cualquiera con x1 − x2 1 − a ) z0 > z α
(1) H0: µ1 =µ2; H1: µ1 ≠µ2 x1 − x 2 2
E(x1)= µ1; VAR (x1), σ21 a) z 0 = b) t0 = 2
2 − b) t 0 < − z α
(2) H0: µ 1≥µ2; H1: µ1 <µ2
2 2
σ 2
σ 2
s s 2 − a ) z 0 < − zα
E(x2)= µ2; VAR (x2), σ22 +
1 2
1
+ 2
2
(3) H0: µ 1≤µ2; H1: µ 1>µ2 n1 n2 n2 n2
3 − a ) z 0 > zα 3 − b) t 0 > z α
2
1 − a ) z0 > zα 1 − b) t 0 > t
n − 1;
α