Está en la página 1de 17

Universidad Industrial de Santander

Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones


Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 1 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
1 Estadística Descriptiva
1.1 Variables Unidimensionales. Frecuencias.
Datos no agrupados
Frecuencias Contexto Fórmula
Clase
En variables discretas el valor xi es la clase C misma. i
Absoluta
Número de elementos ni de una Clase Ci de una población o una muestra
k
ni siempre se cumpla que∑ ni = n
i =1
Relativa Número de elementos de la población o muestra de una Clase (Ci,) n k k
ni
respecto al total de elementos fi = i ⇒
n ∑f =∑ n
i =1
i
i =1
=1

Absoluta Número de elementos de la población o muestra acumulados hasta una i

Acumulada clase (Ci) , esto es, desde C1, C2, .. hasta Ci Ni = ∑ n j


j =1

Relativa Elementos de la población o muestra desde entre las clases C1... a Ci . Fi = f 1 + f 2 ..... f i ⇒ Fn = 1
Acumulada
Datos Agrupados
Si la muestra consta de 20 o más datos, se los datos se agrupan en clases.
Pasos para agrupar datos
1 Determinar el rango o recorrido de los datos: Rango (RM) = Valor mayor de la muestra (V m) – Valor menor de la muestra (V m)
2 Establecer el número de clases (k).
 n si n no es muy grande
Número de clases = Número de int ervalos = k ≈ 
1 + 3.22 log(n) en otro caso
3 Establecer la amplitud de clase. Amplitud para cada Clase (A): Rango (RM) / Número de Clases (k). 1
4 Formar clases y agrupar datos.
Este paso implica definir:
Rango de una tabla de frecuencias (RT) = k * A
Diferencia (d) = RT-RM
Límite inferior de la primera clase (LI1) = Mínimo {xi} – (d/2)
Límite superior de la primera clase (LS1) = L1 + A
Marca de clase i: (L i - 1 + L i )/2
5 Construir histogramas y gráficos de frecuencias de forma similar a los datos no agrupados pero recogiéndolos por intervalo e intervalos de clase
1.2 Medidas de Centro (Tendencia Central).
Medida Fórmula Significado
n

Media Aritmética ∑x
i =1
i * ni
x=
n
Media Geométrica G = x1 * x 2 * ..x n
n xi (ni)= dato i, n = número de datos en la muestra
1 n
H= =
Media Armónica 1 n 1 n
1

n i =1 xi
∑x
i =1 i
k

Media Aritmética
∑w x i i

ponderada x =
w i =1
k
wi (a veces frecuencia) = peso del dato i

∑w
i =1
i

Con una muestra de n datos, el cálculo del promedio recortado, requiere ordenar los datos de menor a mayor, y
luego eliminar los datos menores y los mayores, dejando sólo los del centro. A estos últimos se calcula el
Media Recortada promedio habitual. Este cálculo elimina la influencia de posibles valores extremos. Aunque, aparentemente, se
pierde información, realmente, el ordenar todos los datos, hace uso completo de la muestra, aunque como
consecuencia de esto, algunos datos no se usen en el paso siguiente.

1
Amplitud de Clase de la mediana: A = LRS-LRI, LRS = límite superior y LRI = límite inferior de la clase que contiene la mediana.
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 2 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
1.2.1 Medidas de Dispersión
1.2.1.1 Datos no agrupados.
Medida Fórmula Significado
Desviación absoluta media 1 n
Dm = ∑ xi − x
n i =1 _
Varianza muestral (s2) o 1 n xi = dato i, x = media aritmética, n = número de datos
poblacional ( σ2 ) S2 = ∑
n i =1
( xi − x ) 2
Desviación estándar o 2 s2 = varianza o variancia
diferencia promedio (s) s= s
k
Desviación Media DM = ∑ f i * mi − x mi = marca de clase i,
_
i =1
k k
x = media aritmética,
∑x ∑x fi = frecuencia de la clase i.
2 2
i − x fi i − x * fi
k
S= =
∑ fi = n = número total de datos en muestra
Desviación Estándar i =1 i =1
n
n −1
∑ fi − 1
i =1
i =1

1.2.1.2 Datos Agrupados.


Medida Fórmula Significado
Desviación absoluta media k
1
Dm = ∑ x i − x ni
n i =1
Varianza muestral (s2) o 2 xi = dato i, x = media aritmética, n = número de datos
1 k
poblacional ( σ2 )
S 2 = ∑ ( x i − x ) ni
n i =1
Desviación estándar o 2 s2 = varianza o variancia
diferencia promedio (s) s= s
k
Desviación Media DM = ∑ f i * mi − x xi = marca de clase i,
i =1 _

k k x = media aritmética, fi = frecuencia de clase i.


∑x ∑x
2 2
− x fi − x * fi k

∑ fi = n = número total de datos en muestra


i i
Desviación Estándar S= i =1
= i =1
n
n −1
∑ fi − 1
i =1

i =1

1.2.2 Medidas de Posición


1.2.2.1 Moda (x moda).
Valor o valores que más se repiten o con mayor frecuencia en los datos de una muestra.
Li = límite real inferior de la clase que tiene la moda

 d1  d 1= f mod a − f mod a −1 y d 2 = f mod a − f mod a +1


Moda X mod a = Límite Inferiori +  * A f moda = frecuencia de la clase que tiene la moda
 d1 + d 2  f moda - 1= frecuencia de la clase anterior que contiene a la moda
f moda + 1= frecuencia de la clase posterior que contiene a la moda
1.2.2.2 Mediana (x mediana). Datos no agrupados.
La mediana distribuye una distribución de frecuencias observadas en una proporción de dos partes.
Muestra Significado
Impar Ordenar datos de acuerdo a magnitud (mayor a menor o menor a mayor), localizar el dato del centro.
Par Ordenar datos de acuerdo a magnitud, observar el centro, si no hay dato debe tomarse el promedio de los dos datos centrales
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 3 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
1.2.2.3 Cuantiles. Datos No Agrupados
Cuantil Significado Fórmula
Mediana División de una distribución de frecuencias observadas en una proporción de dos partes M i = X i*( n +1)
2

Cuartil División de una distribución de frecuencias observadas en una proporción de cuatro partes Q i = X i * ( n +1)
4

Decil División de una distribución de frecuencias observadas en una proporción de diez partes. Di = X i * ( n +1)
10

Percentil División de una distribución de frecuencias observadas en una proporción de cien partes
Pi = X i*( n+1)
100

Nota: Cuando los índices sean facciones se calcula el promedio entre los índices contiguos.
1.2.2.3.1 Cuantiles. Datos Agrupados.
Cuantil Significado Fórmula
Mediana La mediana distribuye una distribución de n 
frecuencias observadas en una proporción de  2 − Fmediana −1 
dos partes X mediana = Límite Inferiori +  * A
 f mediana 
 
Límite i = límite real inferior de clase que contiene a la mediana,
F mediana - 1 = sumatoria de frecuencias anteriores a la clase en donde está la mediana,
f mediana = frecuencia de clase en donde está la mediana,
n = número de datos en la muestra
A = Amplitud de Clase (donde está la mediana)
Cuartil División de una distribución de frecuencias i
observadas en una proporción de cuatro ( − F (i − 1))
Qi = límite inf eriori + 4 *A
partes fi
Decil División de una distribución de frecuencias i
( − F (i − 1))
observadas en una proporción de diez partes. 10
Di = límite inf eriori + *A
fi
Percentil División de una distribución de frecuencias (
i
− F (i − 1))
observadas en una proporción de cien partes 100
Pi = límite inf eriori + *A
fi
Desviación Intercuartílica (caso general) Q3 − Q1
Desciación int ercuartílica =
2
1.2.3 Medidas de Forma.
Concentración EL índice de Gini (IG) establece si los n −1

valores de la variable están ∑(p i − qi )


= 1 ⇒ Concentración Máxima
uniformemente repartidos en la IG = i =1 IG 
n −1
= 0 ⇒ Concentración Mínima
muestra.
0 ≤ IG ≤ 1 .
∑p
i =1
i

n1 + n2 + n3 + ...ni
pi = *100 ;
n
x1 * n1 + x 2 * n 2 + x3 * n3 + ...xi * ni
qi = * 100
x1 * n1 + x 2 * n 2 + x3 * n3 + ...xi * n n

Asimetría El coeficiente de asimetría de = 1 ⇒ Simetría


Ficher (CEF) establece si la curva CEF = (1 / n) * ∑ ( x i − x m ) * ni
3

CEF > 1 ⇒ Asimetría Positiva
es simétrica respecto al centro de ((1 / n) * ∑ ( x i − x m ) 2 * ni )) 3 / 2 < 1 ⇒ Asimetría Negativa
simetría a derecha e izquierda. 
Curtosis El coeficiente de Curtosis (CC)
establece si la distribución está CC = (1 / n) * ∑ ( x i − x m ) * n i − 3 CC > 0 ⇒ Leptocúrtica Alta Concentración
4 = 0 ⇒ Mesocúrtica; Concentrac ión central

concentrada alrededor de los ((1 / n) * ∑ ( x i − x m ) 2 * n i )) 2 < 0 ⇒ Planticúrt ica; Baja oncentración

valores medios de la muestra
2
Desigualdad Al menos (1 – 1/k )* 100 % 1
de observaciones están dentro de las Pr obabilidad [ x − k * s, x − k * s ] = (1 − 2 ) * 100% (k>1)
Chevichev k desviaciones de la media. k
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 4 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
1.3 Variables Bidimensionales. Variables que estudian dos características asociadas a la observación de un fenómeno.
Cuando el número de valores de la variable bidimensional no es muy grande, se expresa en tablas de doble entrada; La
representación gráfica de este tipo de variables es en realidad semejante a la representación de puntos en el plano, usando unos
ejes de coordenadas. Cada pareja de valores da lugar a un punto en el plano y el conjunto de puntos obtenido se llama "diagrama
de dispersión o nube de puntos".
Concepto Significado Fórmula
Covarianza Equivale a una variable de dispersión

x i e y i son pares de valores y el producto corresponde al


producto de las medias aritméticas de las variables x e y,
respectivamente, llamadas variables marginales.
Recta de regresión y / x Se llama método de mínimos cuadrados

Coeficiente de El signo del coeficiente de correlación


correlación es el mismo de la Covarianza y está
(Pearson) (r ) comprendido entre -1 y 1. Si r es
positivo la dependencia es directa y si • Si r se acerca a -1 o a +1, la dependencia es fuerte y por tanto
es negativo inversa. las predicciones de la recta de regresión serán bastante fiables.
• Si r se acerca a 0 la dependencia es débil y por tanto las
predicciones de la recta de regresión serán poco fiables.
2 CONTEO.
2.1 PRINCIPIOS.
Multiplicativo Hacer actividad de r pasos, en donde el 1er paso de la actividad puede hacerse de N1 maneras, el 2do paso de N2 maneras y el r-ésimo
paso de N r maneras, entonces la actividad se hace de; N1 x N2 x ..........x N r maneras o formas.
Aditivo Hacer una actividad a partir de formas alternativas, donde la primera se puede hacer de M maneras, la segunda alternativa puede
hacerse de N maneras ..... y la última de las alternativas puede ser realizada de W formas, entonces la actividad se lleva a cabo de M +
N + .........+ W formas.
Si una sola actividad se efectúa en una serie de pasos se usa el principio multiplicativo y si la actividad tiene alternativas se usa el principio aditivo.
2.2 TABLAS Y DIAGRAMAS DE ARBOL
Diagrama de Representación gráfica de un experimento que consta de r pasos, donde cada uno de los pasos tiene un número finito de
Árbol maneras de ser llevado a cabo. Ejemplo: Un médico general clasifica a sus pacientes de acuerdo a: su sexo (masculino o
femenino), tipo de sangre (A, B, AB u O) y en cuanto a la presión sanguínea (Normal, Alta o Baja).
2.3 PERMUTACIONES Y COMBINACIONES.
Permutación Intervienen todos los elementos. No interesa el lugar o posición que ocupa cada uno de los elementos constitutivos.
Permutaciones sin repetición (ordinarias): P n = n!
Permutaciones con repetición. En este caso n objetos, dónde x1 objetos tipo 1, x2 objetos tipo 2,...... y x k objetos tipo k y n =
x1 + x2 + ...... + x k .
Variación No intervienen todos los elementos. Importa el orden e intervienen r de n, y, n es mayor o igual que r.
n!
Variaciones sin repetición (ordinarias): n Vsrr =
(n − r )!
Variaciones con repetición. n Vcrr = n r
Combinación No intervienen todos los elementos. NO importa el orden e intervienen r de n, y, n es mayor o igual que r.
n! Vsrr
Combinaciones sin repetición (ordinarias): n Csrr = OBSERVE que, n Csrr = n
r!(n − r )! r!
(n + r − 1)!
Combinaciones con repetición: n Ccrr =
r!(n − 1)!

3 PROBABILIDAD.
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 5 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Espacio Representado por δ, es el conjunto de todos los resultados posibles de un experimento
muestral
Eventos Hecho suceso o acontecimiento, que es subconjunto del espacio muestral. Los experimentos y eventos probabilísticos se pueden
expresar con la notación de conjuntos;
• A∪B; Evento que ocurre si y solo sí A ocurre o B ocurre o ambos ocurren.
• A∩B; Evento que ocurre, sí y solo sí, A y B ocurren a un mismo tiempo.
• A c; Es el complemento de A. Es el evento que ocurre, sí y solo sí, A no ocurre.
• A y B son eventos mutuamente excluyentes o exclusivos si A∩B = φ (vacío)
Laplace Probabilidad (p) de un evento = Numero de eventos favorables / Total de eventos.
Axiomas (1) La probabilidad de que ocurra un evento A cualquiera se encuentra entre cero y uno: 0 ≤ p(A) ≥ 1.
(2) La probabilidad de que ocurra el espacio muestral δ debe de ser 1: p(δ) = 1.
(3) Si A y B son eventos mutuamente excluyentes, entonces la p(A∪B) = p(A) + p(B).
(4) Si se hay n eventos mutuamente excluyentes o exclusivos A1, A2, A3,.....An, entonces; p(A1∪A2∪.........∪An) = p(A1)
+ p(A2) + .......+ p(An)
Teoremas • Si un evento nulo o vacío, la probabilidad de que ocurra es cero; p(φ)=0.
• La probabilidad del complemento de A, A c es p(A c)= 1 – p(A).
• Si un evento A ⊂ B, p(A) ≤ p(B).
• La p( A \ B ) = p(A) – p(A∩B),
• Si A y B san eventos p(A∪B)=p(A) + p(B) – p(A∩B),
• En un espacio muestral (δ), con n elementos {a1, a2, a3,.....,a n}, cada uno con una probabilidad pi ≥ 0, este espacio en un espacio
finito de probabilidad; que cumple (a) Las probabilidades asociadas a cada uno de los elementos de δ debe ser mayor o igual a
cero, pi≥0 y (b) La sumatoria de las probabilidades asociadas a cada uno de los elementos de δ es igual a 1. Σpi = 1 Si no se
cumple con las características aludidas, no es un espacio finito de probabilidad
condición Sea δ un espacio muestral que tiene definido un evento E y p(E) > 0, la probabilidad de ocurrencia de un evento A (también, definido
en el mismo espacio muestral), dado que E ocurrió, es; p( A ∩ E )
p( A | E ) =
p( E )
Compuesta La probabilidad de darse simultáneamente dos sucesos (intersección de A y B) es igual la probabilidad del suceso B condicionada al
cumplimiento del suceso A, multiplicada por la probabilidad a priori del suceso A, es decir: p ( A ∩ B ) = p ( B / A) * p ( A)
Prob. total. La probabilidad de que ocurra el suceso B es igual a la suma de multiplicar a la probabilidad de cada suceso de A por cada una de las
probabilidades de B condicionadas de los diferentes sucesos A. Este teorema se aplica si los sucesos de A forman un sistema completo
n
(suma de sus probabilidades es 1). p ( B ) = ∑ p ( Ai ) * p ( B / Ai ) .
i =1
Independe- Se dice que un evento B es independiente de un evento A, si p(BA) = p(B); probabilidad que ocurra B no es afectada por la
ncia. ocurrencia del evento A, al sustituir la expresión anterior en el teorema de multiplicación de probabilidades, p(A∩B) = p(A)*p(BA) =
p(A)p(B), entonces, p(A∩B)=p(A)p(B).
Teorema de Si δ es un espacio muestral formado por los eventos A1, A2, A3,.....,An mutuamente excluyentes, entonces, δ = A1∪A2∪A3∪.....∪An.
Bayes Un evento B definido en δ, tal que; B = δ∩B = (A1∪A2∪A3∪.....∪An)∩B = (A1∩B)∪(A2∩B)∪(A3∩B)∪.....∪(An∩B), Donde cada
uno de los eventos Ai∩B son eventos mutuamente excluyentes, por lo que, p(B) = p(A1∩B) + p(A2∩B) + p(A3∩B) +......+ p(An ∩B),
como la p(Ai ∩B) = p(Ai) p(BAi) , o sea que la probabilidad de que ocurra el evento Ai y el evento B es igual al teorema de la
multiplicación para probabilidad condicional, luego; p(B) = p(A1)p(BA1) + p(A2)p(BA2) + p(A3)p(BA3) + p(An)p(BAn) Si
deseamos calcular la probabilidad de ocurrencia de un evento Ai dado que B ocurrió, entonces;
p( Ai ∩ B) p( Ai ) * p( B / Ai )
p( Ai / B) = =
p( B) p( A1 ) * p( B / Ai ) + p( A2 ) * p( B / A2 ) + ... + p( An ) * p( B / An )

Sistemas de n
confiabilidad Si los eventos son serie y exclusivos: p( A1 ∩ A2 ∩ ..... ∩ An ) = Π p( Ai )
i =1
n
Si los eventos son paralelos y exclusivos: p ( A1 ∪ A2 ∪ ..... ∪ An ) = 1 −
Π (1 − p( A ))
i =1
i

4 VARIABLES ALEATORIAS (INTRODUCCIÓN).


Una Variable Aleatoria es una función X : E → R; e → X (e), ó X : E → N ; e → X (e), si a cada suceso elemental e del espacio
muestral E se le atribuye un único número real ó entero.
VAD X : E → N , f ( xi ) tal que : f : N → N para v.a. discretas, ó, E → R f ( x ) tal que f : R → R para v.a. continuas .
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 6 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
5 GENERALIDADES VAD.
Función Significado
De Considerando f ( xi ), la función de probabilidad para que X tome por ejemplo valor E → [0,1]
Probabilidad
x i → f ( x i ) = P ( X = x i ) = P ({ e , X ( e ) = x i }).
Si x i no es uno de los valores de X , f ( x i ) = 0
• La representación gráfica de la función de probabilidad se hace con un diagrama de barras análogo a la distribución
de frecuencias relativas de la Estadística Descriptiva.
• X está definida en el espacio muestral de sucesos E, mientras que f, lo está en el espacio de los naturales N.
• Las propiedades de la función de probabilidad de una VAD se deducen de los axiomas de probabilidad:
o Si x1, x2, ...., xk son todos los valores admisibles de la VAD X, entonces la suma de probabilidades de los
posibles valores de la variable es 1.
o Todas las probabilidades son no negativas.
Dado 3 constantes a < b < c, los sucesos A = {a ≤ X ≤ b} y B = {b < X ≤ c} son mutuamente excluyentes,
A ∩ B = φ ⇒ P ( A ∩ B ) = 0, y C = {a ≤ X ≤ c} ⇒ A ∪ B → P (C ) = p ( A) + P ( B ) ,
luego, P (a ≤ X ≤ c ) = P (a ≤ X ≤ b) + P (b < X ≤ c )
Distribución
Dada una VAD X, para un valor x i ∈ R , F ( xi ) es la probabilidad que X tome un valor igual o inferior a xi .
F : N → [0,1]; xi → F ( xi ) = P( X ≤ xi ) = P({e / X (e) ≤ xi }) ⇒ F ( x) = P( X ≤ x) =
X ∑ f ( X = y)
Y ≤ xi

Esta función se representa gráficamente como la distribución de frecuencias relativas acumuladas.


Momentos Esperanza o media Varianza Desviación Típica
[X] = σ2 = (x −µ)2 * f (x ) σ=
E [X] = µ = x * f ( x )
∑i i ∑i i
i
∑(xi −µ)2 * f (xi)
i i

Propiedades 1. La variable X no es aleatoria por atribuir un valor cualquiera a un elemento e∈ E porque este valor es determinístico.
Lo aleatorio, es el experimento, no se sabe que elemento de E puede ocurrir.
2. La composición de una función real con una variable aleatoria es también otra variable aleatoria, pues está definida
sobre E y cada elemento asocia un real. X : E. → R; h : R. → R ⇒ h (X) = h. X = h o X: E → R
3. Las variables aleatorias se clasifica en: (1) VA discretas: sólo toman un número finito o infinito numerable de
valores. X : E → N. Y, (2) VA continua: toma un número infinito no numerable de valores. X : E. → R
4. Si los elementos de E tienen una distribución de probabilidad, ésta se transmite a los valores que toma la variable
aleatoria X. Es decir, la VA conserva la estructura probabilística del experimento aleatorio que describe, así que si P
es la función de probabilidad definida sobre el espacio muestral E, que induce otra función P,. definida sobre R, se
conservan los valores de las probabilidades:
P [X = x] = P [{e ∈ E : X (e) = x}] y P [X ∈ (a, b) ] =P [{e ∈ E : X (e) ∈ (a, b)}]
5. Propiedades de la Esperanza: (1) Si c es una constante, E(c)=c; (2) E(X - µ) = E(X) - µ = 0; (3) E[c g(X)] = c E[g(X)]; (4)
[u(X) + v(X)] = E[u(X)] + E[v(X)]
6. Propiedades de la Varianza: (1) Si c es constante, Varianza (c)=0; (2) Varianza (X) = E(X2) - µ2;(3) Si a y b son constantes
arbitrarias, Varianza (a + b X) = b2 Varianza (X)
5.1 FUNCIONES DE VAD TÍPICAS.
Función Significado
Uniforme Experimento aleatorio de una variable aleatoria X de n valores con rangos x1, x2,.... x n todas con igual probabilidad.
1 → p = P (X = 1)
X ∼ UD (n) si X =
0 → q = (1- p) = P (X = 0)
1
f X ( x; UD(n)) f X ( xi ; UD(n)) = p( xi ;UD (n)) = para X = {1,2,3,....n}
n
FX ( x; UD (n)) = P( X ≤ x i ) = ∑ p( X = y; UD(n))
F (x; UD(n)) Y ≤ xi

n +1 n2 −1
E( X ) = Var ( X ) =
2 12
Bernoulli Experimento aleatorio realizado una sola vez para observar si cierto suceso ocurre o no, siendo p la probabilidad de éxito
y q = (1- p) de fracaso. En este experimento X = 1 si el suceso ocurre y X = 0 en caso contrario.
1 → p = P (X = 1)
X ∼ Ber(p) si X =
0 → q = (1- p) = P (X = 0)
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 7 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Función Significado
P (X = 1)= p
f X ( x; Ber ( p)) = P (X = 0)= 1 - p
P (X = n) = 0, ∀n ≠ 0, 1
0 si x < 0
F (x) = q si 0 ≤ x < 1
1 si x ≥ 1
E [X] = µ = p Var ( X ) = σ 2 = p * (1 − p ) = p * q
Binomial Veces que un suceso ocurre cuando se realizan pruebas idénticas e independientes con 2 resultados posibles.
El espacio muestral del experimento es el conjunto E de n-uplas (éxito o fracaso). La variable
X ∼ Bin (n, p)
X de interés es el número de éxitos obtenidos en esas n pruebas.
f X (x; Bin (n, p)) = C xn * p x * (1 − p ) n − x
F ( xi ) = p ( X ≤ xi ) = C 0n p 0 q n + C1n p 1 q n −1 + .... + C kn p k q n − k
F (x) = siendo k el mayor número entero menor o igual a xi.
Esta función de distribución proporciona, para cada número
E [X] = µ = n * p Var ( X ) = σ 2 = n * p * (1 − p) = n * p * q
Binomial Ensayos Bernoulli independientes con una probabilidad constante p, con vad X ensayos hasta tener r éxitos.
Negativa El espacio muestral del experimento es el conjunto E de n-uplas (éxito o fracaso). La variable
X ∼ Bn (p ,r)
X de interés es el número de éxitos efectuados hasta que se tiene r éxitos.
f X (x; Bn (p, r)) = C rx−−11 * p r * (1 − p) x − r donde x = r , r + 1, r + 2,...
F ( xi ) = p( X ≤ xi ) = C0n p 0 q n + C1n p1q n−1 + .... + C kn p k q n− k
F (x) = siendo k el mayor número entero menor o igual a xi.
Esta función de distribución proporciona, para cada número
r *q r *q
E( X ) = Var ( X ) =
p p2
Geométrica Predecir el instante en que se produce el primer éxito.
El espacio muestral del experimento de repetir pruebas hasta encontrar el primer éxito, .que se
X ∼ Ge(p)
produce en el instante k, para lo cual deben producirse (k - 1)fracasos.
f X (x; Ge (p)) = P (X = k) = p (1 - p)k , donde k = 1, 2, 3, 4, . . .
x x
F ( x ) = P ( X ≤ x ) = ∑ p * (1 − p ) k = ∑ p * q k = 1 − q para ( k = 0,1,...)
k +1
F (x) =
k =0 k =0
E [X] = µ = q/ p Var ( X ) = σ 2 =
q
p2
Hiper- Considerando un conjunto de N objetos con K objetos clasificados como éxitos y N-K clasificados como fallas, tomar
Geométrica muestra de tamaño n (sin reemplazo) entre N objetos donde K y n son ≤ N, la VAD X es éxitos de la muestra.

X ∼ H-Ge (x; N, K, n) El espacio muestral del experimento.

C xK * C nn−−xK
f X ( x; K − Ge x; N, K, n)) = donde x = 0, 1, 2,...mínimo( K , n)
C nN
x
F (x) = F ( x ) = P ( X ≤ x ) = ∑ f X ( x; K − Ge (x; N, K, n) )
k =0
E [X] = µ = np V ar [X] = σ2 = n p q ((N-n) /N-1)) con p = K/N
Poisson Contar éxitos en n pruebas cuando n es grande y de ocurrencia rara (probabilidad de éxito pequeña).
X ~ Poi(λ ) Se supone que X ∼ Bin (n, p): P (X = 1)= C xn * p x * (1 − p ) n − x , n → ∞, λ = n * p, n → 0
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 8 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Función Significado
λ k
f X ( x; Po (λ )) = P (X = k) = e λ * donde k = 0, 1, 2, . . .
k!
x
λk
F (x) = P( X ≤ x) = ∑ e * λ
donde k = 0, 1, 2, . . .
k =0 k!
E( X ) = µ = λ Var ( X ) = σ 2 = λ
6 VARIABLES ALEATORIAS CONTINUAS.
6.1 GENERALIDAD.
Función Significado
Densidad o VAC, X, f : R .→ R, es una función integrable no negativa de la recta real, que verifica las propiedades: f(x) ≥ 0;
Masa ∞ b
f ( x)dx = 1 ; P (X ∈ A) = f ( x)dx . Sí dados a < b, P [a ≤ X ≤ b] = f ( x)dx
∫ ∫ ∫
−∞ A a

Distribución VAC. X, x ∈ R, F(x)es la probabilidad que X ≤ x , es decir, F(x) = P (X ≤ x) =


x

∫ f (t )dt
−∞

La función tiene las propiedades:


(a) P [a < X ≤ b] = F(b) + F(a).
(b) F es monótona no decreciente F (-∞) = 0, F (+∞) = 1.
(c) F es continua por la derecha.
(d) Por teorema fundamental del Cálculo dF ( x) = f ( x) , si existe derivada.
dx
Momentos Esperanza o media Varianza [X] = Desviación Típica

∑(x −µ) * f (x )
∞ ∞
2
σ 2
E [X] = µ = x * f ( x ) * dx
∫ =
∫(x−µ) * f (x) σ=
2
i i
−∞ −∞ i
6.2 FUNCIONES DE VAC TÍPICAS.
Función Significado
Uniforme Hay dos aplicaciones básicas: (1) La mayoría de los mecanismos aleatorios asociados a experimentos de calibración, son
distribuciones uniformes. (2) Muchos fenómenos de barrido (lectura a disco, CD, ...) pueden asociarse a barridos con
velocidad uniforme, los tiempos de búsqueda son de distribución uniforme.
X ∼ Uc (a, b)) = Se asocial a una recta paralela al eje x con límites a y b.
1
si a < x < b
f X (x; Uc (a, b)) = b−a
0 Re sto
0 si x ≤ a
x−a
F (x) = si a < x < b
b−a
1 si x ≥ b
a+b (b − a) 2
E( X ) = µ = Var ( X ) = σ 2 =
2
12
Beta Inferencia relativa a proporciones (Qué proporción de chips defectuosos hay en una línea de producción)..
Una VAC X con parámetros α, β en [0, 1], donde α, β > 0, puede usarse para modelar
fenómenos aleatorios que tomen valores sobre un intervalo finito [α, β], tomando α como el
X ∼ Be (α, β) ) = origen y β - α como la unidad. Considérese la función Gamma como

Γ(α ) = ∫ xα −1e− x dx con la propiedad básica que Γ(α + 1) = αΓ(α )
0

Γ(α + β ) α −1
x * (1 − x) β −1
f X ( x; Be (α , β )) = Γ(α ) + Γ( β )
0 Re sto
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 9 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Función Significado
x
P (X ≤ x) =
F (x) = ∫ f (t )dt
−∞
E [X] = µ = α V ar [X] = σ2 = α *B
α +β (α + β ) 2 * (α + β + 1)
Exponenci Describe procesos en los que interesa saber el tiempo hasta que ocurre determinado evento, asume que el proceso no
al tiene memoria (no depende de lo que ocurrió). También X asocia a la distancia entre ocurrencias sucesivas de un proceso
Poisson con media λ > 0. En este caso α se asimila como λ.
Modelos de fiabilidad de llegadas y de tiempos de servicios de sistemas. Es equivalente en el
X ∼ Exp (x; λ) =
caso continuo a la distribución geométrica en el caso discreto.
λ * e − λ *x para x > 0
f X ( x; λ ) =
0 Re sto
0 para x ≤ 0
F (x) =
1 − e −αx para x > 0
1 1
E( X ) = µ = Var ( X ) = σ 2 =
λ λ2
Normal Origen, en errores de medición, propuesta por el matemático Gauss, expresa que los errores de medición se aproximan a
la denominada curva normal de errores. Tres razones de su uso: (1) Interés en mediciones de diversas magnitudes,
sometidas a errores que, típicamente, se modelan como una distribución normal. (2) Propiedades estadísticas y
probabilísticas, su cálculo de interés estadístico, es relativamente sencillo. El Teorema Central del Limite asegura que,
para muestras grandes y bajo condiciones apropiadas, muchas observaciones se aproximan, en distribución, a la normal
X ~ N( µ , σ 2 ) Una VAC X con parámetros µ y σ 2 se asemeja a una campana de gauss
( x−µ )2
f X ( x; α ) =
1 −
f X ( x; N ( µ , σ 2 ) = e 2σ 2
, donde − ∞ < x < ∞
2π σ
x
P (X ≤ x) =
F (x) = ∫ f (t )dt
−∞
E [X] = µ V ar [X] = σ2
Normal Consideramos ahora, específicamente, la denominada distribución z normal estándar, con µ = 0 y σ = 1,
Estándar Z ∼ N (0, 1) = Una VAC Z con parámetros µ = 0 y σ2=1
z2
1 −
f Z ( z, N (0, 1)) = f X ( x; N (0,1) = e 2
, donde − ∞ < z < ∞

∞ −t 2
1
F (Z) = p( Z ≤ z ) = ∫
−∞ 2π
e 2
dt
E [X] = 0 V ar [X] = 1
Aproximaciones de Binomial y Poisson a normal estándar
X − np (BINOMIAL)
np(1 − p )
Z=
X −λ (Poisson)
λ
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 10 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Función Significado
Gamma Esta distribución depende de dos parámetros λ y k denominados parámetros de escala y de forma respectivamente. Es
decir, al variar k varía la forma de la distribución, mientras que al variar λ sólo varía la escala de la distribución. Si se
define el valor del parámetro λ en función del parámetro k y el parámetro µ según la expresión λ =k / µ , se tiene que la
función de densidad se escribe:

En esta expresión, el parámetro µ determina la localización de la distribución (µ es la


µ2 µ2
media de la distribución gamma), y el cociente determina la forma de la distribución ( es la variancia de la
k k
distribución gamma). Esta distribución es usada para modelar datos que presentan asimetría positiva. Casos particulares:
Si k = 1 se tiene la distribución exponencial. Si k = 1 y µ =1 se tiene la distribución exponencial estándar.
Si k = n / 2 y µ =n se tiene la distribución ji-cuadrado con n grados de libertad
Esta distribución se ha aplicado a los tiempos de vida de sistemas eléctricos y mecánicos, a la abundancia de especies
animales, a períodos de incubación de enfermedades infecciosas, etc.
X ~ G (λ , k) Una VAC X con parámetros λ y k.

Donde la función gamma de k > 0, así:



f χ 2 ( x) = Γ(k ) = ∫ x k −1e x dx
n
0

Si k = 1/2 entonces se tiene que Γ( 1 ) = π ; Si k > 1 entonces se tiene que


2
Γ( k ) = (k − 1)Γ(k − 1) ; Si k es entero, entonces se cumple que Γ(k ) = (k − 1)!
x

F (Z) = F(x) = P (X ≤ x) = ∫ f (t )dt


−∞
k k
E( X ) = Var ( X ) =
λ λ2
Ji- Si consideramos una v. a. Z ∼ N (0, 1), la v. a. X = Z 2 se distribuye según una ley de probabilidad distribución χ 2 con un
Cuadrado
grado de libertad. Si tenemos n v. a. independientes Z ∼ N (0, 1), la suma de sus cuadrados respectivos es una
distribución denominada ley de distribución con n grados de libertad, χ n2
X ∼ χn
2
Una VAC Z con parámetros µ = 0 y σ2=1
0 Si x ∈ (−∞,0]

f χ 2 ( x) =  1
n
−1
n
f χ 2 ( x) =  * x 2
* e 2 Si x ∈ (0,+∞)
n n
 2 n
n

 2 * Γ( 2 )
x

F (Z) = F(x) = P (X ≤ x) = ∫ f (t )dt


−∞

E [X] = n V ar [X] = 2 x n
Exponenci La distribución exponencial negativa es caso especial de la distribución gamma. Las distribuciones exponencial y gamma
al Negativa son importantes en teoría de colas y confiabilidad. El tiempo entre llegadas en las instalaciones de servicio y el tiempo de
falla de los componentes y sistemas eléctricos, frecuentemente involucran la distribución exponencial.
Relación con el proceso de Poisson. La aplicación más importantes de la distribución exponencial es el proceso Poisson.
La distribución de Poisson se usa para calcular la probabilidad de números específicos de “eventos” en un período. En
ocasiones el período o la cantidad de espacio es la variable aleatoria. La relación entre la distribución exponencial
(exponencial negativa) y el proceso de Poisson cumple: λ = 1 .
β
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 11 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Función Significado
X ~ EN(β ) Una VAC X con parámetro β
x
1 −
f (x) = f ( x) = x β
Si x > 0, β > 0; f ( x) = 0, en otro caso.
β
x

F (X) = F(x) = P (X ≤ x) = ∫ f (t )dt


−∞

E( X ) = β Var ( X ) = β 2
7 VARIABLES ALEATORIAS DISCRETAS O CONTINUAS CONJUNTAS.
Las Variables Aleatorias Conjuntas Discretas o continuas se asocian a experimentos aleatorios con + de una variable aleatoria.
Propiedades • Función de probabilidad de una a n variables VAD ó VAC con función de probabilidad conjunta.
• Función de probabilidad binomial a la función de probabilidad multinomial en el caso VAD.
• Funciones de momentos a covarianzas, correlaciones y distribuciones normales multivariadas.
• Propiedades de la esperanza y la varianza a múltiples variables.
7.1 GENERALIDAD.
Función Significado
Densidad o Masa • La función de densidad conjunta de VAD X1, X2, X3, ... X p ,es: f (X1, X2, X3, ... X p) = p (X1=x1, X2=x2,
o Probabilidad X3=x3, ... X p = x p) para todos los puntos (x1, ...x p) en el rango X1, X2, X3, ... X p
Distribución • función de densidad conjunta de VAD X1, X2, X3, ... X p ,es: f (X1, X2, X3, ... X p) satisface propiedades:
o f X 1, X 2,... Xp ( x1, x 2,...xp) ≥ 0
o ∑ ∑ ......∑ f
x2 x2 xp
X 1, X 2 ,... Xp ( x1 , x 2 ,...x p )... = 1

o f X 1, X 2,... Xp ( x1, x 2,...xp) = P( X 1 = x1 ,...... X p = x p )


• Función de probabilidad marginal de Xi: f(Xi) = p (Xi = xi) = ∑ f (X
Rxi
1 ,... X p ; x1 , x 2 ,....x p )

• E(Xi)=∑ x f ( X ,... X ; x , x ,....x )


R
i 1 p 1 2 p

V(Xi)= ∑ ( x − µ ) f ( X ,... X ; x , x ,....x


2
• i 1 p 1 2 p )
R
• Las variables VAD son independientes si y solo si
f X 1, X 2,... Xp ( x1, x 2,...xp) = f X 1 ( x1) f X 2 ( x 2).... f Xp ( xp)
• Distribución multinomial.
1) Si un experimento aleatorio consiste de n ensayos.
2) El resultado de cada ensayo se clasifica en una de k clases.
3) La probabilidad de ensayo da un resultado en clase 1, clase 2, clase k, constante e igual a p1, p2, ...p k.
4) Los ensayos son independientes
Las variables aleatorias X1,...Xk denotan el número de ensayos que caen en la clase 1, ....en la clse k,
respectivamente, tienen una distribución multinomial con una función de probabilidad conjunta:
n!
P ( X 1 = x1 , X 2 = x 2 ,... X k = x k ) = p1x1 p 2x2 p 3x3 .... p kxk ;x1+x2+x3+..+xk=n y p1+ p2+ p3+..p k=1
x1! x 2 ! x3k !...x k !
• Si las variables aleatorias X1,...Xk tienen una distribución multinomial, la distribución de probabilidad
marginal de Xi es binomial con:
• E ( X i ) = np i y V ( X i ) = p i (1 − pi )
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 12 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
• Función de densidad conjunta de VAC X1, X2, X3, ... X p: f (X1, X2, X3, ... X p) satisface propiedades:
o f X 1, X 2,... Xp ( x1, x 2,...xp) ≥ 0
∞ ∞ ∞ ∞
o ∫ ∫ ∫
−∞ −∞ −∞
... ∫ f X 1, X 2,... Xp ( x1 , x 2 ,...x p )dx1 , dx 2 ,...dx p = 1
−∞
o Para cualquier región B del espacio de dimensión p,

P ( X 1 , X 2 ,..., X p , ) ∈ B ) = ∫ ∫ ∫ ...∫ f X 1, X 2,... Xp ( x1 , x 2 ,...x p )dx1 , dx 2 ,...dx p


B

• Función de probabilidad VAC Xi,....Xp es f(X1,...Xp; x1,...xp) función de probabilidad marginal de Xi:

f Xi = ∫ ∫ ∫ ...∫ f X 1, X 2,... Xp ( x1 , x 2 ,...x p )dx1 , dx 2 ,...dx p


RX i

• E(Xi)=
∫ ∫ ...∫ x i f ( X 1 ,... X p ; x1 , x 2 ,....x p )dx1 , dx 2 ,....dx p

• V(Xi)= ∑ (x
R
i − µ X i ) 2 f ( X 1 ,... X p ; x1 , x 2 ,....x p )dx1 , dx 2 ,....dx p

• Variables VAD independientes si y solo si f X 1, X 2,... Xp ( x1, x 2,...xp ) = f X 1 ( x1) f X 2 ( x 2).... f Xp ( xp )


Momentos Esperanza o media E [(X-µx) (X-µy)] = Co-Varianza σXY =
∑ ( x − µ x )( y − µ y ) * f XY ( x, y)
Ri
E[(X- µX ) (X- µy)]= E(XY) −µXµY
• Si a, b son constantes: Varianza (a X + b Y) = a2 Varianza (X) + b2 Varianza (Y) + 2ab Co-Varianza (X,Y)
• Caso particular, si a = 1 y b =1 Varianza (X + Y) = Varianza (X) + Varianza (Y) + 2Co- Varianza (X, Y)
• Caso particular, si a = 1 y b = (-1) Varianza (X-Y) = Varianza (X) + Varianza (Y) - 2Co- Varianza (X, Y) Si X e Y son variables
aleatorias independientes entonces Co-Varianza (X, Y) = 0 y se cumple:
(1) Varianza (X + Y) = Varianza (X) + Varianza (Y) (2) Varianza (X - Y) = Varianza (X) + Varianza (Y)
8 Estadística Inferencial.
• Objetivo hacer inferencias con respecto a la población basándose en la información contenida en una muestra.
• Las VA (X1....Xn) constituyen una muestra aleatoria de tamaño n si: (a) Xi son VA Independientes (b) Todas las Xi tienen la
misma distribución de probabilidad.
• Una estadística es cualquier función de las observaciones contenidas en una muestra aleatoria.
• Las poblaciones se describen mediante medidas numéricas denominadas parámetros, y el objetivo de la mayoría de las
investigaciones estadísticas es hacer una inferencia con respecto a uno o más parámetros de la población.
Los procedimientos para realizar inferencia estadística se clasifican en:
• Estimación de los parámetros.
(a) Puntual (de algún parámetro θ de una población es un valor numérico θ´ de θ).
(b) Por intervalos de confianza o intervalos de tolerancia [se asocia P(L ≤ θ ≤U)= 1-α(Coeficiente de Confianza)]. Si se
toman por lados separados se llaman intervalos unilaterales.
• Pruebas de hipótesis. Los tres pasos básicos para probar hipótesis son
1. Formular dos hipótesis opuestas
2. Derivar un prueba estadística e identificar su distribución muestral
3. Derivar una regla de decisión y elegir una de las dos hipótesis opuestas en base a la evidencia de una muestra.
8.1 Técnicas de Muestreo.
Tipos de Muestras:
• Muestra Probabilística. Cada integrante de la población tiene una probabilidad conocida (no igual a cero).
• Muestra no probabilística. No todos los integrantes de la muestra tienen una probabilidad (los integrantes pueden ser sesgados.
Tipos de Muestro Probabilístico.
• Aleatorio simple. Cada integrante tiene la misma probabilidad. (puede apoyarse en tabla de números aleatorios).
• Aleatorio Sistemático. Cada integrante se ordena de alguna forma; seleccionándose aleatoriamente un punto de partida.
• Aleatorio Estratificado. La población se divide en subgrupos, denominados estratos y se selecciona una muestra de cada una.
Puede ser proporcional ó no proporcional.
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 13 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
• Por conglomerados. División de poblaciones extensas en áreas menores (unidades primarias).
• Error de muestreo. Diferencia entre un valor estadístico de muestra y su parámetro de población correspondiente (sesgo).
Muestreo aleatorio sin reposición.
1
• Interviene el orden: P[ M ] =
V N ,n
1
• No Interviene el orden: P[ M ] =
C N ,n
1
Muestreo aleatorio con reposición: P[ M ] =
VcrN ,n
8.2 Estimadores Puntuales.
Propiedades
1. Un estimador es una regla para calcular una estimación basada en las mediciones (o informaciones) contenidas en
n

∑y i
una muestra. Se expresa con una fórmula, por ejemplo el estimador de la media poblacional: Y = i =1
): El
n
estimador puntual θ´ es un estimador insesgado para θ si E(θ´) = θ, si no es insesgado la diferencia entre E(θ´) -
θ se conoce como sesgo de θ´, es decir si el estimador es insesgado el sesgo es cero.
3. Si se consideran todos los estimadores insesgados de θ, el que tiene la menor varianza recibe el nombre de
estimador insesgado de varianza mínima (EIVM).
4. El error cuadrático medio de un estimador θ´ del parámetro θ es ECM (θ´) = E (θ´- θ)2= V (θ´) – (sesgo)2.
5. Si θ es un parámetro objetivo y θ´ es un estimador, el error de estimación E es: |θ´-θ|. Para comparar dos
estimadores θ1´ y θ2´ se usa el concepto de eficiencia relativa de θ1´ respecto θ2´ = ECM (θ1´) / ECM (θ2´).
9. Estimadores Puntuales
θ n θˆ E (θˆ) V (θˆ)
σ2
µ n y µ Media
n
pq
p n y p Proporción
n
σ 12 σ 22
µ1-µ2 n1n2 Y1 − Y2 µ1-µ2 + Diferencia entre dos medias
n1 n2
Y1 Y2 p1q1 p2 q2
p1-p2 n1n2 − p1-p2 + Diferencia entre dos proporciones
n1 n 2 n1 n2
Método de 1. Si X es una VAD con distribución f(x, θ) donde θ es un parámetro desconocido. Sean x1, ...x n los valores
Máxima observados de la muestra aleatoria de tamaño n. La función de verosimilitud de la muestra es
Verosimilitud L(θ) = f(x1, θ). f(x2, θ) f(x3, θ)..... f(x n, θ)
2. El estimador de máxima verosimilitud de θ, es el valor de θ, que maximiza la función de verosimilitud
8.3 Distribuciones de Muestreo.
Función Significado
Densidad o Masa o • De una estadística recibe el nombre de distribuciones de muestreo
Probabilidad • Distribución de muestro de medias. Si X1, X2, X3... X n es una muestra aleatoria de tamaño n tomada de una
Distribución
población finita o infinita con media µ y varianza finita σ2 y X es la media muestral entonces la forma
límite de la distribución de Z = X − µ cuando n → .∞. = 1 es la distribución normal estándar.
σ/ n
• Planteamiento típico: Se dan Media y Desviación estándar y la forma de distribución muestral. Se toma una
muestra n y se pide la probabilidad específica respecto a la muestra un valor de confiabilidad:
P( ( X ( condición ) Valor ) = 1 − α )
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 14 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Ji cuadrada Si Z1, Z2, Z3... Z k es variables aleatorias distribuidas normal e independiente, con media µ y varianza finita σ2 = 1,
entonces la variable aleatoria X = Z12, Z22, Z32... Z k2 tiene la función de densidad de probabilidad
k k
1 −1 −
f ( x) = x2 e 2
para x > 0 y se dice que sigue una distribución ji-cuadrado con k grados de
k
2 k/2
Γ( )
2
libertad, abreviadamente, χ k2 .

Puntos Críticos: P ( X > χα2 , k ) = ∫ f (u)du = α
χ α2 , k

Momentos Esperanza o media µ=k Varianza σ2 = 2 k


t Si Z es variable aleatoria distribución N(0,1) y V una variable aleatoria ji-cuadrado con k grados de libertad. Si Z
Z
y V son independientes, entonces la VA T = tiene la función de densidad de probabilidad t con
V /k
Γ[k (+1) / 2] 1
f ( x) = . ( k +1)
con k grados de libertad, abreviadamente, t k
k
π k Γ( ) [( x / k ) + 1]
2 2
2
Puntos Críticos: P (Tk > t α k ) para hallar t1−α = −tα
Momentos Esperanza o media µ =0 Varianza σ2 = k/(k-2) para k > 2
F Si W y Y VA Ji-cuadrado independientes, con grados de libertas u y v, respectivamente, entonces el cociente
u + v u u / 2 ( u / 2) −1
)( ) x Γ(
W /u 2 v
F= tiene la función de densidad de probabilidad t con f ( x ) = (u +v )
con
Y /v u v u
Γ( )Γ( )[( ) x + 1] 2
2 2 v
0 < x < ∞ 0 con u grados de libertad en el numerados y v grados de libertad en el denominador,
abreviadamente, Fu ,v
1
Puntos Críticos: P ( F > f α ,u , v ) para hallar f1−α ,u ,v = )
fα ,u ,v
Momentos Esperanza o media µ=v/(v-2) para v > 2 2v 2 (u + v − 2)
2
Varianza σ = para v > 4
u (v − 2) 2 (v − 4)
8.4 Estimadores de intervalos.
8.4.1. Intervalos de Confianza (error tipo I).
Dada una población X, que sigue una distribución cualquiera con media µ y desviación estándar σ2
o Sabemos (por el TCL) que, para valores grandes de n , la media muestral x sigue una distribución aproximadamente
σ
normal con media µ x = µ y desviación estándar σ x=
n
o El Teorema de Chebyshev nos dice que, en una distribución normal, aproximadamente un 95% de los datos estaban
situados a una distancia inferior a dos desviaciones estándar de la media. De lo anterior se deduce que:
P( µ − 2σ x< x < µ + 2σ x) = 0,95 , lo que es igual a: P ( x − 2σ x< µ < x + 2σ x) = 0,95
o Por tanto, ésta última fórmula nos da un intervalo de valores tal que la probabilidad de que la media de la población esté
contenida en él es de 0,95.
Este tipo de intervalos se llama intervalos de confianza (nivel de significancia) de un parámetro poblacional. El nivel de
confianza (1 - α) del intervalo es la probabilidad que éste contenga al parámetro poblacional. En el ejemplo, la confianza es
0,95% (α = 0,05).
8.4.1. Intervalos de Confianza (error tipo I). En una situación de prueba de hipótesis existe la posibilidad de aceptar que la
media esté contenida fuera del 0,95 y este hecho sea falso. Este tipo de error se llama tipo II y se plantea como:
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 15 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba

X critico − µ
Z=
σ
n
Casos:
1. Intervalo de confianza para la media si se conoce la varianza.
 σ σ 
 x α = X − z1− α * ,x α = X +z α * 
 2 2 n 1− 2 1−
2 n
2. Intervalos de confianza para la media si no se conoce la varianza (caso general).

 Sˆ Sˆ 
 x α = X − t n −1,1− α * , x α = X +t α * 
 2 2 n 1− 2 n −1, 1−
2 n
3. Intervalo de confianza para la varianza.
 
 (n − 1) * Sˆ 2 (n − 1) * Sˆ 2 
σ ∈ 2
2
,
χ
 n −1,1− α χ 2 α 
n −1,
 2 2 
4. Estimación de tamaño muestral.
z2 α
1−
N≥ 2
Ŝ 2
d2
5. Intervalos para la diferencia de medias de dos poblaciones Sub-caso diferencia de medias homocedáticas
1 1
µ1 − µ 2 = ( Xˆ 1 − Xˆ 2 ) ± t α * Sˆ +
n1+ n 2 − 2 ,1−
2
n1 n 2
6. Intervalos para la diferencia de medias de dos poblaciones Sub-caso diferencia de medias no homocedáticas

Sˆ12 Sˆ12
µ1 − µ 2 = ( Xˆ 1 − Xˆ 2 ) ± t α * +
n1+ n 2 − 2 ,1−
2
n1 n2
7. Intervalo para una proporción (variables dicotómicas).
pˆ * qˆ
p = pˆ ± z α *
1−
2
n
8. Elección del tamaño muestral (variables dicotómicas).
z2 α z2 α
1− pˆ * qˆ 1 1− 2
N ≥ pˆ * qˆ 2
2
, Si error = z 2 α ó N≥ , se sin no se tiene estimación de p
error 1−
2
N 4 error 2
9. Intervalo para la diferencia de dos proporciones (variables dicotómicas).
pˆ 1 * qˆ1 pˆ 2 * qˆ 2
p1 − p 2 ∈ pˆ 1 − pˆ 2 ± z α * −
1−
2
n1 n2
8.5 Prueba de hipótesis.
8.5.1 Procedimiento General de Prueba de Hipótesis.
Propósito Efectuar una prueba de hipótesis
Condiciones Calidad de la prueba depende de la cantidad de datos. Generalmente 30 o mas datos. Las consideradas en cada
caso respecto a cada función de distribución muestral
Entradas Datos clasificados en orden creciente; Nro. de datos en la distribución a probar (n); Distribuciones muestrales
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 16 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Pasos 1. Del contexto del problema identificar parámetros de interés
2. Establecer la hipótesis nula: H0
3. Especificar una apropiada hipótesis alternativa, H1
4. Seleccionar el nivel de significancia (α)
5. Establecer un estadístico de prueba apropiado.
6. Establecer la región de rechazo para el estadístico
7. Calcular cantidades muestrales necesarias, sustitución y cálculo en el estimador estadístico de prueba
8. Decidir rechazo o no rechazo de H0 para notificarlo al contexto del problema
Interpretación Áreas de cola < 0,05 generalmente son suficientes para rechazar la prueba. Áreas de cola > 0,2 son suficientes
para aceptar la prueba. Valores intermedios indican grados intermedios de prueba.

Una Población
Población Contrastes Estadístico de Región de Rechazo Int. de confianza IC( 1-α)
Contraste
 
a) z 0 =
x − µ0 1 − a ) z0 > zα 1 − b) t 0 > t
n − 1;
α a) µ ∈=  x ± z α σ 
(1) H0: µ =µ0; H1: µ ≠µ0 σ/ n
2 2
n
2 − a) z 0 < − z α 2 − b) t 0 < −t  2
N(µ, σ2) (2) H0: µ ≥µ0; H1: µ <µ0 α
x − µ0 2
n −1;
2
 S 
(3) H0: µ ≤µ0; H1: µ>µ0 b) t 0 = 3 − a) z 0 > z α b) µ ∈=  x ± t
3 − b) t 0 > t 
s/ n n −1;
α
n −1;
α
n

2
2 2
1) z0 > zα
(1) H0: p =p0; H1: p ≠p0 p − p0 2
 pq
B(n, p) con n →∞ (2) H0: p ≥p0; H1: p <p0 z0 = 2) z 0 < − z α
p ∈n→∞ =  p ± z α 
p0 q 0 / n 2
n 
(3) H0: p ≤p0; H1: p>p0 3) z 0 > z α  2
2

 X0 > χ 2 α
(n − 1) s 2  n −1;
X0 = 1)  2
 
(1)H0: σ =σ0; H1: σ ≠σ0 σ 02  (n − 1) s (n − 1) s 
2 2
 z0 > χ n −1;1−α
2

N(µ, σ2) (2)H0: σ ≥σ0; H1: σ <σ0  σ ∈=  2 ,


n s2 χ χ2 α 
2
(3)H0: σ ≤σ0; H1: σ>σ0 X0 = 2 ) X 0 < χ n2−1;1−α  n−1;1−α2 n −1; 
σ 02  2 
3) X 0 > χ n2−1;α

Dos Poblaciones
Población Contrastes Estadístico de Contraste Región de Rechazo
1 − b) t 0 > z α
Cualquiera con x1 − x2 1 − a ) z0 > z α
(1) H0: µ1 =µ2; H1: µ1 ≠µ2 x1 − x 2 2
E(x1)= µ1; VAR (x1), σ21 a) z 0 = b) t0 = 2
2 − b) t 0 < − z α
(2) H0: µ 1≥µ2; H1: µ1 <µ2
2 2
σ 2
σ 2
s s 2 − a ) z 0 < − zα
E(x2)= µ2; VAR (x2), σ22 +
1 2
1
+ 2
2
(3) H0: µ 1≤µ2; H1: µ 1>µ2 n1 n2 n2 n2
3 − a ) z 0 > zα 3 − b) t 0 > z α
2

1 − a ) z0 > zα 1 − b) t 0 > t
n − 1;
α

(1) H0: µd =0; H1: µ d ≠ 0 d 2


2

Datos apareados 2 − b) t 0 < −t n −1;α


(2) H0: µ d ≥0; H1: µ d < 0 t0 = 2 − a ) z 0 < − zα
d = x1 – x2 sd / n 3 − a ) z 0 > zα 3 − b ) t 0 > t n −1; α
(3) H0: µ d ≤0; H1: µ d >0
si n→∝ Sólo si hay normalidad
x1 − x 2
a) z 0 =
1 1
σ + 1 − b) t 0 > t
Cualquiera con n1 n 2 1) z 0 , t 0 > z α n1 + n 2 − 2;
α
2
(1) H0: µ1 =µ2; H1: µ1 ≠µ2 x1 − x 2
E(x1)= µ1; VAR (x1), σ21 b) t 0 =
2
2 − b) t 0 < −t n1 + n2 − 2; α
(2) H0: µ 1≥µ2; H1: µ1 <µ2 2) z0 , t0 < − zα
E(x2)= µ2; VAR (x2), σ22 ST
1
+
1
(3) H0: µ 1≤µ2; H1: µ 1>µ2 n2 n2 3 − b) t 0 > t n1 + n2 − 2; α
3) z 0 , t 0 > zα
con S 2 = (n1 − 1) s1 + (n2 − 1) s2
2 2
Solo si hay normalidad
T
n1 + n2 − 2
Universidad Industrial de Santander
Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Guía de Conocimiento
Versión: 02.00 Estadística y Probabilidad Pág. 17 de 17
Fecha:11/08/2005 Profesores: Ricardo Llamosa Villalba
Dos Poblaciones
Población Contrastes Estadístico de Contraste Región de Rechazo
p1 − p 2 1) z0 > zα
Binomiales z0 =
(1) H0: p1 =p2; H1: p1 ≠p2 p0 q0 (1 / n1 + 1 / n2 ) 2

(2) H0: p 1≥p2; H1: p1 <p2 con 2) z0 < − zα


x1 → B(n1, p1)
(3) H0: p 1≤p2; H1: p 1>p2 n p +n p
x2 → B(n2, p2) p0 = 1 1 2 2 3) z0 > zα
n1 + n2
Siempre que n1 y n2 → ∝
1) F0 > F α ó F0 > F α
n2 −1, n1 −1, , n2 −1, n1 −1,1− ,
Normales 2 2
(1) H0:σ12=σ22; H1: σ12 ≠σ22 s1
2

(2) H0:σ12 ≥σ2; H1: σ12 <σ22 F0 = dónde F α = F


1
x1 → N(µ1, σ12) s2
2 n 2 −1, n1 −1,1− n1 −1 , n 2 −1 ,
α
(3) H0:σ12 ≤σ22; H1: σ12>σ22 2 2
x2 → N(µ2, σ22)
2) F0 < Fn2 −1,n1 −1,1−α , ó F0 > Fn2 −1,n2 −1,α

También podría gustarte