Documentos de Académico
Documentos de Profesional
Documentos de Cultura
S1 Apunte 03
S1 Apunte 03
Contexto
• Riesgo: es un efecto aleatorio propio del sistema bajo análisis. Se puede reducir alterando
el sistema.
• Incertidumbre: es el nivel de ignorancia del evaluador acerca de los parámetros que
caracterizan el sistema a modelar. Se puede reducir a veces con mediciones adicionales o
mayor estudio, o consulta a expertos.
• La Variabilidad Total: es la combinación de riesgo e incertidumbre.
Tanto el riesgo como la incertidumbre se describen mediante variables aleatorias que forman parte
de las variables presentes en el modelo.
• Variables Aleatorias.
• Distribuciones de probabilidad.
• Ley de los grandes números.
• Teorema del límite central.
Variables Aleatorias
• Una Variable aleatoria X es una función cuyos valores son números reales y dependen del
“azar”.
• Para caracterizar las variables aleatorias se utilizan las distribuciones de probabilidad.
Distribución de probabilidad
Una distribución de probabilidad describe el rango de valores que puede tomar una variable
aleatoria y la probabilidad asignada a cada valor o rango de valores.
• Discretas
• Continuas
• No Limitadas:
• Limitadas:
– Los valores de la variable aleatoria quedan confinados entre dos valores extremos
(ejemplos: Binomial, Beta, Uniforme, Triangular).
• Parcialmente Limitadas:
• No Paramétricas
– Los parámetros que se usan para definir estas distribuciones describen la forma de
la distribución.
• Subjetivas
Distribución Uniforme
• Todos los valores dentro del rango factible tienen la misma densidad de probabilidad.
• Parámetros:
• Aplicaciones: U(0,1) se usa en la generación de los valores de todas las demás distribuciones
de probabilidad en el muestreo aleatorio.
• Es una aproximación muy cruda para usar como estimación de la incertidumbre percibida
de un parámetro
Distribución Uniforme Discreta
• Si la variable aleatoria X toma los valores X1, X2, …, Xk, con idénticas probabilidades,
entonces la distribución uniforme discreta está dada por:
1
𝑓 (𝑥, 𝑘) = , 𝑥 = 𝑥1, 𝑥2, … . , 𝑥𝑘
𝑘
• Ejemplo: Cuando se lanza un dado honesto, cada elemento del EM ocurre con probabilidad
1/6. Por lo tanto, tenemos una distribución uniforme:
1
𝑓 (𝑥, 6) = , 𝑥 = 1,2,3,4,5,6.
6
Triangular
Histograma
Proceso de Bernoulli
P(NDN)=P(N)P(D)P(N)=(3/4)(1/4)(3/4)=9/64.
• Cálculos similares dan las probabilidades para los demás resultados posibles. La v.a. X
puede tomar los valores: 0,1,2,3. La distribución de probabilidad de X es:
• X: N° • P(X)
defectuosos
• 0 • 27/64
• 1 • 27/64
• 2 • 9/64
• 3 • 1/64
Distribución binomial
P(X=2)=f(2)=b(2; 3,1/4)=9/64.
• Las pruebas son independientes (lo que ocurre en la primera prueba no afecta a la segunda,
y sucesivamente).
• La probabilidad de ocurrencia del evento se mantiene constante a través de las pruebas (no
hay un proceso de aprendizaje).
• Un experimento donde las propiedades son las mismas que se indican en el experimento
binomial, con la excepción de que las pruebas se repetirán hasta que ocurra un número fijo
de éxitos.
• Si pruebas independientes repetidas pueden tener como resultado un éxito con probabilidad
p y un fracaso con probabilidad q=1-p, entonces la distribución de probabilidad de la v.a. X,
el número de la prueba en la que ocurre el k-ésimo éxito, es:
• Se continúa con las pruebas hasta que se observa la cantidad de eventos (s) buscada.
Distribución multinomial
• Si una prueba dada puede tener como consecuencia cualquiera de los k resultados posibles
E1, E2, ……, Ek con probabilidades p1, p2, …, pk, entonces la distribución multinomial de que
E1 ocurra dará la probabilidad de que E1 ocurra X1 veces; E2 ocurra X2 veces…; y Ek ocurra
Xk veces en n pruebas independientes, donde:
• Para derivar la fórmula general, se procede como en el caso de binomial. Como las pruebas
son independientes, cualquier orden especificado que produzca x1 resultados para E1, x2
para x2, …, xk para xk, ocurrirá con probabilidad:
• El número total de órdenes que den resultados similares para las n pruebas es igual al
número de particiones de n pruebas en k grupos de x1 el primer grupo, x2 en el segundo
grupo; y Xk en el k-esimo grupo.
Esto se puede hacer en:
• Como todas las particiones son mutuamente excluyentes y ocurren con igual probabilidad,
obtenemos la distribución multinomial al multiplicar la probabilidad para un orden
especifico por el número total de particiones.
Distribución Hipergeométrica
Distribución Geométrica
• Si se considera el caso para k=1, se tiene una distribución de probabilidad para el número
de pruebas que se requieren para un solo éxito.
• Un ejemplo sería lanzar una moneda hasta que aparezca cara. Interesa la probabilidad de
que ocurra la primera cara en el cuarto lanzamiento.
• La distribución binomial negativa se reduce a la forma:
• Como los términos sucesivos constituyen una progresión geométrica, se llama a este caso
especial distribución geométrica y denotar sus valores g (x;p).
Una distribución de probabilidad es continua cuando los resultados posibles del experimento son
obtenidos de variables aleatorias continuas, es decir, de variables cuantitativas que pueden tomar
cualquier valor, y que resultan principalmente del proceso de medición.
Distribución normal
1 x−
2
1 −
f ( x, , ) = e 2
2
1 x−
2
b 1 −
p ( a X b) = e 2
a
2
• Como el cálculo de esta integral es laborioso, para calcular el área se realiza el siguiente
cambio de variable:
Ver video
• Este cambio origina una distribución normal estándar de media μ = 0 y desviación típica σ
= 1 cuya función de densidad es:
Estimación subjetiva de los parámetros de una Normal