Está en la página 1de 12

Apuntes N°3

Nombre de la asignatura SIMULACIÓN


Unidad académica Facultad de Ingeniería y Arquitectura
Carrera/Programa Ingeniería Civil Industrial

UNIDAD II: SELECCIÓN DE DISTRIBUCIONES DE PROBABILIDADES PARA LAS VARIABLES


ALEATORIAS DEL MODELO.

Contexto

La selección de distribuciones de probabilidad para la simulación permite visualizar el


comportamiento de las variables aleatorias del modelo, esta lectura de comportamiento podrá dar
las herramientas necesarias para tomar las decisiones de manera estratégica y adecuada.

Fuentes de aleatoriedad en un modelo:

• Riesgo: es un efecto aleatorio propio del sistema bajo análisis. Se puede reducir alterando
el sistema.
• Incertidumbre: es el nivel de ignorancia del evaluador acerca de los parámetros que
caracterizan el sistema a modelar. Se puede reducir a veces con mediciones adicionales o
mayor estudio, o consulta a expertos.
• La Variabilidad Total: es la combinación de riesgo e incertidumbre.

Tanto el riesgo como la incertidumbre se describen mediante variables aleatorias que forman parte
de las variables presentes en el modelo.

El riesgo se puede administrar.

Fundamentos de probabilidad para simulación

• Variables Aleatorias.
• Distribuciones de probabilidad.
• Ley de los grandes números.
• Teorema del límite central.

Variables Aleatorias

• Una Variable aleatoria X es una función cuyos valores son números reales y dependen del
“azar”.
• Para caracterizar las variables aleatorias se utilizan las distribuciones de probabilidad.
Distribución de probabilidad

Una distribución de probabilidad describe el rango de valores que puede tomar una variable
aleatoria y la probabilidad asignada a cada valor o rango de valores.

• Discretas

– Una variable aleatoria representada mediante una distribución discreta de


probabilidad puede tomar un valor de entre un conjunto de valores, cada uno de
los cuales tiene asignada una determinada probabilidad de ocurrencia.

– Ejemplos: Binomial, Geométrica, Poisson discreta.

• Continuas

– Una variable aleatoria representada mediante una distribución continua de


probabilidad puede tomar cualquier valor dentro de un rango determinado.

– Ejemplos: Normal, Lognormal, Uniforme, Triangular.

• No Limitadas:

– La variable aleatoria puede tomar valores entre +infinito y –infinito (ejemplos:


Normal, Logística).

• Limitadas:

– Los valores de la variable aleatoria quedan confinados entre dos valores extremos
(ejemplos: Binomial, Beta, Uniforme, Triangular).

• Parcialmente Limitadas:

– Los valores de la variable aleatoria quedan limitados en uno de los extremos de la


distribución (ejemplos: Poisson, Exponencial).
• Paramétricas

– La distribución de probabilidad se ajusta a la descripción matemática de un proceso


aleatorio que cumple con determinados supuestos teóricos.

– Los parámetros que definen la distribución en general no guardan relación intuitiva


con la forma de la distribución.

– Ejemplos: Normal, Lognormal, Exponencial, Beta.

• No Paramétricas

– Los parámetros que se usan para definir estas distribuciones describen la forma de
la distribución.

– No se apoyan en una teoría que describa el proceso de generación de valores


aleatorios.

– Ejemplos: Triangular, Histograma, General, Uniforme, Acumulada.

• Subjetivas

– El uso de estas distribuciones de probabilidad es la única alternativa para describir


una variable aleatoria cuando:

• No hay una base de antecedentes.

• Los datos del pasado no son relevantes.

• Los datos son escasos y no cubren todo el rango de posibles valores.

• Es demasiado caro generar datos.

• Generar valores llevaría demasiado tiempo.

DISTRIBUCIONES DE PROBABILIDADES NO PARAMÉTRICAS

Distribución Uniforme

• Todos los valores dentro del rango factible tienen la misma densidad de probabilidad.

• Parámetros:

– Uniforme (mínima y máxima).

• Aplicaciones: U(0,1) se usa en la generación de los valores de todas las demás distribuciones
de probabilidad en el muestreo aleatorio.

• Es una aproximación muy cruda para usar como estimación de la incertidumbre percibida
de un parámetro
Distribución Uniforme Discreta

• La variable aleatoria cada uno de sus valores con la misma probabilidad.

• Si la variable aleatoria X toma los valores X1, X2, …, Xk, con idénticas probabilidades,
entonces la distribución uniforme discreta está dada por:
1
𝑓 (𝑥, 𝑘) = , 𝑥 = 𝑥1, 𝑥2, … . , 𝑥𝑘
𝑘
• Ejemplo: Cuando se lanza un dado honesto, cada elemento del EM ocurre con probabilidad
1/6. Por lo tanto, tenemos una distribución uniforme:
1
𝑓 (𝑥, 6) = , 𝑥 = 1,2,3,4,5,6.
6

Triangular

• Aplicaciones: estimar subjetivamente la distribución de la variable aleatoria cuando todo lo


que puede precisarse de la misma es el valor mínimo, el valor más probable y el valor
máximo.

• Parámetros: Triang (min, +prob, max)

• Sus propiedades estadísticas se derivan de su forma, no de una teoría subyacente.

• Es de definición intuitiva y de gran flexibilidad en cuanto a geometrías posibles.

• La forma de la distribución usualmente lleva a sobreestimar la densidad de las colas y a


subestimar la densidad en el “tronco” de la distribución.

Histograma

• Aplicaciones: Representar la forma de la distribución de una serie de datos o la opinión de


un experto acerca de la forma de la distribución de una variable.

• Parámetros: Histogram (mín., máx., {pi})

• Todos los intervalos de la distribución tienen el mismo “ancho”.


DISTRIBUCIONES DE PROBABILIDADES PARAMÉTRICAS DISCRETAS

Proceso de Bernoulli

• Más exactamente, el proceso de Bernoulli debe tener las siguientes propiedades:

• El experimento consiste en n pruebas que se repiten.

• Cada prueba conduce un resultado posible: éxito o fracaso.

• La probabilidad de un éxito, denotado con p, permanece constante en cada


prueba.

• Las pruebas que se repiten son independientes.

• Ejemplo: Consideremos el conjunto de experimentos de Bernoulli en el que se seleccionan


tres artículos al azar de un proceso de ensamblaje, se inspeccionan y se clasifican como
defectuosos o no defectuosos. Un artículo defectuoso se designa como éxito. Suponga que
el proceso tiene un 25% de artículos defectuosos.

• Como los artículos se seleccionan de forma independiente:

P(NDN)=P(N)P(D)P(N)=(3/4)(1/4)(3/4)=9/64.

• Cálculos similares dan las probabilidades para los demás resultados posibles. La v.a. X
puede tomar los valores: 0,1,2,3. La distribución de probabilidad de X es:

• X: N° • P(X)
defectuosos

• 0 • 27/64

• 1 • 27/64

• 2 • 9/64

• 3 • 1/64
Distribución binomial

• El número X de éxitos en n experimentos de Bernoulli se denomina variable aleatoria


binomial. La distribución de probabilidad de la v.a. X se llama distribución binomial, y sus
valores se denotarán como b(x; n, p) pues depende del número de pruebas y de la
probabilidad de éxito en una prueba dada.

• Así, para la distribución de probabilidad de X, la probabilidad de obtener 2 defectuosos es:

P(X=2)=f(2)=b(2; 3,1/4)=9/64.

• La distribución binomial se aplica en muchos campos científicos. Un ingeniero industrial está


interesado en la proporción de defectuoso en un proceso industrial.
• Esta distribución se aplica en cualquier situación donde el resultado de un proceso es
dicotómico y los resultados del proceso son independientes y la probabilidad de éxito es
constante de una prueba a otra.
• La media y la varianza de la distribución binomial b (x; n, p) son:

Condiciones subyacentes a una distribución Binomial

• En cada prueba sólo hay dos resultados posibles.

• Las pruebas son independientes (lo que ocurre en la primera prueba no afecta a la segunda,
y sucesivamente).

• La probabilidad de ocurrencia del evento se mantiene constante a través de las pruebas (no
hay un proceso de aprendizaje).

Distribución Binomial Negativa

• Un experimento donde las propiedades son las mismas que se indican en el experimento
binomial, con la excepción de que las pruebas se repetirán hasta que ocurra un número fijo
de éxitos.

• En vez de calcular la probabilidad de x éxitos en n pruebas, donde n es fija, se calcula la


probabilidad de que ocurra el k-ésimo éxito en la x-ésima prueba.
• Los experimentos de este tipo se llaman experimentos binomiales negativos.

• El número X de pruebas que contiene k éxitos en un experimento binomial negativo se


llama v.a. binomial negativa y su distribución de probabilidad se llama distribución binomial
negativa.

• Si pruebas independientes repetidas pueden tener como resultado un éxito con probabilidad
p y un fracaso con probabilidad q=1-p, entonces la distribución de probabilidad de la v.a. X,
el número de la prueba en la que ocurre el k-ésimo éxito, es:

Condiciones subyacentes de una distribución Binomial Negativa

• La cantidad de pruebas no está prefijada.

• Se continúa con las pruebas hasta que se observa la cantidad de eventos (s) buscada.

• La probabilidad de éxito p es constante de prueba a prueba.

Distribución multinomial

• Si una prueba dada puede tener como consecuencia cualquiera de los k resultados posibles
E1, E2, ……, Ek con probabilidades p1, p2, …, pk, entonces la distribución multinomial de que
E1 ocurra dará la probabilidad de que E1 ocurra X1 veces; E2 ocurra X2 veces…; y Ek ocurra
Xk veces en n pruebas independientes, donde:

• Para derivar la fórmula general, se procede como en el caso de binomial. Como las pruebas
son independientes, cualquier orden especificado que produzca x1 resultados para E1, x2
para x2, …, xk para xk, ocurrirá con probabilidad:

• El número total de órdenes que den resultados similares para las n pruebas es igual al
número de particiones de n pruebas en k grupos de x1 el primer grupo, x2 en el segundo
grupo; y Xk en el k-esimo grupo.
Esto se puede hacer en:

• Como todas las particiones son mutuamente excluyentes y ocurren con igual probabilidad,
obtenemos la distribución multinomial al multiplicar la probabilidad para un orden
especifico por el número total de particiones.

Distribución Hipergeométrica

• Si interesa la probabilidad de seleccionar x éxitos de los k artículos considerados como éxito


y n-k fracasos de los cuales N-k artículos que se consideran fracasos cuando se selecciona
una muestra aleatoria de tamaño n de N artículos.
• Esto se conoce como experimento hipergeométrico; es decir, uno que posee las siguientes
dos propiedades:
– Se selecciona sin reemplazo una muestra aleatoria de tamaño n de N artículos.
– k de los N artículos se pueden clasificar como éxitos y N-k se clasifican como
fracasos.

• El número X de éxitos de un experimento hipergeométrico se denomina variable aleatoria


hipergeométrica. En consecuencia, la distribución de probabilidad de esta variable se llama
distribución hipergeométrica, y sus valores se denotan como h(x; N,n,k), debido a que
dependen del número de éxitos k en el conjunto N del que seleccionamos n artículos.
Condiciones subyacentes de una distribución Hipergeométrica

• La cantidad total de elementos de una población es finita.


• La muestra representa una porción de la población.
• La probabilidad de ocurrencia del evento en la población es conocida y cambia
ligeramente luego de cada prueba.
• La distribución de probabilidad de la v.a. hipergeométrica X, el número de éxitos en una
muestra aleatoria de tamaño n que se selecciona de N artículos de los que k se denominan
éxitos y N-k fracasos, es:

Distribución Geométrica

• Si se considera el caso para k=1, se tiene una distribución de probabilidad para el número
de pruebas que se requieren para un solo éxito.
• Un ejemplo sería lanzar una moneda hasta que aparezca cara. Interesa la probabilidad de
que ocurra la primera cara en el cuarto lanzamiento.
• La distribución binomial negativa se reduce a la forma:

• Como los términos sucesivos constituyen una progresión geométrica, se llama a este caso
especial distribución geométrica y denotar sus valores g (x;p).

• Si pruebas independientes repetidas pueden tener como resultado un éxito con


probabilidad p y un fracaso con probabilidad q= 1-p, entonces la distribución de
probabilidad de la variable aleatoria X, el número de la prueba en el que ocurre el primer
éxito, es:

• La cantidad de eventos no está prefijada.


• Se continúa con las pruebas hasta lograr el primer éxito.
• La probabilidad de éxito p es constante a través de las pruebas.
DISTRIBUCIONES DE PROBABILIDADES CONTINUAS

Una distribución de probabilidad es continua cuando los resultados posibles del experimento son
obtenidos de variables aleatorias continuas, es decir, de variables cuantitativas que pueden tomar
cualquier valor, y que resultan principalmente del proceso de medición.

• Ejemplos de variables aleatorias continuas son:


– La estatura de un grupo de personas.
– El tiempo dedicado a estudiar.
– La temperatura en una ciudad.

Distribución normal

• Abraham De Moivre (1733) fue el primero en obtener la ecuación matemática de la curva


normal. Kart
• Friedrich Gauss y Márquez De Laplece (principios del siglo diecinueve) desarrollaron más
ampliamente los conceptos de la curva. La curva normal también es llamada curva de error,
curva de campana, curva de Gauss, distribución gaussiana o curva de De Moivre.
• Su altura máxima se encuentra en la media aritmética, es decir su ordenada máxima
corresponde a una abscisa igual a la media aritmética. La asimetría de la curva normal es
nula y por su grado de apuntamiento o curtosis se clasifica en mesocúrtica.
• La mayoría de las variables aleatorias que se presentan en los estudios relacionados con las
ciencias sociales, físicas y biológicas, son continuas y se distribuyen según la distribución de
probabilidad Normal, que tiene la siguiente expresión analítica:

1  x− 
2

1 −  
f ( x,  ,  ) = e 2  

 2

• Donde μ es la media de la variable aleatoria y σ es su desviación típica.

• La distribución de probabilidad Normal tiene forma de campana.


• Para una variable aleatoria X, que se distribuye normalmente con media: μ y desviación
típica : σ, la probabilidad de que la variable X esté comprendida entre los valores a y b es
el área teñida de rojo en la siguiente figura.
• Esta probabilidad analíticamente se puede calcular así:

1  x− 
2
b 1 −  
p ( a  X  b) =  e 2  
a
 2
• Como el cálculo de esta integral es laborioso, para calcular el área se realiza el siguiente
cambio de variable:

Ver video

• Este cambio origina una distribución normal estándar de media μ = 0 y desviación típica σ
= 1 cuya función de densidad es:
Estimación subjetiva de los parámetros de una Normal

• Media: Valor más probable.


• Desvío: el intervalo +/- 2*sigma contiene el 95% de los valores, por lo tanto:
Sigma: (máximo - más probable) / 2

También podría gustarte