Está en la página 1de 16

1

Universidad Santa María


Facultad de Ingeniería y Arquitectura
Especialidad: Ingeniería y Otras
Especialidades
Cátedra: Investigación de Operaciones II
Profesor: Pedro Camargo.

Horario: DOS HORAS DE CLASE EN LA SEMANA.


Día lunes: De 11,30 Am a 1,00 Pm.
Miércoles: De 3,15 Am a 5,30 Pm.
Enviado al Delgado de Cátedra: El 27 de mayo de 2023. Hora 10,00 Pm
DELEGADOS:
Código de la Cátedra: 1441-10-773
HORARIO DE LOS PARCIALES: 4,00 PM, AULA 702

PRIMER PARCIAL: FECHA: SEGUNDO PARCIAL: FECHA: TERCER PARCIAL:


FECHAS:

TEMA VI

Modelo Probabilístico.
 
Capítulo I.
Parte Teórica.

Modelo probabilístico o estadístico es la forma que pueden tomar un conjunto de datos


obtenidos de muestreos de datos con comportamiento que se supone aleatorio.

Un modelo estadístico es un tipo de modelo matemático que usa la probabilidad, y que incluye


un conjunto de asunciones sobre la generación de algunos datos muéstrales, de tal manera
que asemejen a los datos de una población mayor.

Las asunciones o hipótesis de un modelo estadístico describen un conjunto de distribuciones


de probabilidad, que son capaces de aproximar de manera adecuada un conjunto de datos.
Las distribuciones de probabilidad inherentes de los modelos estadísticos son lo que
distinguen a los modelos de otros modelos matemáticos deterministas.
2

Un modelo estadístico queda especificado por un conjunto de ecuaciones que relacionan


diversas variables aleatorias, y en las que pueden aparecer otras variables no aleatorias.
Como tal "un modelo es una representación formal de una teoría"1

Todos los test de hipótesis estadísticas y todos los estimadores estadísticos proceden de


modelos estadísticos. De hecho, los modelos estadísticos son una parte fundamentalmente de
la inferencia estadística.

Tipos de Modelos

1) Modelos basados en distribuciones

2) Modelo de recuperación de independencia binaria

3) Modelos de regresión

Modelos basados en distribuciones

Pueden ser modelos probabilísticos discretos o continuos. Los primeros, en su mayoría se


basan en repeticiones de pruebas de Bernoulli. Los más utilizados son:

 Modelo de Bernoulli
 Modelo Binomial.
 Modelo Geométrico.
 Modelo Binomial negativo.
 Modelo Hipergeométrico.
 Modelo de Poisson.

Por otro lado, tal como se ha mencionado antes, existen modelos probabilísticos continuos,
entre ellos destacamos:

 Distribución Normal: usada ampliamente en muestras mayores a 30 datos.


 Distribución Chi Cuadrado: usada en muestras pequeñas.
 Distribución Exponencial: usada en duración o donde interviene el paso del tiempo.
 Distribución F o distribución F de Snedecor: usada para controlar la varianza de 2
distribuciones.

Modelo de Recuperación de Independencia Binaria.


3

El modelo probabilístico como modelo de recuperación de independencia binaria fue


desarrollado por Robertson y Spark Jones. Este modelo afirma que pueden caracterizarse los
documentos de una colección mediante el uso de términos de indización. Obviamente existe
un subconjunto ideal de documentos que contiene únicamente los documentos relevantes a
una necesidad de información para la cual se realiza una ponderación de los términos que
componen la consulta realizada por el usuario. A continuación el sistema calcula la semejanza
entre cada documento de la colección y la consulta y presentando los resultados ordenados
por grado de probabilidad de relevancia en la relación a la consulta. Este modelo evita la
comparación exacta (existencia o no de un término de la consulta en el documento) y posibilita
al usuario realizar un proceso de retroalimentación valorando la relevancia de los documentos
recuperados para que el sistema pueda calcular la probabilidad en posteriores consultas de
que los documentos recuperados sean o no relevantes en función de los términos utilizados
en la consulta sean o no relevantes.

Modelo de Regresión.

Un modelo estadístico de regresión es una expresión simbólica en forma de igualdad o


ecuación que se emplea en todos los diseños experimentales y en la regresión para indicar los
diferentes factores que modifican la variable de respuesta. El modelo estadístico más simple
es el usado en los diseños completos aleatorizados (DCA). Su modelo es:

Donde

Y = es la variable de respuesta de interés.


μ = promedio general de la población sobre la cual se está trabajando
t = es la variación que se atribuye a los niveles del factor que se está evaluando
(efecto de los tratamientos).
ξ = es la variación de los factores no controlados (el error experimental)
i = i -ésimo tratamiento
j = j -ésima repetición de cada tratamientos
J (i) = es la variación de las unidades experimentales anidado en los tratamientos.

Los modelos estadísticos pueden ser lineales o no lineales.

MODELO BONOMIAL

En estadística, la distribución binomial es una distribución de probabilidad discreta que cuenta


el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con
una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli
se caracteriza por ser dicotómico, esto es, solo dos resultados son posibles. A uno de estos se
4

denomina «éxito» y tiene una probabilidad de ocurrencia p y al otro, «fracaso», con una
probabilidad2 q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de
forma independiente, y se trata de calcular la probabilidad de un determinado número de
éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.

Para representar que una variable aleatoria X sigue una distribución binomial de


parámetros n y p, se escribe:

 Se lanza un dado diez veces y se cuenta el número Y de tres obtenidos:


entonces X ~ B (10, 1/6).

Experimento Binomial.

Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno
de los experimentos es independiente de los restantes (la probabilidad del resultado de un
experimento no depende del resultado del resto). El resultado de cada experimento ha de
admitir sólo dos categorías (a las que se denomina éxito y fracaso). El valor de ambas
posibilidades ha de ser constante en todos los experimentos, y se denotan
como p y q respectivamente, o p y 1-p de forma alternativa.

Se designa por X a la variable que mide el número de éxitos que se han producido en
la n experimentos.

Cuando se dan estas circunstancias, se dice que la variable X sigue una distribución de


probabilidad binomial, y se denota B(n, p).

Supongamos que se lanza un dado (con 6 caras) 51 veces y queremos conocer la


probabilidad de que el número 3 salga 20 veces. En este caso tenemos una X ~ B
(51, 1/6) y la probabilidad sería P(X=20):

Distribución Geométrica.

En teoría de probabilidad y estadística, la distribución geométrica es cualquiera de las


dos distribuciones de probabilidad discretas siguientes:

 la distribución de probabilidad del número X del ensayo de Bernoulli necesaria para


obtener un éxito, contenido en el conjunto { 1, 2, 3,...} o
 la distribución de probabilidad del número Y = X − 1 de fallos antes del primer éxito,
contenido en el conjunto {0, 1, 2, 3,...}.

MODELO BINOMIAL NEGATIVO


5

 En estadística la distribución binomial negativa es una distribución de


probabilidad discreta que incluye a la distribución de Pascal. Es una
ampliación de las distribuciones geométricas, utilizada en procesos en los
cuales se ve necesaria la repetición de ensayos hasta conseguir un número
de casos favorables (primer éxito).
 La distribución Binomial es una distribución de probabilidad discreta que
mide el número de éxitos en una secuencia de n ensayos de Bernoulli
independientes entre sí, con una probabilidad p de ocurrencia de éxitos en
los ensayos.
 Un experimento de Bernoulli se caracteriza por ser dicotómico, es decir,
sólo son posibles dos resultados(A y no A).
MODELO DE BERNOULL

 La variable aleatoria es el número de ensayos Bernoulli necesarios para


obtener el primer éxito. Si deseamos conocer el número de estos para
conseguir n éxitos, la variable aleatoria es binomial negativa.
 El número de experimentos de Bernoulli de parámetro  independientes
realizados hasta la consecución del k-ésimo éxito es una variable aleatoria
que tiene una distribución binomial negativa con parámetros k y .
 La distribución geométrica es el caso concreto de la binomial negativa
cuando k = 1.
MODELO HIPOGEMETRICO.

En teoría de la probabilidad la distribución hipergeométrica es


una distribución discreta relacionada con muestreos aleatorios y sin reemplazo.
Suponga que se tiene una población de N elementos de los cuales, d pertenecen
a la categoría A y N-d a la B. La distribución hipergeométrica mide la probabilidad
de obtener x () elementos de la categoría A en una muestra sin reemplazo
de n elementos de la población original.

MODELO DE POISSON

En teoría de probabilidad y estadística, se puede inferir que de la distribución de


Poisson 
6

Es una distribución de probabilidad discreta que expresa, a partir de una


frecuencia de ocurrencia media, la probabilidad de que ocurra un determinado
número de eventos durante cierto período de tiempo. Concretamente, se
especializa en la probabilidad de ocurrencia de sucesos con probabilidades muy
pequeñas, o sucesos "raros".

Fue propuesta por Simeón-Denis Polisón, que la dio a conocer en 1838 en su


trabajo Recherches sur la probabilité des jugements en matières criminelles et
matière civile (Investigación sobre la probabilidad de los juicios en materias
criminales y civiles).

Capítulo II

Parte Práctica

MODELOS PROBABILISTICOS DISCRETOS

Por resolver:

1. De un lote de 12 artículos, distinguibles, 3 son defectuosos, se extrae, al azar,


un artículo. ¿Cuál es la probabilidad que el articulo sea defectuoso?
Usando la distribución de Bernoulli:
Sea:

Así:

2. Un ambulante tiene 20 relojes del mismo modelo para vender, 4 de estos relojes
tienen defectos. Si Ud. compra un reloj. ¿Cuál es la probabilidad que su compra
sea buena?
Usando la Distribución de Bernoulli:
Sea:

Así:

3. De 12 empleados ejecutivos, de cierta Cía., 4 tienen estudios de postgrado .Si


7

se elige, al azar, un empleado ejecutivo. ¿Cuál es la probabilidad que tenga


estudios de postgrado?
Usando la distribución de Bernoulli:
Sea:
4. En una planta manufacturera han ocurrido accidentes a razón de 1 cada 2
meses. Suponiendo que los accidentes ocurren en forma independiente:
a) ¿Cuál es el número esperado de accidentes al año?
El número promedio de accidentes en un año es:

λ=6, entonces E(x)=λ=6


b) ¿Cuál es la probabilidad que no haya accidentes en un determinado mes?
El número promedio de accidentes en un mes es:

λ=0.5, entonces X~P (0.5)

Capítulo III.

Procesos Estocásticos.

Teoría.
Un proceso estocástico es un conjunto de variables aleatorias que depende de un
parámetro o de un argumento. En el análisis de series temporales, ese parámetro
es el tiempo. Formalmente, se define como una familia de variables aleatorias Y
indiciadas por el tiempo, t. Tales que para cada valor de t, Y tiene una distribución
de probabilidad dada.

En términos mucho más sencillos, un proceso estocástico es aquel que no se


puede predecir. Se mueve al azar. Aunque, como veremos más tarde, existen
distintos tipos de procesos estocásticos. Uno de los ejemplos más clásicos para
hacer referencia a un proceso estocástico es la bolsa de valores.

A pesar de esto, existen estrategias que han demostrado sobradamente que la


bolsa no es un proceso estrictamente estocástico. Sin embargo, en este caso, nos
estamos refiriendo a la bolsa de valores segundo a segundo. Ni el mejor modelo
8

predictivo del mundo sería capaz de predecir si la bolsa subirá o bajará cada
segundo.

Ejemplos de procesos estocásticos:

A continuación se ofrecen ejemplos variados de fenómenos que constituyen


procesos estocásticos.

 Electrocardiograma
 Terremotos
 El clima
 El segundo concreto de un partido en el que un jugador anota un gol
 Número de personas que dicen una palabra concreta alrededor del mundo

Como podemos comprobar son procesos totalmente aleatorios. Es imposible


saber en qué segundo anotará un jugador un gol. Al igual que es imposible
predecir de forma exacta qué tiempo hará en una zona en cierto instante. Y a
pesar de los avances tecnológicos sigue siendo imposible predecir un terremoto.
Así pues, una vez introducidos en los procesos estocásticos es preciso describir
los tipos que existen.

Tipos de procesos estocásticos

Existen dos tipos de procesos estocásticos. La diferencia entre los mismos, tiene
que ver con predictibilidad de una serie temporal:

 Procesos estocásticos estacionarios: Tiene una serie de características que lo hacen,


en cierta manera, predecible.
 Procesos estocásticos no estacionarios: En términos generales, sería impredecible.

Proceso estocástico estacionario

Un proceso estocástico estacionario es aquel cuya distribución de probabilidad


varía de forma más o menos constante a lo largo de cierto periodo de tiempo. Con
otras palabras, una serie de números puede parecer (y ser) caótica pero tomar
9

valores dentro de un rango limitado. A través de esta información se pueden


realizar modelos que intenten predecir la variable. Los retornos diarios de un
activo financiero son un ejemplo de procesos estocásticos estacionarios. Así pues,
los retornos diarios del EURUSD, es decir, la variación diaria en porcentaje tiene la
siguiente forma:

Este gráfico refleja los retornos diarios en porcentaje del EURUSD desde 1999.
Sin embargo, para entender mejor el concepto, vamos a ofrecer solo los últimos
100 días.

Este gráfico refleja los retornos diarios en porcentaje del EURUSD desde 1999. Sin
embargo, para entender mejor el concepto, vamos a ofrecer solo los últimos 100 días.
10

Al ampliar el gráfico podemos ver con más claridad el comportamiento de la variable.


Durante los últimos 100 días el EURUSD ha tenido variaciones dentro del rango -1% y 1%.
No podemos predecir cuál será la variación de un día en concreto, pero podemos intuir (que
no confirmar), el rango de valores entre el que estará la variable.

Proceso estocástico no estacionario

Un proceso estocástico no estacionario es aquel cuya distribución de probabilidad varía de


forma no constante. Dicho de otra forma, si una serie de números se comporta de forma
totalmente caótica, podríamos decir que es aleatorio no estacionario. Un ejemplo de
proceso estocástico no estacionario sería la cotización del par de divisas EURUSD.
11

Como vemos en la imagen, tanto la variabilidad, como la media, cambian a lo largo del
tiempo. No podemos predecir si el EURUSD, va a subir o va a bajar. Ha subido durante
algunos años y ha bajado durante otros tantos. Con la serie por sí sola, no tiene sentido
intentar predecir el movimiento.

En resumen, un proceso estocástico es un proceso aleatorio. Un proceso dominado por el


azar. Aun así, existen dos tipos. Los procesos estocásticos no estacionarios o caóticos. Y los
procesos estocásticos estacionarios que, por sus características, pueden intentar predecirse.
12

Al ampliar el gráfico podemos ver con más claridad el comportamiento de la


variable. Durante los últimos 100 días el EURUSD ha tenido variaciones dentro del
rango -1% y 1%. No podemos predecir cuál será la variación de un día.

En concreto, pero podemos intuir (que no confirmar), el rango de valores entre el


que estará la variable.

En la teoría de la probabilidad, un proceso estocástico es un concepto matemático


que sirve para usar magnitudes aleatorias que varían con el tiempo o para
caracterizar una sucesión de variables aleatorias (estocásticas), que evolucionan en
función de otra variable, generalmente el tiempo. Cada una de las variables
aleatorias del proceso tiene su propia función de distribución de probabilidad y
pueden o no estar correlacionadas entre sí.

Cada variable o conjunto de variables sometidas a influencias o


efectos aleatorios constituye un proceso estocástico. Un proceso estocástico {\

displaystyle X_{t}}  puede entenderse como una familia uniparamétrica de


variables aleatorias indexadas mediante el tiempo t. Los procesos estocásticos
permiten tratar procesos dinámicos en los que hay cierta aleatoriedad.
13

Ejemplos dentro del amplio grupo de las series temporales:

 señales de telecomunicación;
 señales biomédicas (electrocardiograma, encefalograma, etc.);
 señales sísmicas.
 el número de manchas solares año tras año;
 el índice de la bolsa segundo a segundo;
 la evolución de la población de un municipio año tras año;
 el tiempo de espera en la cola de cada uno de los usuarios que van llegando a
una ventanilla;
 el clima, un gigantesco conjunto de procesos estocásticos interrelacionados (velocidad del
viento, humedad del aire, etcétera) que evolucionan en el espacio y en el tiempo;
 los procesos estocásticos de orden mayor a uno, como el caso de una serie de tiempo de
orden 2 y una correlación de cero con las demás observaciones.

Casos especiales

 Proceso estacionario: Un proceso es estacionario en sentido estricto si la función de


distribución conjunta de cualquier subconjunto de variables es constante respecto a un
desplazamiento en el tiempo. Se dice que un proceso es estacionario en sentido amplio (o
débilmente estacionario) cuando se verifica que:

1. La media teórica es independiente del tiempo, y


2. El auto covarianzas de orden s sólo vienen afectadas por el lapso de tiempo
transcurrido entre los dos periodos y no dependen del tiempo.

 Proceso homogéneo: variables aleatorias independientes e idénticamente distribuidas.


Son proceso donde el dominio tiene cierta simetría y las distribuciones de probabilidad
finito-dimensionales tienen la misma simetría. Un caso especial incluye a los procesos
estacionarios, también llamados procesos homogéneos en el tiempo.
 Proceso de Márkov: Aquellos procesos discretos en que la evolución sólo depende del
estado actual y no de los anteriores.
 Procesos de tiempo discreto
o Proceso de Bernoulli son procesos discretos en los que el número de eventos
viene dado por una distribución binomial.
14

o Proceso de Galton-Watson: es un tipo de proceso de Markov con ramificación.


 Procesos de tiempo continuo:
o Proceso de Gauss: Proceso continúo en el que toda combinación lineal de
variables es una variable de distribución normal.
o Proceso de Márkov continuo

Proceso de Gauss-Márkov: Son procesos, al mismo tiempo, de Gauss y de Márkov.

Proceso de Feller: son procesos estocásticos que toman valores sobre espacios
de operadores de algún espacio funcional.

Proceso de Lévy: son procesos homogéneos de Markov de "tiempo continuo" que generalizan
el paseo aleatorio que usualmente se define como de "tiempo discreto".

Proceso de Poisson, es caso particular de proceso de Lévy donde el tiempo transcurrido entre


saltos sigue una distribución exponencial y, por tanto, el número de eventos en un intervalo
viene dado por una distribución de Poisson.

Proceso de Wiener, el incremento de la variable entre dos instantes tiene una distribución
gaussiana y, por tanto, además de un proceso de Lévy es un proceso de
Gauss simultáneamente.

Proceso doblemente estocástico, es un tipo de modelo estocástico usado para modelar ciertas
series temporales, en el que los parámetros que dan las distribuciones también varían
aleatoriamente (de ahí el término de doblemente estocástico).

Proceso de Cox es un proceso doblemente estocástico que generaliza el proceso de Poisson,


donde el parámetro de intensidad varía aleatoriamente.

Proceso estocástico continuo, es un tipo de proceso estocástico de tiempo continuo en que las
trayectorias son además caminos continuos.

Parte Práctica.
15

Procesos Estocásticos.

Ejemplos.

¿Cuáles son el espacio de estados y el espacio del parámetro para un proceso estocástico
que representa el posible marcador durante un partido de fútbol?

Solución.

El espacio de estados S es el conjunto de valores posibles que puede tomar el posible


marcador, de donde S = {(x,y): x, y = 0, 1, 2, ...}. El espacio del parámetro es T = (0,90).
Notemos que el proceso se inicia en el estado (0,0) y habrá transiciones entre los distintos
estados, siempre que sea anotado un gol. Con cada gol, puede hacer que x o y se
incrementen en uno, de donde, el marcador (x,y) pasa a (x+1,y) o a (x,y+1).

¿Cuáles son los espacios de estados y el espacio del parámetro, para un proceso estocástico
que es la profundidad del mar en la posición X, en el instante t?

Solución.

Caso Papillon.

La profundidad del mar se mide desde la cresta de una ola hasta el lecho del océano. Puesto
que las olas se propagan en todas direcciones, la profundidad en cualquier punto fijo X variará
con el tiempo, haciendo caso omiso de toda influencia a gran escala como las mareas. Puede
medirse la profundidad en cualquier instante τ, y en cualquier posición X (t), de modo que el
espacio del parámetro T es el conjunto de todas t = (τ, X) para las cuales -∞ < τ < ∞ y X ∈ Y,
donde Y es el conjunto de las referencias geográficas para todo el mar.
Así que S = [0, ∞), donde la profundidad es 0 cuando queda expuesto el lecho del océano y no
existe límite para la altura que pueden alcanzar las olas, aunque no se formará una ola de
altura infinita a menos que se trate de un caso milagroso.

Aquí no solo es el tiempo, sino una combinación de las coordenadas de tiempo y espacio. El
espacio de estados S es el conjunto de todos los valores que puede tomar la profundidad.
16

Estudien con Tiempo y Justo a Tiempo.

Buena suerte.

Pedro Camargo.

También podría gustarte