Está en la página 1de 4

TEMA 1: Introducción sobre las técnicas de simu-

lación estocástica

1. Objetivos de la simulación estocástica


Las técnicas de simulación estocástica permiten reproducir escenarios probabilı́sticos y
estadı́sticos para inferir el comportamiento de un proceso o sistema aleatorio. Especı́fica-
mente, en el ámbito de la probabilidad, la generación de modelos de variables aleatorias,
procesos estocásticos, campos aleatorios y ecuaciones diferenciales estocásticas ha permi-
tido comprobar la validez de hipótesis sobre el comportamiento de fenómenos y sistemas
representados por dichos modelos, ası́ como:

Explorar caracterı́sticas de las distribuciones (cuando los métodos analı́ticos y numéri-


cos no proporcionan información explı́cita).

Inferir comportamientos locales y a gran escala de procesos aleatorios definidos en


el tiempo o en el tiempo y espacio.

Aproximar los estados de un sistema.

Aproximar el comportamiento de la solución de un modelo diferencial estocástico,


etc.

En el ámbito estadı́stico, la simulación estocástica proporciona:

Métodos de generación de muestras.

Métodos para la implementación de técnicas estadı́sticas que requieren la resolución


previa de problemas de optimización.

Métodos de comprobación de resultados estadı́sticos asintóticos.

Métodos de validación, etc.

En definitiva, la simulación ofrece una alternativa a los métodods analı́ticos y numéri-


cos, cuando dichos métodos no proporcionan soluciones factibles, o bien, requieren de la
aplicación de técnicas o herramientas muy complejas.

2. Fundamentos y orı́genes de las técnicas de simu-


lación estocástica
El objetivo inicial de la simulación estocástica fue la generación o reproducción de
situaciones y escenarios asociados a procesos o sistemas con un funcionamiento aleatorio,
donde la incertidumbre inherente impide conocer a-priori su estado.

1
Inicialmente, se crearon dispositivos computacionales o fı́sicos que permitı́an generar
secuencias de números o sı́mbolos que no obedecı́an a ninguna ley o patrón determinı́sti-
co, es decir, se comportaban como una secuencia de números aleatorios. En ocasiones
dichas secuencias son recogidas en tablas. Hay que notar que inicialmente los dispositivos
fı́sicos empleados (tales como el lanzamiento de una moneda, la ruleta, etc.) proporciona-
ban verdaderas secuencias de números aleatorios. Sin embargo, el tiempo de generación
resultaba inviable, ası́ como los costes asociados. Los métodos computacionales ofrecen
técnicas sencillas, fácilmente implementables, de bajo costo, que ocupan poca memoria en
el ordenador, que pueden ser repetidas tantas veces como se desee, etc. El único inconve-
niente es que dichas secuencias, referidas como secuencias de números pseudoaleatorios,
no siempre presentan las caracterı́sticas que definen una secuencia de números aleatorios
(independencia, distribución, uniforme, gaussiana, etc.). En el ámbito estadı́stico la no
aleatoriedad de una secuencia generada computacionalmente, a partir de un algoritmo de
simulación, es detectada mediante test o contrastes estadı́sticos de bondad de ajuste (e.g.
test χ2 ) y aleatoriedad (e.g. test de las rachas).
En este curso, en el Tema 2, revisaremos brevemente tres de los métodos usuales de
generación de números pseudoaleatorios uniformes:

Método de los cuadrados medios

Método de Lehmer

Método Congruencial.

Se describirán entonces las técnicas usuales

Transformada Inversa

Método de Aceptación-Rechazo

Método de composición

para la generación de variables aleatorias, con dsitribuciones discretas y continuas, a partir


de una secuencia de números pseudoaleatorios uniformes.
Posteriormente, tras el avance experimentado con la implementación computacional
de generadores de números pseudoaleatorios, se han desarrollado diferentes métodos de
simulación de secuencias de variables aleatorias con una cierta estructura de dependencia,
lo que permite conectar con la teorı́a de procesos estocásticos, es decir, con las técnicas
de simulación estocástica para la generación de procesos aleatorios. Más concretamente,
se comenzó con la implementación de algoritmos, basados en la idependencia, para la
generación de magnitudes aleatorias que evolucionan en el tiempo, mediante la simulación
de procesos básicos tales como:

2
Los recorridos aleatorios (en tiempo discreto) y procesos aproximados tales como
Movimiento Browniano.

El proceso de Poisson (en tiempo continuo).

Versiones multidimensionales de los anteriores.


La clase anterior de procesos se puede ampliar a la clase de procesos de Markov, cuya
estructura de dependencia es muy débil (la información sobre el futuro se recoge en el
presente). Los recorridos aleatorios y el proceso de Poisson constituyen casos especiales
de procesos de Markov. A partir de procesos de Poisson y de versiones más complejas, con
incrementos independientes, se pueden generar sistemas aleatorios dinámicos tales como:
Sistemas de Colas (Fiabilidad, Ingenierı́a, etc.).

Procesos de nacimiento y muerte (Análisis de Supervivencia, Epidemiologı́a, Genética,


etc.).
Los algoritmos anteriores de generación de procesos proporcionan la base para la simu-
lación de casos más generales tales como:
Procesos de recuento asociados a un proceso puntual y procesos relacionados.

Procesos de ramificación para la generación de árboles aleatorios.

Agregación de procesos de tráfico en telecomunicaciones .


Finalmente, para la generación de estructuras aleatorias complejas definidas, por ejem-
plo, mediantes modelos de ecuaciones diferenciales y modelos del Análisis Multivariante,
los métodos Monte Carlo proporcionan algoritmos computacionales basados en el muestreo
aleatorio repetido que permiten evaluar o aproximar los estados de tales sistemas. Dentro
de este contexto, los métodos de muestreo basados en Cadenas de Markov proporcionan
una potente herramienta para generar complicadas distribuciones que son simuladas, al
menos en el lı́mite, cuando la cadena de Markov crece.

3. Temario del curso


En este curso el temario planteado sigue las directrices señaladas en la sección anterior.
Es decir, se comienza con una breve introducción sobre los métodos clásicos de generación
de variables aleatorias a partir de secuencias de números pseudo-aleatorios uniformes. Se
continua entonces con la aplicación de estos métodos a la generación de procesos aleatorios
básicos. Finalmente, se introducirán los métodos de simulación Monte Carlo y MCMC,
ası́ como su aplicación a la generación de procesos, implementación de algoritmos de
optimización y resolución de problemas en la inferencia estadı́stica. Estos contenidos se
distribuyen en los siguientes temas:

3
Métodos de generación de variables aleatorias discretas y continuas.

Generación de recorridos aleatorios, movimiento Browniano y proceso de Poisson.

Generación de procesos markovianos, procesos de recuento y procesos relacionados.

Principios de la simulación Monte Carlo. Simulación Monte Carlo de procesos es-


tocásticos. Procesos en finanzas.

Métodos Monte Carlo para la inferencia estadı́stica.

Métodos MCMC y algoritmos de optimización para la inferencia.

También podría gustarte