Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DE TUXTLA GUTIÉRREZ
Apuntes
De
Simulación
Ingeniería en Sistemas computacionales
NÚMEROS PSEUDOALEATORIOS 21
LENGUAJES DE SIMULACIÓN 75
1
4.4.1 PRUEBAS PARAMÉTRICAS (V. DEL MODELO, PRUEBAS DE HIPÓT Y PRUEBAS DE ESTIMACIÓN). 78
4.4.2 PRUEBAS NO PARAMÉTRICAS 78
PROYECTO INTEGRADOR 83
CUESTIONARIO 1 85
FUENTE DE INFORMACIÓN 88
BIBLIOGRAFÍA 88
2
Unidad 1
Introducción a la Simulación
Objetivo de la simulación
3
Introducción a la Simulación
La simulación consiste básicamente en construir modelos informáticos que describen la parte
esencial del comportamiento de un sistema de interés, así como en diseñar y realizar
experimentos con el modelo y extraer conclusiones de sus resultados para apoyar la toma de
decisiones.
En la vida real se presentan situaciones o sucesos que requieren tomar decisiones para planificar,
predecir, invertir, proyectar, etc. Una vez construido un modelo matemático, si este es lo
suficientemente sencillo, puede ser posible trabajar con sus relaciones y cantidades para obtener
una solución analítica exacta.
La Simulación permite estudiar un sistema sin tener que realizar experimentación sobre el
sistema real. Simulación es una palabra familiar a los profesionales de todas las disciplinas e
incluso para aquéllos que no han estudiado una carrera profesional. De esta manera el
4
significado de la palabra Simulación se explica casi por sí misma. Entre los significados que
podemos obtener de la gente común y corriente para la palabra “Simular”, se encuentran los
siguientes: “Imitar la realidad”, “emular un sistema”, “dar la apariencia o efecto de un sistema
o situación real.
Para Thomas H. Naylor: Simulación es una técnica numérica para conducir experimentos en
una computadora digital, estos experimentos comprenden ciertos tipos de relaciones
matemáticas y lógicas, las cuales son necesarias para describir el comportamiento y la estructura
de sistemas complejos del mundo real a través de largos periodos de tiempo.
5
3. Puede utilizarse como instrumento pedagógico para desarrollar en los estudiantes
habilidades básicas en análisis estadístico, teórico, etc. En ocasiones se puede tener una
buena representación del sistema y a través de él es posible entrenar y dar cierto tipo de
experiencia. (simuladores de negocios, de vuelo, etc.).
4. Ayuda a entender mejor los sistemas complejos, a detectar las variables más importantes
que interactúan en el sistema y a entender las interrelaciones entre las variables.
5. Se puede utilizar para experimentar con nuevas situaciones, sobre las cuales se tiene poca o
nula información.
6. Cuando se introducen nuevos elementos al sistema, la simulación se puede usar para
anticipar los cuellos de botella o algún otro problema que pueda surgir en el sistema
“El comportamiento de un sistema durante determinado tiempo puede ser estudiado por medio
de un modelo de simulación. Este modelo usualmente toma su forma a partir de un conjunto de
postulados sobre la operación del sistema real”.
“Una indicación de la realidad que se implique la realidad, esta implica trampa, engaño; la magia
está en que se parezca tanto a la realidad”. “En la naturaleza la simulación es como una técnica
de engaño para sobrevivir”. Ejemplo el camaleón el cual es un animal conocido po r su capacidad
de cambiar de color dependiendo en el lugar en que se encuentre.
6
1.3 Metodología de la simulación
7
1. Definición del sistema(Problema)
Para tener una definición exacta del sistema que se desea simular, es necesario hacer
primeramente un análisis preliminar de este, con el fin de determinar la interacción con otros
sistemas, las restricciones del sistema, las variables que interactúan dentro del sistema y sus
interrelaciones, las medidas de efectividad que se van a utilizar para definir y estudiar el sistema
y los resultados que se espera obtener del estudio.
8
2. Formulación del modelo
Una vez definidos con exactitud los resultados que se esperan obtener del estudio, se define y
construye el modelo con el cual se obtendrán los resultados deseados. En la formulación del
modelo es necesario definir todas las variables que forman parte de él, sus relaciones lógicas y
los diagramas de flujo que describan en forma completa el modelo.
3. Colección de datos
Es importante que se definan con claridad y exactitud los datos que el modelo va a requerir para
producir los resultados deseados.
Con el modelo definido, el siguiente paso es decidir si se utiliza algún lenguaje como el fortran,
lisp, etc..., o se utiliza algún paquete como Vensim, Stella e iThink, GPSS, Simula, Simscript,
Rockwell, Arena, Promodel, etc..., para procesarlo en la computadora y obtener los resultados
deseados.
5. Validación
A través de esta etapa es posible detallar deficiencias en la formulación del modelo o en los
datos alimentados al modelo. Las formas más comunes de validar un modelo son:
9
6. Experimentación
Se realiza después de que el modelo haya sido validado, consiste en generar los datos deseados
y en realizar un análisis de sensibilidad de los índices requeridos.
7. Interpretación
Se interpretan los resultados que arroja la simulación y con base a esto se toma una decisión. Es
obvio que los resultados que se obtienen de un estudio de simulación que ayuda a soportar
decisiones de tipo semi-estructurada.
8. Documentación
Dos tipos de documentación son requeridos para hacer un mejor uso del modelo de simulación.
La primera se refiere a la documentación del tipo técnico y la segunda se refiere al manual del
usuario, con el cual se facilita la interacción y el uso del modelo desarrollado.
Como definición de sistema se puede decir que “Es un conjunto de elementos con relaciones de
interacción e interdependencia que le confieren entidad propia al formar un todo unificado”.
Un sistema puede ser cualquier objeto, cualquier cantidad de materia, cualquier región del
espacio, etc., seleccionado para estudiarlo y aislarlo (mentalmente) de todo lo demás. Así todo
lo que lo rodea es entonces el entorno o el medio donde se encuentra el sistema. EL enfoque de
sistemas intenta estudiar el comportamiento de sistemas completos en vez de concentrarse en
sus partes. Se deriva de reconocer que aun optimizando cada elemento del sistema desde el
10
punto operativo, el comportamiento del sistema completo puede resultar menos que óptimo
debido a las interacciones de los elementos.
Los sistemas complejos tienen características que pueden producir frustraciones al tratar de
mejorar su comportamiento, entre las cuales tenemos:
1. Cambio. Ningún sistema del mundo real permanece estático durante un largo periodo.
La condición o estado real de un sistema es el resultado del pasado y es la base para el
futuro.
2. Medio. El medio de un sistema es un conjunto de elementos y sus principales
propiedades, el cual aun cuando no forma parte del sistema, si se modifica puede
producir cambios en el estado del sistema (son todas las variables externas que pueden
afectar). Cada sistema tiene su propio medio.
3. Comportamiento intuitivo opuesto. Por lo general la causa y el efecto no se relacionan
estrechamente en el tiempo o el espacio, los efectos pueden aparecer después de mucho
tiempo de que se dieran las causas. El examen superficial a menudo indica la necesidad
de acciones correctivas erróneas, que pueden intensificar los problemas.
4. Tendencia al bajo rendimiento. Con el paso del tiempo las partes del sistema se
deterioran y surgen ineficiencias que van en perjuicio de su desempeño.
5. Interdependencia. Las actividades del mundo real influyen entre sí. Ninguna de las
actividades dentro de un sistema complejo está aislada completamente, cada evento es
influido por sus predecesores y afecta a sus sucesores.
Modelos.
11
El modelo es una "imitación" del sistema original. Como para poder imitar algo o a alguien es
necesario conocerlo bien, será necesario reunir la información precisa respecto del sistema
original. En el modelo participan las variables y sus relaciones.
Según el punto de vista que se tome (naturaleza del sistema o uso del modelo) surgen diferentes
clasificaciones:
4. Estático: Representa las relaciones del sistema cuando está quieto o en equilibrio.
Ejemplo: Maquetas. Plano. El cambio de lugar de la pared del plano de la casa refleja un
nuevo estado.
El modelo no muestra las etapas intermedias ni cómo se desarrollan, sólo el principio y el final.
12
4. Continuo: el comportamiento cambia continuamente en el tiempo, no es una cuestión
de magnitud del cambio sino de analizar si el mismo se produce en un instante de tiempo
o a lo largo de todo el tiempo de estudio. Ejemplo: la caída del agua de un tanque, el
movimiento de un vehículo, etc.
Control
El control se ha definido bajo dos perspectivas; una limitada y una amplia. Para la perspectiva
limitada, el control se concibe como la verificación a posteriori de los resultados conseguidos
en el seguimiento de objetivos planeados. La perspectiva amplia lo concibe como una actividad
que orienta a la organización hacia el cumplimiento de los objetivos propuestos bajo
mecanismos de medición cualitativos y cuantitativos.
El control es una etapa primordial pues aun cuando se tenga una estructura y operación eficiente,
como se verifica que los hechos están de acuerdo a los objetivos
1. Relación con lo planteado: Siempre existe para verificar el logro de los objetivos que
se establecen en la planeación.
2. Medición: Para controlar es imprescindible medir y cuantificar los resultados.
3. Detectar desviaciones: Una de las funciones inherentes al control, es descubrir las
diferencias que se presentan entre la ejecución y la planeación.
4. Establecer medidas correctivas: El objeto del control es prever y corregir los errores.
13
Requisitos de un buen control
Previsión de fallas o errores futuros: el control, al detectar e indicar errores actuales, debe
prevenir errores futuros, ya sean de planeación, organización o dirección.
Si suponemos que la simulación se usa para investigar las propiedades de un sistema real, se
requieren de ciertas etapas las cuales difieren según ciertos autores.
Raúl Coss Bu , con la opinión de varios autores, plantea que los pasos necesarios para llevar a
cabo un experimento de simulación son:
14
4. Implementación del modelo en la computadora. Decidir que lenguaje se utilizará o
algún paquete, para procesarlo en la computadora y obtener los resultados deseados.
5. Validación. En esta etapa es posible detectar deficiencias en la formulación del modelo
o en los datos alimentados a él. Las formas más comunes de validar son: la opinión de
expertos sobre los resultados de la simulación, la exactitud de predecir datos históricos,
exactitud de predicciones futuras, la comprobación de falla del modelo al usar datos que
hacen fallar al sistema real y la aceptación y confianza en el modelo de la persona que
usará los resultados que arroje el experimento.
6. Experimentación. Consiste en generar los datos deseados y realizar análisis de
sensibilidad de los índices requeridos.
7. Interpretación. Se interpretan los datos que arrojó la experimentación y en base a estos
se toma una decisión.
8. Documentación. Se requieren dos tipos de documentación: para hacer uso del modelo
(tipo técnico) y para la interacción y uso del modelo (manual del usuario).
15
3. Asociación por analogía. En esta técnica se hace uso de la reproducción en una primera fase.
Consiste en establecer nuevos nexos entre datos e incógnitas siguiendo formatos y textos
guardados en la memoria para obtener otras por medio de la innovación. Es evidente que sobre
las ideas iniciales, posteriormente se introducen modificaciones, que consisten en relacionar los
datos de otra forma, introducir nuevas condiciones o cambiar la forma de redactar las preguntas,
para obtener al final un problema derivado, que si bien no se caracteriza por su originalidad, sí
constituye una nueva tarea.
4.-Integración por inclusión. Es una técnica muy sencilla, cuyo procedimiento es asequible a
cualesquier sujeto. Consiste en elaborarla de forma tal que las incógnitas de los diferentes
incisos mantengan una dependencia sucesiva en forma de cadena, como el ejemplo de la página
37, donde fueron caracterizados los sistemas semi-abiertos, para luego eliminar los iniciales y
solo dejar la incógnita final.
Además, en su conjunto, los fundamentos teóricos estudiados sobre los distintos tipos de tareas
integradoras y las técnicas necesitan para su implementación del siguiente conjunto de
requisitos:
16
1.-Partir del análisis de los objetivos de los programas, siguiendo un enfoque sistémico
en su derivación gradual, desde los más generales de la enseñanza hasta la clase.
2.-Proporcionar en las tareas relaciones ricas entre los nuevos conocimientos y los
esquemas existentes, donde estén presentes todos los niveles de integración de los
conocimientos y las habilidades, hasta llegar al nivel interdisciplinario.
5.-Redactar las tareas de forma tal que expresen siempre más de una función. Además
de la función cognoscitiva, incorporar situaciones nuevas, con diferentes niveles de
complejidad, tanto de la vida diaria, la orientación profesional o el cuidado del medio
ambiente, como de la actualidad político- ideológico del país.
6.-Establecer un adecuado equilibrio entre los problemas que serán formulado, dejando
un espacio a los problemas experimentales y cualitativos, que son insuficientes en los
textos de la enseñanza media.
Es el valor del tiempo que el simulador puede avanzar a una velocidad superior a la habitual de
un reloj común, evolucionando así el estado de un sistema de forma acelerada.
17
Evento
Un evento es un suceso que hace cambiar las variables de estado del sistema. Durante el
procesamiento de un evento el tiempo de simulación permanece fijo. Un evento pertenece a una
entidad, o actor en el sistema, y normalmente solo cambiara atributos de esta, dejando invariante
el resto del sistema.
Proceso
Es toda secuencia de eventos ordenada temporalmente (sucesión de estados de una entidad sobre
uno o más intervalos sucesivos).
Entidad
Actividad
Secuencia de eventos pertenecientes a una entidad que cierran un ciclo funcional. A diferencia
de un evento, que se ejecuta a tiempo de simulación constante, una actividad se desarrolla dentro
de un intervalo de tiempo de simulación no puntual.
Se da cuando el avance del tiempo de simulación es mayor de un segundo por cada segundo de
tiempo real.
18
Simulación en tiempo real
Se da cuando el avance del tiempo de simulación exactamente de un segundo por cada segundo
de tiempo real.
Atributos.
Propiedades que poseen las entidades, también son llamados variables. Existen varios tipos de
atributos.
Variables
Reloj de simulación
19
Unidad 2
Números Pseudoaleatorios
Objetivo.
20
Números Pseudoaleatorios
Mientras a comienzos del siglo XX los inventores e ingenieros ya diseñaban y perfeccionaban
diversas máquinas tragamonedas o aparatos de juegos automáticos que de forma mecánica
pretendían imitar el azar y que en cierto modo ya funcionaban de manera Pseudoaleatorio.
También se observa que en el área de las matemáticas, la estadística y en los nacientes campos
de la computación y la Informática existía una preocupación creciente por establecer fórmulas
o algoritmos que permitieran generar números aleatorios a base del mero cálculo matemático o
de la ejecución de instrucciones programadas, es decir, sin necesidad de tener que usar los
tradicionales métodos físicos tales como tirar monedas al aire, lanzar dados, sacar pelotas
numeradas de una urna, sacar cartas de un mazo, hacer girar una ruleta, impulsar las ruedas de
una máquina tragamonedas, etc.
21
Por su parte, los números Pseudoaleatorios son aquellas que tienen un comportamiento similar
a la naturaleza aleatoria, pero están ceñidos a un patrón, generalmente de naturaleza matemática,
que hace que su comportamiento sea determinístico.
Definición: Un número aleatorio es un resultado de una variable al azar especificada por una
función de distribución. Cuando no se especifica ninguna distribución, se presupone que se
utiliza la distribución uniforme continua en el intervalo [0,1).
Casi todos los métodos de simulación se basan en la posibilidad de crear números aleatorios con
distribución U (0,1). Hasta la aparición de las computadoras, los números aleatorios se obtenías
de procedimientos experimentales como lotería o ruleta y se almacenaban en tablas.
Los números generados por computadora se llaman números Pseudoaleatorios, dado que son
predecibles a partir del primer número denominado semilla
Para poder utilizar un generador automático de números Pseudoaleatorios, éste debe cumplir
con ciertas propiedades:
22
2.1.1.-Métodos Manuales para generar números Pseudoaleatorios
Métodos Manuales: son los métodos más simples y lentos, ejemplo de estos métodos son
lanzamientos de monedas, dados, cartas y ruletas. Los números producidos por estos métodos
cumplen las condiciones estadísticas mencionadas anteriormente, pero es imposible reproducir
una secuencia generadas por estos métodos.
Tablas de números aleatorios: estos números se pueden generar por medio de una hoja de
cálculo o por cualquier generador de cualquier lenguaje de programación razón por la cual su
comportamiento es totalmente determinístico.
Mediante el computador digital: existen tres métodos para producir números aleatorios
mediante un computador:
Provisión externa.
Generación interna a través de un proceso físico aleatorio.
Generación por medio de una regla de recurrencia.
23
2.1.2-Métodos aritméticos para generar números Pseudoaleatorios
Método de Producto medio: este método es un poco similar al anterior pero se debe comenzar
con dos semillas cada una con k dígitos, el número resultante se toma como las cifras centrales
del producto de los dos números anteriores. Por ejemplo, tomando como semillas a
13 1 5 el método sería el siguiente: + ∗
1
15∗19
13∗15 0195
0285
19,
28,
19 / 99 0.1919
28 / 99 0.2828
19∗28 0532 53, 53 / 99 0.5354
28∗53 1484 53, 48 / 99 0.4848
24
Método del producto medio modificado: consiste en usar una constante multiplicativa en lugar
de una variable. Es decir + ∗. Debe notarse que los métodos anteriores tienen
periodos relativamente cortos, los cuales son afectados grandemente por los valores iniciales
que se escojan, además son estadísticamente insatisfactorios. También debe tenerse en cuenta
que un generador con un periodo corto no sirve para hacer un número considerado de ensayos
de simulación.
2.1.3.-Métodos congruenciales.
Método Congruencial Mixto o Lineal: los generadores congruenciales lineales generan una
secuencia de números Pseudoaleatorios en la cual el próximo número Pseudoaleatorio es
determinado a partir del último número generado, es decir, el número Pseudoaleatorio + es
25
congruencial mixto es
derivado a partir del número Pseudoaleatorio
+ ∗ La relación de recurrencia para el generador
, en donde:
,, >0
Ejemplo: supongamos que se tiene un generador en el cual los valores de sus parámetros son:
7,5,
84
.
De acuerdo con Hull y Dobell, los mejores resultados para un generador congruencial mixto en
una computadora binaria son:
8∗±3
2 .
Donde
+ 9 13 32 8
2.2 Pruebas estadísticas
Cuando se analizan datos medidos por una variable cuantitativa continua, las pruebas
estadísticas de estimación y contraste frecuentemente empleadas se basan en suponer que se ha
obtenido una muestra aleatoria de una distribución de probabilidad de tipo normal o de Gauss.
Pruebas no paramétricas:
Las pruebas estadísticas no paramétricas son las que, a pesar de basarse en determinadas
suposiciones, no parten de la base de que los datos analizados adoptan una distribución
normal.
Técnica estadística que no presupone ninguna distribución de probabilidad teórica de la
distribución de nuestros datos.
Se denominan pruebas no paramétricas aquellas que no presuponen una distribución de
probabilidad para los datos, por ello se conocen también como de distribución libre
(distribución free).
En la mayor parte de ellas los resultados estadísticos se derivan únicamente a partir de
procedimientos de ordenación y recuento, por lo que su base lógica es de fácil
comprensión.
Cuando trabajamos con muestras pequeñas (n < 10) en las que se desconoce si es válido suponer
la normalidad de los datos, conviene utilizar pruebas no paramétricas, al menos para corroborar
los resultados obtenidos a partir de la utilización de la teoría basada en la normal.
En estos casos se emplea como parámetro de centralización la mediana, que es aquel punto para
el que el valor de está el 50% de las veces por debajo y el 50% por encima.
27
Las pruebas no paramétricas no requieren asumir normalidad de la población y en su mayoría
se basan en el ordenamiento de los datos, la población tiene que ser continua. El parámetro que
se usa para hacer las pruebas estadísticas es la Mediana y no la Media. Son técnicas estadísticas
que no presuponen ningún modelo probabilístico teórico.
Son menos potentes que las técnicas paramétricas, aunque tienen la ventaja que se pueden
aplicar más fácilmente.
Pruebas paramétricas:
Las pruebas estadísticas paramétricas, como la de la “” de Student o el análisis de la varianza
(ANOVA), se basan en que se supone una forma determinada de la distribución de valores,
generalmente la distribución normal, en la población de la que se obtiene la muestra
experimento.
La técnica del Análisis de la Varianza, introducida en los años cincuenta por Sir Ronald Fisher,
es utilizada, fundamentalmente, en el análisis de datos procedentes de experimentos, los cuales,
por otra parte, son diseñados teniendo en cuenta el futuro análisis de la varianza que se hará de
sus resultados. El investigador, antes de realizar su experimento, identifica aquellas fuentes de
variación que considera importantes y elige un diseño que le permita medir la importancia de la
contribución de cada una de estas fuentes a la variación total.
Ejemplo
Los miembros de un equipo ciclista se dividen al azar en tres grupos que entrenan con métodos
diferentes. El primer grupo realiza largos recorridos a ritmo pausado, el segundo grupo realiza
series cortas de alta intensidad y el tercero trabaja en el gimnasio con pesas y se ejercita en el
pedaleo de alta frecuencia. Después de un mes de entrenamiento se realiza un test de rendimiento
consistente en un recorrido cronometrado de 9 Km. Los tiempos empleados fueron los
siguientes:
28
Método I Método II Método III
15 14 13
16 13 12
14 15 11
15 16 14
17 14 11
A un nivel de confianza del 95% ¿Puede considerarse que los tres métodos producen resultados
equivalentes? O por el contrario ¿Hay algún método superior a los demás?
Solución:
Comenzamos calculando los totales y los cuadrados de los totales divididos por el número de
observaciones:
29
13.1.443 9.37
El valor de la F teórica con 2 y 12 grados de libertad, a un nivel de confianza del 95% es 3,89.
Por consiguiente se rechaza la hipótesis nula y se concluye que los tres métodos de
entrenamientos producen diferencias significativas.
RESUMEN EN EXCEL
Análisis de varianza de un factor
Grupos Cuenta Suma Promedio Varianza
Columna 1 5 77 15.4 1.3
Columna 2 5 72 14.4 1.3
Columna 3 5 61 12.2 1.7
ANÁLISIS DE VARIANZA
Origen de las Suma de Grados de Promedio de los F Probabili Valor crítico
variaciones cuadrados libertad cuadrados dad para F
Entre grupos 26.8 2 13.4 9.348 0.00356 3.885293835
Dentro de los grupos 17.2 12 1.4333
Total 44 14
Distribución t de Student
Las distribuciones t de Student fueron descubiertas por William S. Gosset (1876-1937) en 1908
cuando trabajaba para la compañía de cervezas Guinness en Dublín (Irlanda). No pudo publicar
sus descubrimientos usando su propio nombre porque Guinness había prohibido a sus
empleados que publicaran información confidencial.
Es una distribución de probabilidad que surge del problema de estimar la media de una
población normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base
de la popular prueba t de Student para la determinación de las diferencias entre dos medias
muéstrales y para la construcción del intervalo de confianza para la diferencia entre las medias
de dos poblaciones.
30
En la generalidad de los casos, no disponemos de la desviación standard de la población, sino
de una estimación calculada a partir de una muestra extraída de la misma y por lo tanto no
podemos calcular Z.
∑
1
̅
√
Ejemplo 1.
La compañía USA produce focos. El presidente de la Cía. dice que sus focos duran 300 días.
Entonces la competencia va a varios supermercados y compra 15 focos para probar esa
afirmación. Los focos de la muestra duran en promedio 290 días con una desviación estándar
de 50 días. Entonces, si quieren desmentir al presidente de USA necesita saber cuál es la
probabilidad de que 15 focos seleccionados al azar tengan una vida promedio o no mayor de
290 días.
Donde es la media de la muestra, la media de la población, es la desviación estándar de la
muestra y el tamaño de la muestra.
31
El resultado nos da: 0.2340. Esto significa que si la verdadera vida de un foco es de 300 días,
hay una probabilidad de 23.4% de que la vida promedio de 15 focos seleccionados al azar sea
menor o igual a 290 días y nosotros ha sabríamos a qué atenernos si queremos poner en ridículo
al Presidente.
Ejemplo 2.
Supongamos que las calificaciones de una prueba están distribuidas normalmente con una media
de 100. Ahora supongamos que seleccionamos 20 estudiantes y les hacemos un examen. La
desviación estándar de la muestra es de 15.
110100
15√ 20 2.9814
32
Usando estos valores nos da un resultado de probabilidad acumulada de 0.00496. Esto implica
que hay una probabilidad de 0.42% de que el promedio en una muestra sea mayor de 110.
Ejemplo
Las puntuaciones en un test que mide la variable creatividad siguen, en la población general de
adolescentes, una distribución Normal de media 11,5. En un centro escolar que ha implantado
un programa de estimulación de la creatividad una muestra de 30 alumnos ha proporcionado las
siguientes puntuaciones.
11 9 12 17 8 11 9 4 5 9 14 9 17 24 19
10 17 17 8 23 8 6 14 16 6 7 15 20 14 15
1.-A un nivel de confianza del 95% ¿Puede afirmarse que el programa es efectivo?
∶ 11.5
2.-Se calcula media y la desviación estándar
1: > 11.5
√ ̅ 1 12.4711. 5
5.√ 239 1.00
3.-Como el contraste es unilateral, buscamos en las tablas de la t de Student, con 29 grados de
libertad, el valor que deja por debajo de sí una probabilidad de 0.95, que resulta ser 1.699.
4.-El valor del estadístico es menor que el valor crítico, por consiguiente se acepta la hipótesis
nula
5.-La interpretación sería que no hay evidencia de que el programa sea efectivo
La prueba de independencia Chi-cuadrado, nos permite determinar si existe una relación entre
dos variables categóricas. Es necesario resaltar que esta prueba nos indica si existe o no una
33
relación entre las variables, pero no indica el grado o el tipo de relación; es decir, no indica el
porcentaje de influencia de una variable sobre la otra o la variable que causa la influencia.
. .
Lo que queremos es comparar las frecuencias observadas con las frecuencias esperadas
,,...,
(teóricas), a las que denotaremos por . Se cumplirá:
Se tratará ahora de decidir si las frecuencias observadas están o no en concordancia con las
frecuencias esperadas (es decir, si el número de resultados observados en cada clase corresponde
aproximadamente al número esperado). Para comprobarlo, haremos uso de un contraste de
hipótesis usando la distribución Chi-cuadrado:
34
( )
=
En cierta máquina Expendedora de Refrescos existen 4 canales que expiden el mismo tipo de
bebida. Estamos interesados en averiguar si la elección de cualquiera de estos canales se hace
de forma aleatoria o por el contrario existe algún tipo de preferencia en la selección de alguno
de ellos por los consumidores. La siguiente tabla muestra el número de bebidas vendidas en
cada uno de los 4 canales durante una semana. Contrastar la hipótesis de que los canales son
seleccionados al azar a un nivel de significación del 5%.
∗ 70∗ ¼ 17.5 1, . . ,
13 17. 5 2217. 5 1817. 5 1717. 5
= 17.5 17.5 17.5 17.5 2.34.28
Este valor debemos compararlo con el valor crítico de la distribución χ 2 con (4-1)=3 grados de
. 3 7.81 2
libertad. Este valor se busca en tabla y es:
35
Metodología
1. Formular la hipótesis nula, Ho. Teniendo en cuenta que los números que se van a generar
provienen de una distribución uniforme.
4. Se debe calcular la función de distribución acumulada para después hallar las frecuencias
respectivas.
5. Antes de poder hallar el estadístico de prueba se debe hallar la frecuencia observada y
la frecuencia relativa de cada uno de los intervalos establecidos de acuerdo al rango.
36
Variable y formulas de la prueba de Kolmogorov
37
Siguiendo con el paso 4
(√ /)
Ejemplo. Determinar si la muestra de 30 datos aleatorios presenta un comportamiento
uniformemente distribuidos; se utiliza el estadístico ∝/, el cual se determina por medio de la
tabla de distribución normal estándar. . =1.96
1
Corridas arriba y debajo de la media y longitud de corridas
38
Tabla de números aleatorios
0.
.
.
.
.
.
0.
0.
.
.
.
.
.
.
.
.
.
.
0.
0.
.
.
.
.
.
.
.
.
.
.
√
Sustituyendo valores y comprando ambos valores de Z de tabla y el calculado, si el valor de
es menor que valor de Z de tabla, no se puede rechazar
0.507 1 √ 3 0
1 0.0.02383886 0.13267
2
Y como ≤ 12
entonces no se puede rechazar de la muestra de los números aleatorios estén
normalmente distribuidos entre (0,1)
Esta prueba consiste en dividir el intervalo (0,1) en n sub-intervalos para luego comparar para
cada sub-intervalo la frecuencia esperada con la frecuencia observada. Si estas frecuencias son
bastante parecidas entonces la muestra proviene de una distribución uniforme.
39
∑=
= frecuencia observada del i-esimo sub-intervalo
/
1220 1820 2620 2220 2220
520 1.12
40
Buscando en tabla ., 9. 4 9> entonces no se puede rechazar la hipótesis de que los
números Pseudoaleatorios provienen de una distribución uniforme.
Prueba de Series
Esta prueba se utiliza para comprobar el grado de aleatoriedad entre números sucesivos. La
prueba consiste en formar parejas de números, las cuales son consideradas como coordenadas
en un cuadrado unitario dividido en celdas. En la prueba de series se generan N números
Pseudoaleatorios de los cuales se forman parejas entre + , es decir si se generan 5
números, las parejas que se forman serian: 1 ,2, 2 , 3, 3 ,4, 4 ,5.
En seguida se determina la celda a la que pertenece cada pareja ordenada, con lo cual se
determina la frecuencia observada de cada celda.
Paso 1. Crear un histograma de dos dimensiones con m intervalos, clasificando cada pareja de
números consecutivos ,+ dentro de las casillas de dicho histograma de frecuencias. El
número total de pares ordenados en cada casilla formará la frecuencia observada:
Paso 2 Calcular la frecuencia esperada en cada casilla FE de acuerdo con
núm. es el número total de parejas ordenadas.
ú/ donde
41
Ejemplo: Realice la prueba de series a los siguientes 30 números con un nivel de confianza del
95%.
0.72484 0.48999 0.50502 0.39528 0.36782 0.90234
0.71890 0.61234 0.86322 0.94134 0.99872 0.27657
0.34565 0.02345 0.67347 0.10987 0.25678 0.25593
0.82345 0.12387 0.05389 0.82474 0.59289 0.36782
0.03991 0.10461 0.93716 0.16894 0.98953 0.73231
1.00 3 2 1 2
0.75 1 1 1 3
0.50 1 3 3 1
0.25 2 2 1 2
0 0.25 0.50 0.75 1.00
Se suman de acuerdo al tipo por ejemplo hay 7 unos (1)
La prueba de las corridas sirve para probar la aleatoriedad de los números generados. Esta
prueba se basa en el número de corridas o secuencias ascendentes y descendentes. Una corrida
es una secuencia ascendente o descendente de números Pseudoaleatorios adyacentes.
42
Las hipótesis son:
En este método se coloca el signo “+” o “–” en cada par de números adyacentes. Se puede
demostrar que:
N = tamaño de la muestra
Procedimiento
Si
es menor o igual a 0.50 entonces asignarle a el símbolo 0.
FEi Ni3
2+
12
EJEMPLO 1. Dada la siguiente muestra de tamaño 30 de números aleatorios, aplicar la prueba
de corridas, para la independencia.
43
Comparando los números aleatorios según el criterio establecido, se obtiene la siguiente
sucesión binaria. Leyendo de izquierda a derecha se agrupan los símbolos del mismo tipo para
formar la longitud de corridas.
Longitud de la Frecuencia
corrida
1 observada
FO FE Resultado
2
3
9
3
8
3.875
0.125
0.197
4
5
2
1
1
1.875
0.906
0.438
0.008
0.010
0.721
Como para las longitudes de corrida = 1,2, 3, 4, 5; las frecuencias observadas son menores o
igual a cinco, agrupamos estas longitudes de corridas en una sola longitud de corrida.
Longitud de la Frecuencia
corrida observada
li FO FE Resultado
1 9 8 0.125
>2
El valor en tablas de ;% 3.84
7 7.4 0.936
; entonces no se puede rechazar la independencia de los
números aleatorios.
44
Corridas ascendentes y descendentes
Procedimiento
Si +
es menor o igual a
entonces asignarle a el símbolo 0.
Si +
es mayor que
entonces asignarle al el símbolo 1.
0 0 1 1 0 1
0 0 0 1 1 0
0 0 1 0 1 1
0 1 0 1 1 0
1 1 0 1 0
Obsérvese que la última celda se deja en blanco, pues no hay con qué número comparar. (Aquí
N = 29)
45
Tabla de cálculos
L ongitud de corr ida i F E F O (FE-FO)2/FE
1 11.500 11 0.020
2 5.083 5 0.001
3 1.400 2 0.257
4 0.292 -
5 0.005 -
Tabla simplificada
i F E F O (FE-FO)2/FE
1 11.500 11 0.020
>=2 6.483 7 0.004
2
X = 0.024
Las pruebas de independencia consisten en demostrar que los números generados son
estadísticamente independientes entre sí, esto es, que no depende uno de otro. Para esto se
propone la siguiente hipótesis:
Ho independiente
Hi Dependiente
Para realizar esta prueba de hipótesis existen varios métodos, puede seleccionarse cualquiera de
la siguiente lista:
Prueba de hueco
Consiste en suprimir de un texto una serie de palabras seleccionadas en virtud que representan
los aspectos que se requieren medir. La tarea del candidato es deducir, por el contexto, la palabra
eliminada y reescribirla para determinar la palabra dada es correcta o incorrecta.
2
Auto-correlación, prueba de huecos, prueba del póquer, prueba de Yule
46
Prueba de Yule
Es una medida de asociación creada por el estadístico escoces George Udny Yule, se utiliza en
cuadros estadísticos llamado contingencia.
Variables nominales
Restricciones:
Tener en cuenta que son números positivos, solo pueden tomar valores comprendidos
entre cero y uno.
Cuando se acercan a un cero, indican independencia o asociación muy débil entre las
variables.
Definición
Es el proceso de diseñar y desarrollar un modelo computarizado de un sistema o proceso y
conducir experimentos con este modelo con el propósito de entender el comportamiento del
sistema o evaluar varias estrategias con las cuales se puede operar el sistema.
47
2.3.1 Características.
Ventajas
Desventajas
1. Una buena simulación puede resultar muy complicada, gran número de variables.
2. La simulación no genera soluciones Óptimas globales.
3. No proporciona la decisión a tomar, sino que resuelve el problema mediante
aproximación para unas condiciones iniciales.
4. Cada simulación es única, interviene el azar.
2.3.2 Aplicaciones.
Criptografía
Cromo dinámica cuántica
Densidad y flujo de tráfico
Diseño de reactores nucleares
Ecología
Econometría
Evolución estelar
Física de materiales
Teoría de colas
Métodos cuantitativos de la organización industrial
48
Pronósticos
Sistema de inventarios
Portafolios de valores
Sistemas de ventas
Otra opción para trabajar con Monte Carlo, cuando la variable aleatoria no es
directamente el resultado de la simulación o tenemos relaciones entre variables es la
siguiente:
49
Las principales características a tener en cuenta para la implementación o utilización del
algoritmo son:
El sistema debe ser descripto por 1 o más funciones de distribución de probabilidad (fdp)
Generador de números aleatorios: como se generan los números aleatorios es importante para
evitar que se produzca correlación entre los valores muéstrales.
Ejemplo.
Tenemos la siguiente distribución de probabilidades para una demanda aleatoria y queremos ver
qué sucede con el promedio de la demanda en varias iteraciones.
Frecuencia
0.45
0.4
0.35
0.3
0.25
0.2 0.4
0.15
0.1 0.2 0.2
0.05 0.1 0.10
0
42 45 48 51 54
Tabla de datos
Consultas Frecuencias Frecuencia Frecuencia Intervalo
absolutas (días) acumulada
10 .10 .10 0.0- 0.10
20 .20 .30 0.10-0.30
48 .40 .70 0.30-0.70
51 .20 .90 0.70-0.90
54 .10 1.00 0.90-1.00
50
Frecuencia acumulada
1.00
0.9
0.7
0.3
0.1
42 45 48 51 54
Generando los valores aleatorios vamos a ver como se obtiene el valor de la demanda para cada
día, interesándonos en este caso como es el orden de
d e aparición de los valores. Se busca el número
aleatorio generado en la tabla de probabilidades acumuladas, una vez encontrado (si no es el
valor exacto, éste debe ser menor que el de la fila seleccionada pero mayor que el de la fila
anterior), de esa fila tomada como solución se toma el valor de las unidades (Cuando trabajamos
en Excel debemos tomar el límite inferior del intervalo para busca en las acumuladas, par a poder
emplear la función BUSCAR (), para 42 sería 0, para 43; 0.100001 y así sucesivamente).
Supongamos que el número aleatorio generado sea 0.52, ¿a qué valor de unidades corresponde?
Nos fijamos en la columna de frecuencias acumuladas, ese valor exacto no aparece, el siguiente
mayor es 0.70 y corresponde a 48 unidades.
Se puede apreciar mejor en el gráfico, trazando una recta desde el eje de la frecuencia hasta que
intersecta con la línea de la función acumulada, luego se baja a la coordenada de unidades y se
obtiene el valor correspondiente; en este caso 48.
Cuando trabajamos con variables discretas la función acumulada tiene un intervalo o salto para
cada variable (para casos prácticos hay que definir los intervalos y luego con una función de
búsqueda hallar el valor). Para funciones continuas se puede hallar la inversa de la función
acumulada.
51
Numero de simulación Numero aleatorio Valor de la demanda
1 0.92 54
2 0.71 51
3 0.85 51
4
5
6
n 0.46 48
Ejemplo 2.
Se muestra un análisis histórico de 200 días sobre el número de consultas diarias realizadas a un
sistema de información empresarial (EIS) residente en un servidor central. La tabla incluye el
número de consultas diarias (0 a 5) junto con las frecuencias absolutas (número de días que se
producen 0, 1,..., 5 consultas), las frecuencias relativas (10/200 = 0,05,...), y las frecuencias
relativas acumuladas.
Tabla de resultado
Frecuencias Frecuencia Frecuencia
Consultas Intervalo
absolutas (días) relativa acumulada
0 10 0.05 0.050 0.0- 0.05
1 20 0.10 0.150 0.05-0.15
2 40 0.20 0.350 0.15-0.35
3 60 0.30 0.650 0.35-0.65
4 40 0.20 0.850 0.65-0.85
5 30 0.15 1.000 0.85-1.00
200 1.00
52
Podemos interpretar la frecuencia relativa como la probabilidad de que ocurra el suceso
asociado, en este caso, la probabilidad de un determinado número de consultas (así, p.e., la
probabilidad de que se den 3 consultas en un día sería de 0,30), por lo que la tabla anterior nos
proporciona la distribución de probabilidad asociada a una variable aleatoria discreta (la variable
aleatoria es el número de consultas al EIS, que sólo puede tomar valores enteros entre 0 y 5).
Supongamos que queremos conocer el número esperado (o medio) de consultas por día. La
respuesta a esta pregunta es fácil si recurrimos a la teoría de la probabilidad.
Denotando por X a la variable aleatoria que representa el número diario de consultas al EIS,
sabemos que
= ∗. ∗. ∗. ∗. ∗. ∗. .
Cuando se conozca la distribución de probabilidad asociada a una variable aleatoria discreta,
será posible usar la columna de frecuencias relativas acumuladas para obtener los llamados
intervalos de números aleatorios asociados a cada suceso.
Coonsultas
0.35
0.30
0.25
e
j
e
l 0.20
e
d
o
l
u
0.15
t
í
T
0.10
0.05
0.00
0 1 2 3 4 5
Total de consultas
53
FRECUENCIA ACUMULADA
1.200
1.000
e
j 0.800
e
l
e
d 0.600
o
l
u
t
í
T 0.400
0.200
0.000
0 1 2 3 4 5 6
Numero de consultas
54
Unidad 3
Generación de variables aleatorias
Objetivo
Con base a los instrumentos que existen el alumno podrá generar variables aleatorias de tipo
continua y discreta
Conocer los valores de las variables aleatorias con diferentes distribuciones
Conocer el tipo de variable aleatoria que da como resultado el método de transformada inversa
con diferentes distribuciones.
55
Generación de variables aleatorias
La generación de cualquier variable aleatoria se va a basar en la generación previa de una
distribución uniforme (0,1). Y las transformaciones de dichos números generados en valores de
otras distribuciones.
:→
Una variable aleatoria o variable estocástica es una variable estadística cuyos valores se obtienen
de mediciones en experimento aleatorio.
Se llama variable aleatoria a toda función que asocia a cada elemento del espacio muestral E un
número real.
Se utilizan letras mayúsculas X, Y,... para designar variables aleatorias, y las respectivas
minúsculas (x, y,...) para designar valores concretos de las mismas.
56
3.3 Variables aleatorias continuas
Este tipo de variable se representa mediante una ecuación que se conoce como función de
probabilidad de densidad. Dada esta condición se cambia el uso de la sumatoria por la de una
integral para conocer la función acumulada de la variable aleatoria.
Sea X una variable aleatoria diremos que es continua cuando toma un número infinito no
numerable de valores, es el caso de los intervalos de R o todo R.
Una variable aleatoria continua es aquella que puede tomar todos los valores posibles dentro de
un cierto intervalo de la recta real.
Ejemplo: La altura de los alumnos de una clase, las horas de duración de una pila.
≥0∞ 00
,
∫
−∞
1
≤≤ << ∫
Entre las distribuciones de probabilidad se la uniforme continua, la exponencial, la normal, la
Weibull, la Chi-cuadrada y la Erlang.
57
Método de convolución: Permite generar una distribución a partir de la suma de distribuciones
más elementales o mediante la transformada Z.
Método de composición: Con este método la distribución de probabilidad f(x) se expresa como
una mezcla o composición de varias distribuciones de probabilidad fi(x) seleccionadas
adecuadamente.
−
58
,
Generar las variables aleatorias sustituyendo valores con números Pseudoaleatorios
~ 0,1 en la función acumulada inversa. ó − )
Datos: a= 95 C, b= 100 C.
59
Al generar los números aleatorios y sustituir en la ecuación se obtienen las siguientes mediciones
que se muestran en la tabla siguiente 3.4.1, además se muestra la gráfica de los rangos dentro
de los límites permitidos de temperatura.
Comportamiento de la medición
Variacion de la Temperatura
101
100 99.852
99.459 99.197
99
98.68
98 98.243
97.357 97.43897.552
97 96.859
96.298 96.41796.525 96.197
96
95.461 95.157
95
94
93
92
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Temperatura
Figura 3.4.1
9510095
Tabla 3.41
Datos del problema A=95 B=100
Medición No Aleatorio Temperatura
1 0.092153592 95.461
2 0.471401819 97.357
3 0.970380946 99.852
4 0.648670514 98.243
5 0.735904367 98.680
6 0.259601273 96.298
7 0.891811735 99.459
8 0.487690208 97.438
9 0.51033388 97.552
10 0.839493295 99.197
11 0.031388969 95.157
12 0.283466358 96.417
13 0.305078094 96.525
14 0.371888104 96.859
15 0.239365786 96.197
60
Ejemplo práctico. Aplicando la distribución exponencial
Los datos del tiempo de servicio en la caja de un banco se comportan de forma exponencial con
media de 3 minutos/cliente. Una lista de números Pseudoaleatorios
generadora exponencial 3 1 ~ 0,1 y la ecuación
nos permite simular el comportamiento de la
variable aleatoria
x
1-p
0
p
1
x
1-p
0
1
1
probabilidad de 0.20 de que la maquina falle (x=1), y una probabilidad de 0.80 de que siga
comportamiento
x
0.8
0.8
0
0.2
1.0
1
La regla para generar las variables aleatorias está dada por la siguiente función.
Día Ri Xj Suceso
1 0.67236364 0 En servicio
2 0.61566166 0 En servicio
3 0.9446116 1 fallo
4 0.45160881 0 En servicio
5 0.78865119 0 En servicio
6 0.58441702 0 En servicio
7 0.60997286 0 En servicio
8 0.8116595 1 fallo
9 0.24880213 0 En servicio
10 0.36531886 0 En servicio
Distribución Poisson
El número de piezas que entran a un sistema de producción sigue una distribución de Poisson
con media de 2 piezas por hora. Simular el comportamiento de la llegada de las piezas al
sistema
−
! , 0,1,2,3,,,,
62
Sustituyendo valores en la ecuación se tiene
2 −
! 0,1,2,3, ,
Evaluando la ecuación con respecto a se tiene:
0.20000
0.10000
0.00000
1 2 3 4 5 6 7 8 9 10 11 12
Grafica No.1
63
Grafica de datos acumulados
1.00000
0.80000
0.60000
0.40000
0.20000
0.00000
0 2 4 6 8 10 12 14
Grafica No.2
1
− 32}→∫ −
Integrando la transformada y aplicando algebra
−
∫ ∫ 1
Igualando a R la función de densidad y despejando a t.
El tiempo de proceso de una pieza sigue una distribución 3-erlang con media
8 /.
Realice una Simulación para ver el comportamiento.
Tiempo de proceso
Pieza 1-ri 1-ri 1-ri min/pza
1 0.7095 0.1182 0.7671 7.52
2 0.1839 0.4395 0.8532 7.20
3 0.1368 0.6144 0.6321 5.60
4 0.3338 0.0294 0.0666 1.35
5 0.3497 0.4844 0.7250 6.36
6 0.5914 0.0989 0.1370 3.06
7 0.1273 0.7429 0.5826 6.32
8 0.9980 0.4340 0.2236 18.71
9 0.6312 0.7757 0.1438 7.06
10 0.6307 0.5769 0.8005 9.25
65
3.4.3 Método de composición.
Figura 3.4.1
66
Figura 3.4.2
67
Ejemplo. Distribución Triangular
Se determina las distribuciones de probabilidad y la distribución acumuladas
Área 1
68
Área 2
2
1
2
≤≤
2 ≤≤
Sumando las dos funciones de distribución de probabilidad y multiplicando por sus áreas
respectivas se tiene.
2
2
Calculo de la función de densidad por integración de cada uno de los segmento
69
≤
1
>
Ejemplo. Generar una muestra de 7 variables con distribución triangular a partir de los
parámetros, valor mínimo 5, moda 10y valor máximo 20
Variable
1
0.18487676
0.32863419
7.15
2 0.79471215 0.11195084
3 0.10892633 0.77060772 6.65 15.21
4 0.81508469 0.23027449
5 0.03782456 0.26985786 5.97
6 0.24536204 0.94327697 7.48 11.31
7 0.81798245 0.90381079 15.73
La Distribución De Poisson
La Distribución Binomial
La Distribución Erlang
70
3.6 Pruebas estadística. (Pruebas de bondad de ajuste)
Cuando se realizan investigaciones, con frecuencias importantes obtener información a través
de una muestra. Algunos estudios producen resultados sobre los que no podemos afirmar que se
distribuyen.
En estos casos debemos emplear técnicas no paramétricas que se utilizan ampliamente en las
aplicaciones de las ciencias sociales, cuando se pueden asumir a priori que los datos de una
muestra se ajusten a una distribución normal. Ahora nos ocuparemos del problema de verificar
si de un conjunto de datos se pueden afirmar que proviene de un conjunto de datos
uniformemente distribuidos.
Ejemplo
Una moneda fue lanzada al aire 1000 en series de 5 veces cada serie y se observó el número de
caras de cada serie. El número de series en los que se presentaron 0, 1, 1, 3, 4 y 5 caras como se
muestra en la siguiente tabla.
0 38
1 144
2 342
3 287
4 164
5 25
Total 1000
Solución:
71
1−
Para obtener los valores esperados se tiene que utilizar la fórmula de la distribución binomial
de cara y sello en un solo lanzamiento de la moneda. Para calcular el valor de p, se sabe que
5.
en una distribución binomial, por lo que
∑ ∑ 2470
1000 2.47
Tomando la ecuación 5
y despejando se determina el valor de p y q
5 2.547 0.494
5.4941.494−
Al seguir esta fórmula se calcula la probabilidad de obtener caras, según el valor de la variable
aleatoria. La probabilidad multiplicada por 1000 nos dará el valor esperado. Se resumen los
resultados en la tabla siguiente. 1000
Número de caras (x) P(x caras) Frecuencia observada Frecuencia esperada
0 0.0332 38 33.2
5 0.0294 25 29.4
Para los grados de libertad el valor de 1, ya que se tuvo que estimar la media de la población
para poder obtener el valor de p y así poder calcular los valores esperados.
73
Unidad 4
Lenguajes de simulación
Objetivo.
Conocerá la diferencia entre los lenguajes de propósito general y de propósitos especiales para
aplicarse en simulación.
74
Lenguajes de simulación
4.1 Lenguaje de simulación y simuladores
En un principio, los programas de simulación se elaboraban utilizando algún lenguaje de
propósito general, como ASSEMBLER, FORTRAN, ALGOL o PL/I. A partir de la década de
1960 hacen su aparición los lenguajes específicos para simulación como GPSS, GASP,
SIMSCRIPT, SLAM. En la última década del siglo pasado la aparición de las interfaces gráficas
revolucionaron el campo de las aplicaciones en esta área, y ocasionaron el nacimiento de los
simuladores.
75
Proporcionan un marco de trabajo natural para el uso de modelos de simulación. Los
bloques básicos de construcción del lenguaje son mucho más afines a los propósitos de
la simulación que los de un lenguaje de tipo general.
Los modelos de simulación son mucho más fácilmente modificables.
Proporcionan muchos de ellos una asignación dinámica de memoria durante la
ejecución.
Facilitan una mejor detección de los errores.
Los paquetes de software especialmente diseñados para simulación contienen
aplicaciones diversas que facilitan al simulador las tareas de comunicaciones, la
depuración de errores sintácticos y de otro tipo de errores, la generación de escenarios,
la manipulación “on-line” de los modelos, etc.
Son muy conocidos y en uso actualmente
Aprendizaje lleva cierto tiempo
Simuladores de alto nivel
Muy fáciles de usar por su interface gráfica
Restringidos a las áreas de manufactura y comunicaciones
Flexibilidad restringida puede afectar la validez del modelo
Algoritmos
76
Determinar el valor de la V.A. para el número aleatorio generado de acuerdo a las clases
que tengamos.
Calcular media, desviación estándar error y realizar el histograma.
Analizar resultados para distintos tamaños de muestra
77
La aceptación y confianza en el modelo de la persona que hará uso de los resultados que
arroje el experimento de simulación.
4.4.1 Pruebas paramétricas (V. del modelo, pruebas de hipót y pruebas de estimación)3.
Las pruebas estadísticas paramétricas, como la de la “t” de Student o el análisis de la varianza
(ANOVA), se basan en que se supone una forma determinada de la distribución de valores,
generalmente la distribución normal, en la población de la que se obtiene la muestra
experimental.
3
Validación del modelo, pruebas de hipótesis y pruebas de estimación
78
1. Contraste de signos e intervalo de confianza
2. Contraste de signos de muestras pareadas o enlazadas
3. Aproximaci6n normal
4. Contraste de signos de una mediana poblacional
5. Intervalo de confianza de la mediana
6. Contraste de Wilcoxon basado en la ordenaci6n de las diferencias Minitab (contraste de
Wilcoxon)
7. Aproximaci6n normal
8. Contraste U de Mann-Whitney
9. Contraste de la suma de puestos de Wilcoxon
10. Correlaci6n de orden de Spearman
Cuando trabajamos con muestras pequeñas (n < 10) en las que se desconoce si es válido suponer
la normalidad de los datos, conviene utilizar pruebas no paramétricas, al menos para corroborar
los resultados obtenidos a partir de la utilización de la teoría basada en la normal.
En estos casos se emplea como parámetro de centralización la mediana, que es aquel punto para
el que el valor de X está el 50% de las veces por debajo y el 50% por encima.
El parámetro que se usa para hacer las pruebas estadísticas es la Mediana y no la Media.
79
Son menos potentes que las técnicas paramétricas, aunque tienen la ventaja que se pueden
aplicar más fácilmente.
La Tabla 4.2.2 también muestra las diferencias de valoración de los estudiantes y los signos de
estas diferencias. As!, se asigna un + si se prefiere la salsa original, un si se prefiere la nueva y
si se valoran los dos productos por igual. En este experimento, dos estudiantes prefieren la salsa
original y cinco la nueva; uno las valora por igual.
La hipótesis nula de interés es que en la población en general no hay una tendencia general a
preferir un producto al otro. Para evaluar esta hipótesis, comparamos los números que expresan
una preferencia por cada producto, descartando los que valoran los productos por igual.
80
En este ejemplo, los valores del estudiante G se omiten y el tamaño efectivo de la muestra se
reduce a n = 7. La única información muestral en la que se basa nuestro contraste es que dos de
los siete estudiantes prefieren el producto original. Por 10 tanto, el estadístico del contraste es
S= 2
La hipótesis nula puede concebirse como la hipótesis de que la mediana poblacional de las
diferencias es 0. Si la hipótesis nula fuera verdadera, nuestra secuencia de diferencias + y -
podría concebirse como una muestra aleatoria extraída de una población en la que las
probabilidades de + y - son 0,5 cada una.
Ho: P = 0,5 No hay una tendencia general a preferir uno de los productos al otro
Se utiliza un contraste de una cola para averiguar si existe una tendencia general a preferir la
nueva salsa a la original. La alternativa de interés es que la mayoría de la población prefiere el
nuevo producto.
H1: P < 0,5 La mayoría prefiere el nuevo producto (0 menos del 50% prefiere el producto
original).
81
Unidad 5
Proyecto Integrador
Objetivo.
Aplicará los lenguajes de propósito general y especial para resolver problemas de simulación en
modelos de líneas de espera, inventarios, producción y mantenimiento en las empresas.
82
Proyecto Integrador
I.- EL PROBLEMA.
A. Título descriptivo del proyecto.
B. Formulación del problema.
C. Objetivos de la investigación.
D. Justificación.
E. Limitaciones
II.-MARCO DE REFERENCIA.
A. Fundamentos teóricos.
B. Antecedentes del problema.
C. Elaboración de Hipótesis.
D. Identificación de las variables.
III.-METODOLOGÍA.
A. Diseño de técnicas de recolección de información.
B. Población y muestra.
C. Técnicas de análisis.
D. Índice analítico tentativo del proyecto.
E. Guía de trabajo de campo.
V.-ASPECTOS ADMINISTRATIVOS.
A. Recursos humanos.
B. Presupuesto.
C. Cronograma.
Bibliografía
83
Realizar un cronograma de las actividades y el tiempo como será ira entregando los avances del
proyecto.
84
Cuestionario 1
1. ¿A qué se le llama número(s) Pseudoaleatorios(s)?
A una sucesión determinística de números en el intervalo [0, 1] que tiene las mismas propiedades
estadísticas que una sucesión de números aleatorios.
Porque con predecibles y se pueden reproducir, dado el número aleatorio generador que se use.
Es una muestra independiente de una distribución uniforme y continua en el intervalo (0, 1).
Distribución Uniforme.
Independencia (No Correlacionados).
85
Deben ser secuencias largas y sin huecos (Densas).
Algoritmos rápidos y que no ocupen mucha memoria.
En 2 categorías principales.
11. ¿Menciona y explica cuáles son las 2 categorías principales en las que se pueden dividir los
números aleatorios?
13. ¿Menciona 4 propiedades mínimas que deben cumplir los números Pseudoaleatorios?
14. ¿Cuántas y cuáles son las condiciones que deben satisfacer los números Pseudoaleatorios?
Uniformemente distribuidos.
Estadísticamente independientes.
86
Reproducibles.
Sin repetición dentro de una longitud determinada de la sucesión.
Generación a grandes velocidades.
Requerir el mínimo de capacidad de almacenamiento.
La mayoría de los métodos (Generadores) comienzan con un número inicial (Semilla o Seed),
al cual se le aplica un determinado procedimiento para así obtener el primer número aleatorio.
Se comienza con un número inicial (Semilla), el cual se eleva al cuadrado, después de elevarlo
al cuadrado se seleccionan los números del centro (los dígitos que se deseen), los cuales se
pondrán después de un punto decimal y este será el número que conformara el primer número
aleatorio.
Unidad 2
2.- El standard define para la función de generación de números Pseudoaleatorios los valores
de 12345,32768 1103515245
Pseudoaleatorio.
. Calcule los 10 primeros números
87
F UENTE DE INFORMACIÓN
Bibliografía
Eduardo García Dunna, Heriberto García Reyes, Leopoldo E Cárdenas. Simulación y análisis
de sistemas con ProModel. México. Editorial Pearson.
Charles Harrell, Birman K. Ghosh, Royce Bowden. Uso de simulación ProModel. México.
McGraw-Hill College.
Diaz Redondo, Rebeca; Pazos Arias, José Juan; Suárez González, Andrés. Teoría de Colas y
Simulación de Eventos Discretos. España: Pearson Publicación. 2004
(ISBN: 842053675x).
Guasch, Antoni; Piera, Miguel Ángel; Figueras, Jaime; Casanovas, Joseph. Modelado y
Simulación. Aplicación a Procesos Logísticos de Fabricación y Servicios. España. Ediciones
UPC. 2003.
Banks, Jerry; Carson, John; Nelson, Barry L; Nicol, David. Discrete Event System Simulation.
Estados Unidos de América. Prentice Hall. 2004.
Banks, Jerry; Carson, John; Discrete Event System Simulation. Estados Unidos de América.
Prentice Hall. 1984.
Banks, Jerry; Carson, John; Ngo Sy, John. Getting Started With GPSS/H. Estados Unidos de
América. Wolverine Software Corporation. 1995.
Scheaffer, Richard; McClave, James. Probability and Statistics for Engineers. Estados Unidos
de América. Duxbury Press. 1995.
Banks, Jerry. Principles of Quality Control. Estados Unidos de América. Editorial Wiley. 1989.
88
D. MATHO - R. KARBA - B. ZUPANCIC. Simulation and Modelling of Continuous Systems.
A Case Study Approach. Prentice Hall, Inc., 1992
J. Banks, J.S. Carson, B.L. Nelson, D.M. Nicol. Discrete-event system simulation. Prentice Hall,
3ª Edición, 2001
J.M González Rodríguez. Teoría General de Sistemas. Simulación dinámica de sistemas socio-
económico. Consejería de Educación, Cultura y Deportes. Dirección General de Universidades
e Investigación. Colección Textos Universitarios, 1997
89