Está en la página 1de 33

Diseño de la Calidad de la Simulacion

4.1 LISTA DE ESTIMADORES A


OBTENER DE LA
SIMULACIÓN.
Un estimador es un estadístico (una función de la muestra) utilizado para estimar un
parámetro desconocido de la población. Por ejemplo, si se desea conocer el tiempo de
proceso de ensamble de un artículo (parámetro desconocido), se recogen
observaciones de tiempos de proceso en diferentes ciclos (muestra), pudiendo utilizarse la
media aritmética de las observaciones para estimar el tiempo de proceso poblacional.
Definiremos algunas propiedades de los estimadores.

1) Parámetro. Verdadero valor de una característica de interés, denominado


por θ, que raramente es conocido.

2) Estimativa. Valor numérico obtenido por el estimador, denominado


de θˆ en una muestra.

3) Vies y no vies. Un estimador es no in-sesgado si: E(θˆ) = θ, donde


el vies es dado por: vies(θˆ) = E(θ ˆ θ) = E(θˆ) − θ
Cuadrado medio del error (ECM). Es dado por:

ECM (θˆ) = E(θˆ − θ)2 = V (θˆ) + (vies

1) Un estimador es consistente si: plim(θˆ) = θ ; y lim −→ ∞ECM (θˆ) = 0


2) Las leyes de los grandes números explican por que el promedio o media de una
muestra al azar de una población de gran tamaño tendera´ a estar cerca de la
media de la población completa.
4.1.1. INSTRUMENTOS DE
MEDICIÓN.
Los instrumentos de medición típicos para recolectar datos, a fin de obtener los
estimadores necesarios, son:
 Aleatorización.
La aleatorización es una técnica que se utiliza para equilibrar el efecto de
condiciones externas o no controlables que pueden influir en los resultados de un
proyecto de simulación. Por ejemplo, la temperatura ambiental, la velocidad de
proceso, la materia prima o los operadores pueden cambiar durante un
experimento y afectar inadvertidamente los resultados del proyecto. Si las corridas
experimentales se realizan en orden aleatorio, se reduce la probabilidad de que
las diferencias en los materiales o las condiciones del proyecto sesguen
considerablemente los resultados. La aleatorización también permite estimar la
variación inherente de los materiales y las condiciones de manera que se puedan
hacer inferencias estadísticas válidas con base en los datos del proyecto.
 Muestreo.
El muestreo es el proceso de seleccionar un conjunto de datos de una población
con el fin de estudiarlos y poder caracterizar el total de esa población.

 Muestreo probabilístico.
Es una técnica que permite asegurar la objetividad de la selección y generalizar o
extrapolar los resultados, pero en algunas ocasiones puede resultar más costoso o
difícil de aplicar que el muestreo al azar simple.

 Muestreo al azar simple.


Este método consiste en identificar a todos los elementos de la población con un
número-etiqueta, para luego mediante un procedimiento de generación de
números aleatorios seleccionar la cantidad necesaria (tamaño muestral).

 Muestreo por cuota.


En este método se eligen deliberadamente a elementos para que cumplan cierta
cantidad prefijada o cuota para cada grupo. Por ejemplo, ir a un establecimiento
de servicio y entrevistar a 200 personas que sean: 25% estudiantes, 25%
profesionistas y 50% público en general.
4.1.2. MEDIOS DE
REGISTRO DE DATOS.
Los métodos más comúnmente utilizados para la recolección y registro de datos
para los proyectos de simulación son:
 Experimentos.
Un experimento es una manera directa, precisa, confiable y muy valiosa de
recolectar datos precisos para un estudio de simulación, por lo que es
recomendable diseñar un experimento que sea factible, económico y posible
de llevar a cabo.
 Observación directa.
Cuando no es posible diseñar un experimento para recolectar datos, la manera
más fácil de hacerlo es estudiando las variables a través de la observación directa.
Esta constituye un proceso más complejo, pues por lo general las variables nunca
se encuentran aisladas sino que interactúan con otras variables, lo que dificulta el
posterior análisis. Sin embargo, es un medio muy útil y sencillo de llevar a cabo.
 Encuestas.
Una encuesta consiste en un cuestionario de preguntas normalizadas que se
hacen a los actores del sistema que se pretende simular, a fin de obtener los datos
estadísticos necesarios sobre opiniones, hechos u otras variables, para poder
desarrollar el proyecto de simulación.
 Entrevistas.
Método indirecto, predominantemente cualitativo, definido como una reunión o
conversación entre dos o más personas, con el objetivo de obtener información del
entrevistado sobre un determinado aspecto.
 Grupos de enfoque.
Este método consiste en reuniones de grupos pequeños, por lo general de entre 4
y 10 personas, en las cuales los participantes dan sus opiniones respecto a los
datos que se requiere recolectar. Se trata básicamente de aprovechar la
experiencia que tiene cada elemento del grupo sobre la situación de la que se
quiere obtener dichos datos.
 Análisis de contenidos.
Método que permite reducir y sistematizar cualquier tipo de información contenida
en registros escritos, visuales o auditivos, en datos o valores objetivos. Este
método permite extraer datos objetivos, sistemáticos y cuantitativos de fuentes
que contienen grandes volúmenes de información dispersa o divergente.
 Datos secundarios.
Mediante este método se recolectan datos de estudios previamente elaborados y
confiables, evitando repetir las actividades de recolección, ahorrando con ello
tiempo y dinero. Los datos recabados se denominan secundarios puesto que
fueron colectados con anterioridad, en comparación con los datos primarios, que
son colectados por primera vez por cualquier otro método.
4.2 IDENTIFICACIÓN DEL ESTIMADOR
DETERMINANTE (ESTIMADOR LÍDER) DEL
TAMAÑO DE LA SIMULACIÓN.

Para cada parámetro pueden existir varios estimadores diferentes. Por lo general, se
elige como estimador líder o determinante aquel que posea mejores propiedades que
los restantes.
Por definición, el valor de una variable cambia conforme avanza la simulación,
aunque se le debe dar un valor inicial. Cabe recordar que el valor de un parámetro
permanece constante; sin embargo, puede cambiar conforme se estudian diferentes
alternativas en otras simulaciones.
Determinación de duración de la ejecución: La duración de la ejecución de
simulación (duración de la ejecución o tiempo de ejecución) depende del propósito
de la simulación.
Quizás el planteamiento más común sea continuar la simulación hasta lograr un
equilibrio. En el ejemplo del mercado de pescado, significaría que las ventas
simuladas de pescado corresponden a sus frecuencias relativas históricas. Otro
planteamiento es ejecutar la simulación durante un periodo establecido como 1 mes,
1 año o una década y ver si las condiciones al final del periodo son razonables. Un
tercer planteamiento es establecer la duración de la ejecución de modo que se
obtenga una muestra suficientemente grande para efectos de pruebas de hipótesis
estadística. Esta alternativa se considera en la siguiente sección.
4.3 MUESTRAS PRELIMINARES DE
LOS PROYECTOS APROBADOS EN
3.4
4.4 CARACTERÍSTICAS DEL
ESTIMULADOR LÍDER.
Las cuatro características que debe tener un buen estimador son:
• Insesgadez.
Se dice que un estimador es insesgado si la media de la distribución
del estimador es igual al parámetro. Los estimadores insesgados son
la media muestral (estimador de la media poblacional) y la varianza
(estimador de la varianza de la población).
• Estimadores insesgados: ̅  ; ̌
• Ejemplo: 
En una población de 500 puntuaciones cuya Media (μ) es igual a 5.09, se ha hecho un 
muestreo aleatorio (cantidad de muestras = 10000, tamaño de las muestras= 100) y se 
encuentra que la Media de las Medias muestrales es igual a 5.09, (la media poblacional y 
la media de las medias muestrales coinciden). En cambio, la Mediana de la población es 
igual a 5 y la Media de las Medianas es igual a 5.1 esto es, hay diferencia ya que la 
Mediana es un estimador sesgado. 

La Media de las Varianzas obtenidas con la Varianza en un muestreo de 1,000 


muestras (n = 25) en que la Varianza de la población es igual a 9.56 ha resultado igual
a  9.12, esto es, no coinciden. En cambio, al utilizar la Cuasi varianza, la Media de las 
Varianzas muestrales es igual a 9.5, esto es, coincide con la Varianza de la población,
ya  que la Cuasi varianza es un estimador insesgado.
•Eficiencia.  
La eficiencia de un estimador está vinculada a su varianza muestral. Así,
para un mismo  parámetro, se dice que el estimador 1 es más eficiente que
el estimador 2 si se cumple que var(estimador 1) < var(estimador 2). Por lo
tanto, si un estadístico es más eficiente  que otro, significa que varía menos
de unas muestras a otras.  

• Ejemplo: 
La Varianza de la distribución muestral de la Media en un muestreo
aleatorio (cantidad de muestras: 1,000, n = 25) ha resultado igual a 0.4. La
Varianza de la distribución de  Medianas ha resultado, en el mismo
muestreo, igual a 1.12. Este resultado muestra que  la Media es un
estimador más eficiente que la Mediana.
•Suficiencia. 

Un buen estimador es suficiente cuando resume toda la


información relevante contenida en  la muestra, de forma tal
que ningún otro estimador pueda proporcionar información 
adicional sobre el parámetro desconocido de la población. 
• Robustez (consistencia).  
Un estimador es consistente si, además de carecer de sesgo, se aproxima cada vez  más al valor del
parámetro a medida que aumenta el tamaño de la muestra. Si el tamaño  n se hace indefinidamente
grande, los valores del estimador se concentran cada vez más  en torno al valor del parámetro, hasta
que con un tamaño muestral infinito obtenemos  una varianza del estimador nula. Por tanto, un
estimador es consistente si cuando n  tiende a infinito se cumple que su varianza es igual a cero.
• Ejemplo: 
En una población de 500 puntuaciones cuya Media (μ) es igual a 4.9, se han hecho tres  muestreos
aleatorios (número de muestras = 100) con los siguientes resultados:

Se observa que el muestreo en que n = 100, la Media de las Medias muestrales toma el  mismo valor
que la Media de la población.
4.4.1 Establecimiento de la precisión. 
Una estimación de un parámetro de la población dada por un solo número se  llama
estimación de punto del parámetro. Una estimación de un parámetro de la 
población dada por dos puntos, entre los cuales se encuentra el parámetro, se 
llama estimación de intervalo del parámetro. Las estimaciones de intervalo indican 
la precisión de una estimación y son, por lo tanto, preferibles a las estimaciones de 
punto. 

• Ejemplo: 
Si se dice que una distancia se ha medido como 5.28 metros (m), se está dando 
una estimación de punto. Por otra parte, si se dice que la distancia es 5.28 ± 0.03 
m, (esto es, que está entre 5.25 y 5.31 m), se está dando una estimación de 
intervalo. En este caso, el margen de error o la percepción de una estimación 
brinda información sobre su fiabilidad o precisión.
4.4.2 CÁLCULO DEL NÚMERO MÍNIMO DE OBSERVACIONES NECESARIAS. 
Para todo proyecto de simulación, es sumamente necesario determinar
adecuadamente la cantidad de observaciones que se deben recolectar, a fin de 
hacer los cálculos lo más preciso posible, y en base a los resultados poder hacer 
recomendaciones confiables. La siguiente tabla muestra algunas de las fórmulas 
disponibles para tal efecto. 
•Ejemplos: 
1. ¿Cuál debe ser el número de observaciones para tener un intervalo de
confianza del  95% con un margen de error del 10%, y una desviación
estándar de 40 ?
Datos: 
Nivel de confianza (N.C.) = 95% ⇒ z = 1.96 
Error permitido (s) = 10% 
Desviación estándar (σ) = 40
4.4.3 Intervalos de confianza. 
Un intervalo de confianza es un rango de valores, derivado de los estadísticos de  la
muestra, dentro de los cuales se admiten los valores de las variables. 
Ejemplo: 
Retomando el ejemplo de los empleados encuestados para verificar el nivel de 
satisfacción de sus trabajos, ¿cuál es el intervalo de confianza de 95% para la  proporción
de la población de empleados a los cuales les disgusta su empleo  actual? 
4.5.MUESTRAS DEFINITIVAS
4.5.1 ESTADÍSTICA DESCRIPTIVA
La estadística descriptiva es la rama de las Matemáticas que
recolecta, presenta y caracteriza un conjunto de datos (por ejemplo,
edad de una población, altura de los estudiantes de una escuela,
temperatura en los meses de verano, etc.) con el fin de describir
apropiadamente las diversas características de ese conjunto.

Al conjunto de los distintos valores numéricos que adopta un


carácter cuantitativo se llama variable estadística.
Las variables pueden ser de dos tipos:
Variables cualitativas o categóricas: no se pueden medir numéricamente (por ejemplo:
nacionalidad, color de la piel, sexo).
Variables cuantitativas: tienen valor numérico (edad, precio de un producto, ingresos anuales). 

Las variables también se pueden clasificar en:


Variables unidimensionales: sólo recogen información sobre una característica (por ejemplo: edad
de los alumnos de una clase).

Variables bidimensionales: recogen información sobre dos características de la población (por


ejemplo: edad y altura de los alumnos de una clase).
Variables pluridimensionales: recogen información sobre tres o más características (por ejemplo:
edad, altura y peso de los alumnos de una clase). Por su parte, las variables cuantitativas se pueden
clasificar en discretas y continuas:
: sólo pueden tomar valores enteros (1, 2, 8, -4, etc.).
 Por ejemplo: número de hermanos (puede ser 1, 2, 3 , etc., pero, por ejemplo, nunca podrá ser
3.45).

Continuas: pueden tomar cualquier valor real dentro de un intervalo. Por ejemplo, la velocidad de
un vehículo puede ser 90.4 km/h, 94.57 km/h etc.
4.5.2 MUESTRA PEQUEÑAS: PRUEBA DE KOLMOGÓROV- SMIRNOV
PARA AJUSTE DE UNA DISTRIBUCIÓN DE PROBABILIDADES CONTINUA
HIPOTÉTICA (EN HOJA DE CÁLCULO O CON PAQUETE ESTADÍSTICO)

Esta prueba se utiliza para contrastar la hipótesis nula de que dos muestras independientes de
tamaños n1 y n2 proceden de la misma población. El contraste se basa en las diferencias entre
las frecuencias relativas acumuladas hasta los mismos puntos de corte correspondientes a las
dos muestras. Si H0 es cierta es de esperar que dichas diferencias sean pequeñas.

Cuando la hipótesis alternativa no es direccional el contraste es sensible a cualquier diferencia


existente entre las dos poblaciones, no sólo en cuanto a tendencia central, sino también en
cuanto a forma, asimetría, etc.
El estadístico de prueba es:

Cuando esta diferencia es significativamente grande se rechaza la hipótesis de que las muestras
proceden de la misma población y la decisión se basa en el valor tipificado del estadístico de
prueba, Z, que tiene distribución normal tipificada.
EJEMPLO
4.5.3 MUESTRAS GRANDES: PRUEBA DE KARL- PERSON PARA AJUSTE DE
UNA DISTRIBUCIÓN DE PROBABILIDADES HIPOTÉTICA, DISCRETA O
CONTINUA (EN HOJA DE CÁLCULO O CON UN PAQUETE DE ESTADÍSTICO).

El coeficiente de correlación de Pearson opera con puntuaciones


tipificadas (que miden posiciones relativas) y se define:
El fundamento del coeficiente de Pearson es el siguiente: Cuanto
más intensa sea la concordancia (en sentido directo o inverso) de las
posiciones relativas de los datos en las dos variables, el producto del
numerador toma mayor valor (en sentido absoluto). Si la
concordancia es exacta, el numerador es igual a N (o a -N), y el
índice toma un valor igual a 1 (o -1).
Ejemplo 1 (Máxima covariación positiva)
Observa que los datos tipificados (expresados como puntuaciones z)
en las dos columnas de la derecha tienen los mismos valores en
ambas variables, dado que las posiciones relativas son las mismas en
las variables X e Y.
Si obtenemos los productos de los valores tipificados para cada caso,
el resultado es:

El cociente de dividir la suma de productos (5) por N (hay que tener


en cuenta que N es el número de casos, NO el número de datos) es
igual a 1:
4.5.4 OTRAS PRUEBAS: ANDERSON-
DARLING, PRUEBA G, POR EJEMPLO.
Esta prueba es aplicada para evaluar el ajuste a cualquier distribución de
probabilidades. Se basa en la comparación de la distribución de probabilidades
acumulada empírica (resultado de los datos) con la distribución de probabilidades
acumulada teórica (definida por H0).
Ho: La variable sigue una distribución Normal H1: La variable no sigue una
distribución Normal
Estadísticos de prueba:

Donde n es el número de observaciones, F(Y) es la distribución de probabilidades


acumulada normal con media y varianza especificadas a partir de la muestra y Yi
son los datos obtenidos en la muestra, ordenados de menor a mayor.
Regla de decisión:
Este valor es menor inclusive al valor crítico correspondiente a α = 0.1. Por lo tanto, se acepta el
supuesto de normalidad de los datos.
4.6 SIMULACIÓN DE LOS COMPORTA-MINENTOS
ALEATORIOS DEL PROYECTO Y SU VERIFICACIÓN.

• Dependiendo del carácter temporal del comportamiento del sistema estudiado, se


puede establecer la siguiente clasificación:
• − Simulación limitada, propia de los sistemas en los que la duración del periodo de
tiempo objeto de estudio está delimitado por algún tipo de evento. Al comienzo de este
periodo, el sistema está en unas determinadas condiciones iniciales y, por lo tanto, se
debe procurar que las condiciones iniciales del modelo de simulación sean
representativas del sistema real. Por ejemplo, el análisis del funcionamiento de una
sucursal bancaria, a lo largo de una jornada es un caso de simulación limitada.
• − Simulación ilimitada, propia de sistemas en los que no existe un horizonte
temporal determinado. A su vez, dentro de esta categoría se puede distinguir entre los
siguientes casos:Con régimen permanente, en los que el comportamiento del sistema
se estabiliza pasado un determinado tiempo. Dependiendo de las condiciones en las
que comienza la simulación, se atraviesa un periodo transitorio durante el cual se
obtienen valores que generalmente no son representativos del funcionamiento del
sistema en condiciones normales.Con régimen permanente cíclico, en los que el
sistema presenta un comportamiento cíclico. Si, por ejemplo, la demanda de un
sistema de tipo JIT varía mensualmente, cabe esperar un régimen permanente con
variaciones cíclicas que se repiten cada mes. • Sin régimen permanente, en los que no
se observa ningún tipo de patrón constante a lo largo de la simulación.

También podría gustarte