Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Simulación Unidad 4
Simulación Unidad 4
3) Viés y no viés. Un estimador es no in-sesgado si: E(θ̂) = θ, onde el viés es dado por:
vies(θ̂) = E(θ ˆ θ) = E(θ̂) − θ
2) Las leyes de los grandes números explican por qué el promedio o media de una muestra
al azar de una población de gran tamaño tenderá a estar cerca de la media de la
población completa.
Registros: los registros y licencias son particularmente valiosos para los censos
completos, pero se limitan a variables que cambian lentamente, como el número de
embarcaciones pesqueras y sus características.
Cuestionarios: formularios que los encuestados devuelven cumplimentados. Un método
poco costoso que resulta útil cuando los índices de alfabetización son altos y los
encuestados colaboran.
Entrevistas: formularios que se cumplimentan a lo largo de una entrevista con el
encuestado. Más caros que los cuestionarios, pero mejores para preguntas más
complejas, y cuando se dan unos índices de alfabetización bajos o se encuentra menos
colaboración.
Observaciones directas: la realización de mediciones directas es el método más preciso
para todas las variables, como las capturas, pero a menudo resulta caro. Muchos
métodos, como los programas de observación, se limitan a la pesca industrial.
Presentación de informes: la principal alternativa a la realización de mediciones directas
consiste en pedir a los pescadores y a terceros que presenten informes de sus
actividades. La preparación de informes presupone la alfabetización y requiere espíritu
de colaboración, pero ello puede reforzarse mediante una obligación legal y mediciones
directas.
Las técnicas de recogida de la información no son un fin en si mismo, sino que dependen de:
Algunas técnicas se pueden utilizar en distintos diseños, por ejemplo la entrevista se puede
utilizar en: investigación acción, en estudios de caso, en investigación etnográfica, etc.
4.2. Identificación del estimador determinante (estimador líder) del
tamaño de la simulación.
Por definición, el valor de una variable cambia conforme avanza la simulación, aunque se le
debe dar un valor inicial. Cabe recordar que el valor de un parámetro permanece constante; sin
embargo, puede cambiar conforme se estudian diferentes alternativas en otras simulaciones.
Lo anterior se debe a que el modelo se sesga por una serie de valores iniciales hasta que el
modelo llega a un estado estable.
Para manejar este problema, los analistas han seguido varios planteamientos como
Quizás el planteamiento más común sea continuar la simulación hasta lograr un equilibrio. En
el ejemplo del mercado de pescado, significaría que las ventas simuladas de pescado
corresponden a sus frecuencias relativas históricas. Otro planteamiento es ejecutar la
simulación durante un periodo establecido como 1 mes, 1 año o una década y ver si las
condiciones al final del periodo son razonables. Un tercer planteamiento es establecer la
duración de la ejecución de modo que se obtenga una muestra suficientemente grande para
efectos de pruebas de hipótesis estadística. Esta alternativa se considera en la siguiente
sección.
Desde luego que las conclusiones que se pueden obtener de una simulación dependen del
grado en que el modelo refleja el sistema real, aunque también depende del diseño de la
simulación en un sentido estadístico.
De hecho, muchos analistas consideran la simulación como una forma de prueba de hipótesis
donde cada ejecución de simulación ofrece uno o más datos de muestra que son susceptibles
al análisis formal a través de los métodos estadísticos inferenciales. Los procedimientos
estadísticos que normalmente se usan en la evaluación de resultados de simulación incluyen el
análisis de varianza, análisis de regresión y pruebas t.
En la mayoría de las situaciones, el análisis tiene más información disponible con la cual
comparar los resultados de simulación: datos operativos antiguos del sistema real, datos
operativos del desempeño de sistemas semejantes y la percepción del analista de la operación
del sistema real. Sin embargo, se debe admitir que la información obtenida de estas fuentes
probablemente no sea suficiente para validar las conclusiones derivadas de la simulación. Por
lo tanto, la única prueba real de una simulación es qué tan bien se desempeña el sistema real
después de haber implantado los resultados del estudio.
Ejemplo:
1) Comparad los valores del estimador 1 (primera observación) para los diferentes tamaños
muestrales (n = 2; 10; 50; 500).
Hay una serie de características deseables en los estimadores para que éstos constituyan una
buena aproximación a los respectivos parámetros. Se trata de rasgos que podrían entenderse
como criterios de calidad de los estimadores.
Por ejemplo, la media [D] es un estimador insesgado de µ, puesto que se cumple, tal y como
vimos en el capítulo anterior al estudiar la distribución muestral del estadístico media, que
E( [D]) = µ
[D] o bien, [D]. Para cada uno de ellos, el valor esperado resulta ser:
[D]
Cuando E(Ê) ≠ Ө, decimos que el estimador sesgado tiene un sesgo positivo si E(Ê) > Ө, o que
tiene un sesgo negativo si E(Ê) < Ө. Un estimador sesgado tenderá a ofrecer sistemáticamente
valores que se alejan en un sentido u otro del parámetro, aunque la muestra sea elegida
aleatoriamente.
2. muestral infinito obtenemos una varianza del estimador nula. Por tanto, un estimador es
consistente si cuando n tiende a infinito se cumple
E(Ê) = Ө; var(Ê) = 0
La media es un estimador consistente del parámetro µ, puesto que se verifican las condiciones
anteriores. Es decir.
[D]
Por tanto, si un estadístico es más eficiente que otro, significa que varía menos de unas
muestras a otras. Se demuestra que la media es un estimador del parámetro µ más eficiente
que la mediana. Del mismo modo, la varianza Sn-12 es un estimador de σ2 más eficiente que
Sn2.
[D]
para cuyo cálculo se tienen en cuenta todas las puntuaciones Xi. Otro tanto ocurre con los
estimadores Sn-12 y Sn2 de la varianza. Todos ellos pueden ser considerados estimadores
suficientes de los respectivos parámetros.
Sea H un intervalo cualquiera definido sobre la recta real. Definiremos ahora una variable
ficticia, XH , de la siguiente forma:
De manera que cada observación de Xt Ileva asociada una observación -con valor o ó 1- de la
variable XNr . La función de densidad teórica -desconocida- de Xt asigna una probabilidad pH
al intervalo H. Esto significa que:
Producir T replicaciones del vector y, implica disponer de una muestra de T “observaciones" de
la variable real X. Esta muestra lleva asociada, a su vez, una muestra de tamaño T de la
variable Xy .Esta variable sigue una distribución binaria de parámetro pH , así que la suma de
las T observaciones de XH , ZH = XH^ +. ,.+ X y T , sigue una distribución binomial b(pH ,^. Es
oportuno aquí hacer una adaptación al presente contexto del concepto de estimación precisa
de Finster{ 1987) Definición 1. ,ZH /T es una estimación precisa de pN con nivel de imprecisión
A y confianza 1-a (can 0< cx < 1), si
Método estadístico
Método tradicional
Método Estadístico
MÉTODO ESTADÍSTICO
El método estadístico requiere que se efectúen cierto número de observaciones preliminares
(n'), para luego poder aplicar la siguiente fórmula:
Siendo:
Ejemplo
7 49
8 64
8 64
7 49
Σx = 38 Σx² = 290
8
7
8
8
7
N' = 5
Dado que el número de observaciones preliminares (5) es inferior al requerido (7), debe
aumentarse el tamaño de las observaciones preliminares, luego recalcular n. Puede ser que en
recálculo se determine que la cantidad de 7 observaciones sean suficientes.
1) Realizar una muestra tomando 10 lecturas sí los ciclos son <= 2 minutos y 5
lecturas sí los ciclos son > 2 minutos, esto debido a que hay más confiabilidad
en tiempos más grandes, que en tiempos muy pequeños donde la probabilidad
de error puede aumentar.
2) Calcular el rango o intervalo de los tiempos de ciclo, es decir, restar del tiempo
mayor el tiempo menor de la muestra:
Siendo:
Tomando como base los tiempos contemplados en el ejemplo del método estadístico,
abordaremos el cálculo del número de observaciones según el método tradicional.
En primer lugar como el ciclo es inferior a los 2 minutos, se realizan 5 muestras adicionales (6,
8, 8, 7, 8) para cumplir con las 10 muestras para ciclos <= 2 minutos. Las observaciones son
las siguientes:
8
7
8
8
7
6
8
8
7
8
Σx = 75
8
7
8
8
7
Se calcula el rango:
R (Rango) = 8 - 6 = 2
Por lo cual podemos concluir que ambos métodos arrojan resultados muy parecidos y que la
elección del método se deja a criterio del especialista.
En este caso, la línea negra horizontal representa el valor fijo de la media desconocida de la
población, µ. Los intervalos de confianza azules verticales que se sobreponen a la línea
horizontal contienen el valor de la media de la población. El intervalo de confianza rojo que está
completamente por debajo de la línea horizontal no lo contiene. Un intervalo de confianza de
95% indica que 19 de 20 muestras (95%) de la misma población generarán intervalos de
confianza que contendrán el parámetro de población.
Utilice el intervalo de confianza para evaluar la estimación del parámetro de población. Por
ejemplo, un fabricante desea saber si la longitud media de los lápices que produce es diferente
de la longitud objetivo. El fabricante toma una muestra aleatoria de lápices y determina que la
longitud media de la muestra es 52 milímetros y el intervalo de confianza de 95% es (50,54).
Por lo tanto, usted puede estar 95% seguro de que la longitud media de todos los lápices se
encuentra entre 50 y 54 milímetros.
Estimación de punto
Este valor individual estima un parámetro de población usando los datos de su muestra.
Margen de error
Cuando usted utiliza estadísticos para estimar un valor, es importante recordar que sin importar
lo bien que esté diseñado su estudio, su estimación está sujeta a error de muestreo aleatorio.
El margen de error cuantifica este error e indica la precisión de su estimación.
Usted probablemente ya entiende el margen de error, porque está relacionado con los
resultados de las encuestas. Por ejemplo, una encuesta política podría indicar que el nivel de
popularidad de un candidato es de 55% con un margen de error de 5%. Esto significa que el
nivel de popularidad real es +/- 5% y, por lo tanto, se ubica entre 50% y 60%.
Mientras mayor sea el margen de error, más ancho será el intervalo y menos seguro podrá
estar usted del valor de la estimación de punto.
El estudio de Monte Carlo para determinar la validez del empleo de la prueba del error estándar
de ajuste como criterio de selección en el análisis de frecuencias. Dicho estadístico se comparó
con los estadísticos de prueba de Kolmogorov-Smirnov, Cramer-Von Mises y Anderson-Darling.
Las distribuciones elegidas para el propósito de comparar estos estadísticos fueron la gamma,
Weibull, Gumbel, log-normal y log-logística. Los resultados obtenidos recomiendan el uso de
muestras con tamaño de por lo menos de más de n=50 para tener un buen desempeño de las
pruebas de Anderson-Darling y error estándar de ajuste. El empleo de las pruebas de
Kolmogorov-Smirnov y Cramer-Von Mises o pruebas Karl-Pearson es del todo recomendable
en hidrología, ya que para obtener un desempeño aceptable se necesitan muestras más
grandes de las que normalmente se tienen en esta disciplina.
Otros métodos usados a menudo son los de función de distribución empírica (FDE), que
incluyen las pruebas de Kolmogorov-Smirnov (KS), Cramer-Von Mises (CVM) y Anderson-
Darling (AD) (p. ej., Laio, 2004; Suhaila & Jemain, 2007; Dan'azumi, Shamsudin, & Aris, 2010;
Shin et al., 2011; Atroosh & Moustafa, 2012). Sin embargo, las pruebas estadísticas de bondad
de ajuste tienen poco poder para rechazar distribuciones equivocadas (Mitosek, Strupczewski,
& Singh, 2002), por lo que en muchos casos, más de una distribución puede ser aceptada por
una prueba específica (Laio, Baldasarre, & Montanari, 2009).
En este caso, el concepto de criterio de selección de modelos representa una alternativa a las
pruebas de bondad de ajuste. Pueden definirse diversos criterios de selección en función de los
estadísticos de bondad de ajuste antes mencionados. Otros criterios de selección se basan en
la función de verosimilitud, como el criterio de información de Akaike (CIA) y el criterio de
información Bayesiano (CIB) (Laio et al., 2009). Balasooriya, Low y Wong (2005) evaluaron la
efectividad de los criterios de Akaike, y de Quesenberry y Kent. Encontraron que si bien ambos
criterios tuvieron un buen desempeño, el segundo fue ligeramente mejor; sin embargo, la
dificultad computacional de este criterio hace preferible el empleo del CIA. Los criterios de
selección de modelos probabilísticos han recibido poca atención en la literatura hidrológica.
Mitosek et al. (2002) consideraron las distribuciones Weibull, gamma, Gumbel y log-normal
como modelos alternativos para la distribución de caudales pico anuales, y evaluaron estas
distribuciones usando tres índices: la desviación absoluta media, la media cuadrática y la
función de verosimilitud normalizada. Tras realizar un estudio de Monte Carlo, concluyeron que
la función de verosimilitud normalizada representaba el mejor criterio de selección. El Adlouni,
Bobée y Ouarda (2008) utilizaron técnicas gráficas para seleccionar la clase de distribuciones
que proporciona el mejor ajuste a un conjunto de datos. Utilizaron el criterio de clasificación de
Werner y Upper (2002), quienes dividieron las distribuciones en: a) estables; b) con cola tipo
Parteo; c) regularmente variantes; d) sub-exponenciales; e) con momentos exponenciales
inexistentes.
Estas simulaciones muestran que los criterios de selección ayudan a escoger la mejor
distribución para un análisis de frecuencias. Se encontró que de los criterios empleados, el
mejor fue AD, seguido por el EEA. También se observó que es difícil discriminar entre dos
distribuciones parecidas. También se encontró que el porcentaje de selección correcta (PSC)
de los criterios de selección depende del tamaño de la muestra n y de la distribución que
siguen los datos generados.
En general, el criterio de AD resulta con mejores estimaciones para T = 100, aun cuando no
escoge la distribución correcta. También se observó que tiende a producir estimaciones más
pequeñas que los demás criterios considerados, y que en la mayoría de los casos subestima el
valor xT. Para T = 10 no hay grandes diferencias entre los criterios. A partir de los resultados
obtenidos, se recomiendan muestras con tamaño de por lo menos n = 50 para tener un buen
desempeño de las pruebas de AD y EEA. El empleo de las pruebas de KS y CVM no se
recomienda a menos que se tengan muestras grandes.
El estadístico de Anderson-Darling
El estadístico Anderson-Darling mide qué tan bien siguen los datos una distribución específica.
Para un conjunto de datos y distribución en particular, mientras mejor se ajuste la distribución a
los datos, menor será este estadístico. Por ejemplo, usted puede utilizar el estadístico de
Anderson-Darling para determinar si los datos satisfacen el supuesto de normalidad para una
prueba t.
La prueba de Anderson-Darling es usada para probar si una muestra viene de una distribución
especifica. Esta prueba es una modificación de la prueba de Kolmogorov- Smirnov donde se le
da más peso a las colas de la distribución que la prueba de Kolmogorov-Smirnov.
Donde:
n es el número de datos
Para definir la regla de rechazo para esta prueba es necesario, también, obtener el estadístico
ajustado para luego compararlo con los valores críticos de la tabla de Anderson- Darling.
Prueba G o prueba del logaritmo de la razón de Verosimilitudes
No debe confundirse con el término probabilidad: ésta permite, a partir de una serie de parámetros
conocidos, realizar predicciones acerca de los valores que toma una variable aleatoria.
Formula
La función de verosimilitud, abundando en los razonamientos anteriores, abre la vía para dos
técnicas muy habituales en inferencia estadística: las de la máxima verosimilitud y la del test de la
razón de verosimilitudes.
En los casos anteriores, los eventos considerados tenían una probabilidad p estrictamente mayor
que cero. Pero cuando la noción de verosimilitud se extiende a variables aleatorias con una función
de densidad f sobre, por ejemplo, el eje real, la probabilidad de un evento cualquiera es nula.
Desarrollada en la década de los treinta del siglo XX, esta prueba permite —al igual
que la prueba Chi-cuadrada— determinar la distribución de probabilidad de una serie
de datos. Una limitante de la prueba de Kolmogorov-Smirnov estriba en que solamente
se puede aplicar al análisis de variables continuas. El procedimiento general de la
prueba es:
Si las relaciones matemáticas o lógicas que comprende el modelo son sencillas, entonces será
posible utilizar un procedimiento analítico para obtener una solución o respuesta exacta sobre
las características de interés del sistema analizado. No obstante, si las relaciones son
complejas, puede ocurrir que no se pueda evaluar analíticamente el problema. En este caso,
será necesario acudir a la simulación del sistema, evaluando numéricamente el modelo y
analizando los datos obtenidos para estimar las características de dicho sistema.
Los elementos que forman parte del sistema vienen condicionados por el objetivo del estudio
que se pretende realizar, ya que un sistema definido para un estudio determinado puede ser
una parte de un sistema más amplio definido para otro estudio particular. Por ejemplo, si se
quiere determinar cuál es el número más adecuado de operarios y máquinas en la sección de
mecanizado de una empresa que tiene una determinada cartera de pedidos, estos elementos
serán los que formen parte del sistema a analizar, mientras que, si lo que se desea es estudiar
la capacidad productiva de la empresa, los elementos mencionados anteriormente sólo serán
una parte del sistema. A ellos habrá que añadir montaje, embalaje, almacenaje, etc.
Tipos de sistemas
Evidentemente, las características del sistema real que se desea estudiar van a condicionar el
tipo de simulación que se va a desarrollar. Por lo tanto, conviene hacer una clasificación de los
sistemas de acuerdo con los aspectos que van a condicionar su análisis posterior. Así, es útil
realizar una clasificación de los sistemas atendiendo a tres aspectos fundamentales:
Sistemas estáticos y sistemas dinámicos. Un sistema se considera estático cuando sus
variables de estado no cambian a lo largo del tiempo, es decir, cuando el tiempo no juega
ningún papel en sus propiedades. Por el contrario, en un sistema dinámico los valores que
toman todas o algunas de sus variables de acción evolucionan a lo largo del tiempo.
Tipos de modelos
Para estudiar un sistema, la forma más inmediata sería experimentar sobre él. Sin embargo,
esto puede ser desaconsejable, e incluso imposible, por diversos motivos:
− La experimentación sobre el sistema real puede conllevar unos plazos de tiempo muy
dilatados. Es el caso, por ejemplo, de ciertos sistemas sociales o biológicos.
Necesidad de la simulación
− En los sistemas continuos es frecuente que unas variables de estado representen la tasa o
velocidad de cambio de otras variables de estado. La formulación matemática de estos
modelos lleva a la aparición de ecuaciones diferenciales que indican las relaciones
anteriormente mencionadas. Si el sistema tiene una cierta complejidad, puede ocurrir que
las ecuaciones diferenciales sean no lineales y, por lo tanto, de difícil o imposible resolución
analítica.
− En los sistemas discretos pueden aparecer fenómenos aleatorios que sólo se pueden
representar en términos probabilistas. En este caso, la formulación matemática del modelo
contiene relaciones en las que aparecen funciones de distribución o de densidad de
probabilidad, que dificultan o impiden su resolución analítica.
Como ya se ha indicado, la catalogación de un sistema como continuo o discreto depende del
objetivo del estudio y de las variables de estado predominantes. Esto quiere decir que un
mismo sistema puede tener ciertas variables de estado continuas y otras discretas. Por lo
tanto, no es infrecuente encontrar modelos en los que coexisten ecuaciones diferenciales
complejas con variables aleatorias, lo que, evidentemente, complica aún más la resolución
analítica.
Ventajas de la simulación
Ya se ha comentado previamente que la simulación es una técnica cada vez más utilizada en el
estudio de sistemas complejos. Entre los argumentos a favor de la utilización de la simulación
se encuentran los siguientes:
− La simulación permite estudiar un sistema cuya evolución es muy dilatada en el tiempo (por
ejemplo, un sistema económico) en un periodo de tiempo reducido. Alternativamente,
también permite estudiar de forma detallada la evolución de un sistema en un corto periodo
de tiempo.
Conclusión
http://revistas.utp.edu.co/index.php/revistaciencia/article/view/3137
http://www.iol.etsii.upm.es/arch/simulacion.pdf
file:///C:/Users/El%20Kostra/Downloads/693-388-140_10.pdf
https://www.ingenieriaindustrialonline.com/herramientas-para-el-ingeniero-industrial/estudio-de-
tiempos/c%C3%A1lculo-del-n%C3%BAmero-de-observaciones/
http://www.didacticaambiental.com/revista/numero10/6.-.pdf
http://support.minitab.com/es-mx/minitab/17/topic-library/basic-statistics-and-
graphs/introductory-concepts/confidence-interval/confidence-interval/
http://campus.fi.uba.ar/course/view.php?id=187
http://www.iol.etsii.upm.es/arch/simulacion.pdf
http://www.redalyc.org/pdf/302/30235208.pdf
http://www.simulacion.com/trabajos-pdf5/prueba-chi-cuadrada-estadistica/prueba-chi-cuadrada-
estadistica.shtml
http://simulacionunilibre.blogspot.mx/p/prueba-anderson-darling.html
http://www.econ.unicen.edu.ar/attachments/1051_TecnicasIISimulacion.pdf
http://www.cyta.com.ar/biblioteca/bddoc/bdlibros/monte_carlo/monte_carlo.htm?iframe=true&width=95
%&height=95%
http://www.scielo.org.mx/scielo.php?pid=S2007-24222014000500012&script=sci_arttext&tlng=en
http://dspace.ucbscz.edu.bo/dspace/bitstream/123456789/4345/3/1368.pdf