Está en la página 1de 7

5.3.1. Programación: distribución del modelo en la hoja de cálculo.

Por definición, el valor de una variable cambia conforme avanza la simulación, aunque se
le debe dar un valor inicial. Cabe recordar que el valor de un parámetro permanece
constante; sin embargo, puede cambiar conforme se estudian diferentes alternativas en
otras simulaciones. Determinación de condiciones iniciales La determinación de
condiciones iniciales para las variables es una decisión táctica importante en la
simulación. Lo anterior se debe a que el modelo se sesga por una serie de valores
iniciales hasta que el modelo llega a un estado estable.

5.3.2. Experimentación con varias configuraciones posibles del


sistema simulado.
Confección de histogramas. Supongamos que disponemos de un cierto rango de
datos. Una manera muy ´útil de entender la distribución de estos datos es
mediante un histograma, un gráfico en el que se pueden apreciar las proporciones
de datos que caen en unos determinados rangos (que han de ser decididos por el
usuario).

Caso discreto. Supongamos que los datos pertenecen a un cierto rango discreto
de valores; por ejemplo, los números del 1 al 7. En el ejemplo, hay 1000 datos,
recogidos en el rango D5:D1004, que ya hemos llamado por comodidad sims.

Caso continuo. El procedimiento es ligeramente distinto si los datos que queremos


visualizar pueden tomar valores en un rango continuo. Por ejemplo, datos
simulados a partir de una variable normal. En este caso, debemos definir los
extremos de cada una de las clases y contar cuantos datos caen en cada una de
ellas. En el ejemplo de la ilustración hay 1000 números sorteados de una normal
estándar.

5.4. Validación.

Es importante que los modelos de simulación sean verificados para ver si trabaja
propiamente y si provee una buena representación de una situación del mundo
real. El proceso de verificación comprende la determinación del modelo de
computadora que sea internamente consistente y que siga la lógica del modelo
conceptual. ¿La verificación debe contestar la pregunta “Construimos el modelo
correctamente?”. La validación es el proceso de comparar un modelo de
simulación con el sistema real que representa para estar seguro que es preciso.

La Verificación del modelo consiste en ver cuál es la consistencia interna del


modelo. La Validación consiste en asegurar que existe la una correspondencia
entre el sistema real y el modelo. Un buen método para la validación es hacer un
test para ver cómo el modelo predice el comportamiento del sistema ante
determinadas entradas.

 La verificación y validación del modelo se realiza en todos los niveles de


modelización: modelo conceptual, modelo lógico y un modelo de ordenador.
La verificación se centra en la consistencia interna del modelo, mientras
que la validación se interesa por la correspondencia entre el modelo y la
realidad.
 Se dice que un modelo es válido si sus medidas de salida tienen una
correspondencia apropiada con las mismas medidas en el sistema real. La
comprobación última para la validez de un modelo es ver cómo el modelo
puede predecir un comportamiento futuro del sistema ante unas
determinadas entradas.

5.4.1. Programación de los informes de salida (estadísticas).

La simulación de un sistema es un experimento de muestreo estadístico artificial


basado en el ordenador; por ello, los resultados de un estudio de simulación
tendrán sentido si se utilizan las herramientas estadísticas apropiadas para su
diseño y análisis.

Un aspecto relevante de los datos obtenidos de la simulación es que, en general,


forman procesos autos correlacionados y no estacionarios, por lo que las técnicas
estadísticas basadas en observaciones independientes e idénticamente
distribuidas no son aplicables. Veamos más detenidamente cuál es la naturaleza
aleatoria de una salida de simulación. Consideremos un proceso estocástico que
represente la salida de una característica específica del sistema en cuestión, por
ejemplo, el tiempo en cola de los pacientes en un centro médico.

Representamos de esta manera, el tiempo de paciente i-ésimo por la variable Yi .


Estas variables aleatorias Yi no son, en general, ni independientes ni
idénticamente distribuidas. Está claro que el tiempo de espera del cliente que llega
en la posición i estará relacionado con el tiempo que haya esperado el cliente que
lo ha precedido, y que, si el sistema arranca vacío, es decir, con las tecnologías
desocupadas, Y1=0, teniendo distinta distribución al resto.

5.4.2. Construcción de gráficas.


En el mercado existen muchos y valiosísimos programas para realizar gráficos,
pero, en la mayoría de los casos, las opciones que nos brindan las hojas de
cálculo en como Excel son más que suficientes. Al realizar un gráfico a partir de la
hoja de cálculo filas o columnas de números que se desean visualizar se
denominan rango de datos. Cuando con dichos valores se crea un gráfico la
aplicación establece lo que se llama un enlace dinámico entre él y los datos
numéricos de la hoja, de forma que, cualquier cambio en los mismos quedara
reflejado automáticamente en el grafico resultante.

Excel ofrece la posibilidad de trabajar con gráficos en sus hojas de cálculo que nos
proporcionaran una visión más clara y grafica del contenido de las tablas de datos.
Un gráfico en Excel es la representación gráfica de un conjunto de datos de una
hoja de cálculo.

5.4.3. Construcción de intervalos de confianza.

Un intervalo de confianza es simplemente un rango de valores en el que


confiamos que se contenga el parámetro poblacional Todo el proceso de
estimación parte de los correspondientes estimadores muestrales. Un estimador
es una función de los valores de una muestra que se elabora para indagar el valor
de un parámetro de la población de la que procede la muestra. El valor de esta
característica en la población es lo que denominamos parámetro. Las
estimaciones pueden ser de dos tipos:
 Estimación puntual: obtendremos un punto, un valor, como estimación del
parámetro desconocido, quedando sin especificar cómo de buena es la
aproximación. Si a partir de una muestra se afirma que el 20% de una
población es fumadora se está haciendo una estimación puntual de la
proporción de fumadores.
 Estimación por intervalo: proporciona un rango de posibles valores, dentro
del cual estimamos (bajo cierta probabilidad) que estará el parámetro
desconocido. Si a partir de una muestra se afirma que el porcentaje de la
población que es fumadora se sitúa entre un 18 y 22% se está haciendo
una estimación por intervalo de la proporción poblacional de fumadores.

5.4.4. Juicios sobre los resultados reportados.

La recolección de datos se refiere al uso de una gran diversidad de técnicas y


herramientas que pueden ser utilizadas por el analista para desarrollar los
sistemas de información, los cuales pueden ser la entrevista, la encuesta, el
cuestionario, la observación, el diagrama de flujo y el diccionario de datos. Todos
estos instrumentos se aplicarán en un momento en particular, con la finalidad de
buscar información que será útil a una investigación en común. La tendencia al
empleo de datos cuantiosos se debe en gran parte actualmente al desarrollo de
computadoras de alta velocidad y capacidad que han puesto toda su capacidad
para el manejo de la información en forma compacta y en poco tiempo de
respuesta. También se debe en parte esta tendencia a que se va teniendo cada
vez más en cuenta la necesidad de métodos científicos en la administración de las
empresas.

Los datos son la información que se obtiene acerca del comportamiento del
proceso y se desea graficar, con la finalidad de obtener información estadística y
poder analizar las tendencias. Los datos son agrupaciones o conjuntos de
cualquier número de observaciones relacionadas entre sí. Una agrupación de
datos es conocida como conjunto de datos y una observación individual es un dato
puntual.
Dado que los datos proporcionan las bases para los juicios y las acciones, los
razones para la recolección de los mismos pueden clasificarse de la siguiente
manera; datos para:

 El entendimiento de la situación actual.


 El análisis de problemas.
 El control de procesos (trabajo).
 La investigación de operaciones.
 El juicio sobre la aceptación o rechazo.

5.5. Conclusión.

De los resultados obtenidos en esta sesión de simulación, parece interesante


destacar a efectos pedagógicos las siguientes cuestiones:

a) El hecho de que los estimadores, como estadísticos, i.e. funciones de la


muestra, son aleatorios, es decir, cada muestra diferente da una estimación
diferente de un único parámetro poblacional.
b) La noción intuitiva de estimador insesgado, en el sentido de que la media
de “muchísimas” estimaciones coincide aproximadamente con el verdadero
valor del parámetro. En este caso, los dos estimadores propuestos cumplen
dicha propiedad.
c) La noción intuitiva de eficiencia relativa. Entre dos estimadores insesgados,
será eficiente en términos relativos aquel cuya distribución presente una
menor variabilidad en torno a la media, lo que indica que va a ser menos
probable que en otros obtener estimaciones que se alejen demasiado en
uno o en otro sentido del verdadero valor del parámetro poblacional.
d) La noción intuitiva de estimador consistente, en el sentido de que, la
distribución muestral del estimador va teniendo menor dispersión respecto
de la media a medida que el tamaño muestral va siendo cada vez mayor.

5.5.1. Comparación entre las configuraciones simuladas.


Como posibles extensiones de esta aplicación, se sugieren entre otras las
siguientes variantes: distribución muestral de otros estadísticos o estimadores de
distribución conocida o no, realización de contrastes de hipótesis, obteniendo
niveles de significación empíricos o construcción de curvas de potencia de
contraste, etc.

5.5.2. Selección de la mejor configuración.


La experiencia docente del autor muestra que, una vez realizada por el profesor
una sesión de simulación, es posible encargar a los alumnos la realización como
trabajo personal (de carácter voluntario, obviamente) de algunas de estas
extensiones sugeridas.

5.5.3. Recomendaciones para la implantación.


Los resultados obtenidos son altamente positivos en general: además de servir
para una comprensión más profunda y complementaria de los conceptos teóricos,
se desarrolla el pensamiento científico y analítico y se mejoran las capacidades de
modelización de problemas.

5.6. Uso de la hoja de cálculo en los proyectos de simulación del grupo (si procede).

Para introducir los datos e incógnitas se sigue el formato de magnitud – valor –


unidad. La figura 2, muestra una resolución de la actividad de verificación de la
simulación bajada, en la que se corroboran los valores de volumen que aparecen
en la simulación original.
El ejemplo es sencillo, lo importante es el tipo de actividad que se sugiere realizar
con los estudiantes. Otras propuestas se han llevado a cabo con respecto a la ley
de Boyle-Mariotte, entre ellas, Urzúa y Vargas (2002) muestran una experiencia de
utilización de sensores e interfases como aplicación de nuevas tecnologías, similar
a lo expuesto por Lewis (1997). Por su parte, Sinex (2008) investiga los errores
experimentales que surgen en la demostración de la ley de Boyle con un
simulador interactivo realizado con la hoja de cálculo.

Bibliografías.

https://www.estadisticaparatodos.es/software/excel_simulacion.html
http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S0187-893X2012000100003

También podría gustarte