Está en la página 1de 19

INSTITUTO TECNOLÓGICO SUPERIOR DE

TAMAZUNCHALE
SIMULACIÓN
CARRERA: INGENIERÍA INDUSTRIAL
DOCENTE: ING.JOSE GERMAN HERNANDEZ RAMIREZ
UNIDAD 4 DISEÑO DE LA CALIDAD DE LA SIMULACIÓN
EVIDENCIA: RESUMEN DE UNIDADIV
ALUMNO: NUMERO DE CONTROL

LEONARDO RAMOS HERMNADEZ 16IIN20

GRUPO/ TURNO: M1 G12 SEMESTRE: 6°

FECHA DE ENTREGA 08/04/2019


4.1.-Lista de estimadores a obtener de la simulación.

Hasta ahora hemos estudiado cómo simular probabilidades de elección pero no hemos
estudiado las propiedades de los estimadores de los parámetros que se basan en estas
probabilidades simuladas. En los casos que hemos presentado, simplemente hemos insertado
las probabilidades simuladas en la función log-verosimilitud y hemos maximizada dicha
función, de la misma forma que lo habríamos hecho si las probabilidades hubieran sido
exactas. Este procedimiento parece intuitivamente razonable. Sin embargo, no hemos
mostrado realmente, al menos hasta ahora, que el estimador resultante tenga propiedades
deseables, como consistencia, normalidad asintótica o eficiencia. Tampoco hemos explorado
la posibilidad de que otras formas de estimación puedan ser preferibles cuando usamos
simulación, en lugar de las probabilidades exactas. El propósito de este capítulo es examinar
varios métodos de estimación en el contexto de la simulación. Derivaremos las propiedades
de estos estimadores y mostraremos las condiciones en las que cada estimador es consistente
y asintóticamente equivalente al estimador que obtendríamos si usásemos valores exactos en
lugar de simulación. Estas condiciones proporcionan una guía al investigador sobre cómo debe
llevarse a cabo la simulación para obtener estimadores con propiedades deseables. El análisis
también pone en evidencia las ventajas y limitaciones de cada forma de estimación, facilitando
así la elección del investigador entre los diferentes métodos.

Las técnicas de simulación en estadística, como son los métodos de Monte Carlo, y los
procedimientos de re muestreo conocidos como bootstrap, son de gran utilidad cuando no
tenemos expresiones cerradas para calcular medidas de incertidumbre como son la desviación
estándar de estimadores y los intervalos de confianza. Estos métodos de simulación permiten
obtener estimaciones con menores supuestos que los métodos analíticos, a cambio de un
trabajo computacional más intenso. La disponibilidad creciente de los recursos
computacionales, hacen de las técnicas de simulación una herramienta de uso creciente. En
este trabajo se discuten estas técnicas de simulación, y se ilustran con ejemplos sencillos. En
el contexto estadístico, entendemos por simulación, la técnica de muestreo estadístico
controlado, que se utiliza conjuntamente con un modelo, para obtener respuestas aproximadas
a preguntas que surgen en problemas complejos de tipo probabilístico. En metrología, el
proceso de medición es de naturaleza probabilística y los modelos de medición con frecuencia
son complejos. Estas dos características del proceso de medición, complejidad y aleatoriedad,
hacen del análisis de datos de medición un área de oportunidad natural para los métodos de
simulación.

4.1.1.- INSTRUMENTOS DE MEDICION.

Se entiende por medición de un sistema eléctrico a la operación de un conjunto de diferentes


aparatos conectados a los secundarios de los transformadores de instrumentos de corriente y
potencial, que miden las magnitudes de los diferentes parámetros eléctricos de las
instalaciones de alta y baja tensión, así como de los dispositivos auxiliares de la subestación
de que se trate.

En un sistema eléctrico es importante conocer; la corriente, la tensión, frecuencia, F.P.,


potencia activa y reactiva, temperatura, etc.

Es recomendable definir las zonas de medición las cuales son encaminadas para indicar los
parámetros antes mencionados.

¿Qué son y para que se utilizan los equipos de medición?

La realización de los estudios para conocer el estado de las instalaciones eléctricas requiere
de un análisis en el lugar que arroja los resultados de las mediciones y emite procedimientos
para la prevención, identificación y resolución de estos problemas en los sistemas de potencia.

Esto se debe gracias a la tecnología disponible para el control y actualización de sistemas de


potencia que nos provee de las siguientes ventajas:

1. Reducción de riesgos

2. Reducción de esfuerzos de Ingeniería

3. Mucha mayor eficiencia durante y después de los procesos

Existen diferentes perturbaciones en las redes eléctricas de distribución, entre las más usuales
tenemos: variaciones de voltaje, sobre tensiones transitorias, interrupciones de energía, ruido
eléctrico (interferencias) y distorsiones armónicas.
El mantenimiento preventivo en instalaciones de equipos de protección y de control es parte
de las herramientas que pueden utilizarse para poder conservar un sistema de potencia, así
como para tener un uso eficiente de la energía eléctrica.

4.1.2.-Medios de registro de datos

Características

Los lenguajes de simulación ofrecen mayores ventajas, porque:

Automáticamente proveen muchas de las facilidades necesarias en la simulación del modelo.


Proveen un natural ambiente para modelamiento de la simulación. Son fáciles de usar.
Proveen una gran interacción entre edición, depuración y ejecución. Alcanzando algunos de
ellos implantación de la ingeniería de software. Existen en el mercado dos grandes clases de
software para simulación: los lenguajes y los simuladores. Un lenguaje de simulación es un
software de simulación de naturaleza general y posee algunas características especiales para
ciertas aplicaciones, tal como ocurre con SLAM 11 y SIMAN con sus módulos de manufactura.
El modelo es desarrollado usando las instrucciones adecuadas del lenguaje y permitiendo al
analista un gran control para cualquier clase de sistema.

CACI Products Company autor de SIMSCRIPT 11.5 es también autor de los simuladores
SIMFACTORY 11.5, NETWORK 11.5 y COMNET 11.5, muy utilizados en estos últimos
tiempos para simulaciones de sistemas de manufacturas, redes de computadoras y redes de
telecomunicaciones.

Para procesar transacciones en espera de un ordenamiento, un lenguaje de simulación debe


proporcionar un medio automático de almacenamiento y recuperación de estas entidades.
Atendiendo a la orientación del modelamiento de una simulación discreta, existen tres formas:

1. Programación de eventos. 2. Procesos. 3. Examinación de actividades.

La elección del método depende de la estrategia de recopilación de datos, el tipo de variable,


la precisión necesaria, el punto de recopilación y la formación del encuestador. Las vínculos
entre una variable, su origen y los métodos prácticos para su recopilación. Pueden ayudar a
escoger métodos apropiados. Los principales métodos de recopilación de datos son:
Registros: los registros y licencias son particularmente valiosos para los censos completos,
pero se limitan a variables que cambian lentamente, como el número de embarcaciones
pesqueras y sus características.

Cuestionarios: formularios que los encuestados devuelven cumplimentados. Un método poco


costoso que resulta útil cuando los índices de alfabetización son altos y los encuestados
colaboran.

Entrevistas: formularios que se cumplimentan a lo largo de una entrevista con el encuestado.


Más caros que los cuestionarios, pero mejores para preguntas más complejas, y cuando se
dan unos índices de alfabetización bajos o se encuentra menos colaboración.

Observaciones directas: la realización de mediciones directas es el método más preciso para


todas las variables, como las capturas, pero a menudo resulta caro. Muchos métodos, como
los programas de observación, se limitan a la pesca industrial.

Presentación de informes: la principal alternativa a la realización de mediciones directas


consiste en pedir a los pescadores y a terceros que presenten informes de sus actividades. La
preparación de informes presupone la alfabetización y requiere espíritu de colaboración, pero
ello puede reforzarse mediante una obligación legal y mediciones directas.

Las técnicas de recogida de la información no son un fin en si mismo, sino que dependen de:

a- El tipo de investigación que se esté haciendo.

b- El tipo de análisis de datos que vamos a utilizar posteriormente.

c- El problema que queramos estudiar.

d- Los objetivos que pretendamos alcanzar con la investigación.

Algunas técnicas se pueden utilizar en distintos diseños, por ejemplo la entrevista se puede
utilizar en: investigación acción, en estudios de caso, en investigación etnográfica, etc.
4.2.- Identificación del estimador determinante (estimador líder) del
tamaño de la simulación.

Un estimador es un estadístico (una función de la muestra) utilizado para estimar un parámetro


desconocido de la población. Por ejemplo, si se desea conocer el precio medio poblacional de
un artículo (parámetro desconocido) se recogen observaciones del precio de dicho artículo en
diversos establecimientos (muestra) pudiendo utilizarse la media aritmética de las
observaciones para estimar el precio medio poblacional. Para cada parámetro pueden existir
varios estimadores diferentes. En general, se elige el estimador que posea mejores
propiedades que los restantes, como insesgadez, eficiencia, convergencia y robustez
(consistencia). El valor de un estimador proporciona una estimación puntual del valor del
parámetro en estudio. En general, se realiza la estimación mediante un intervalo, es decir, se
obtiene un intervalo parámetro muestral error muestral dentro del cual se espera se encuentre
el valor poblacional dentro de un cierto nivel de confianza. El nivel de confianza es la
probabilidad de que a priori el valor poblacional se encuentre contenido en el intervalo.

SESGO Se denomina sesgo de un estimador a la diferencia entre la esperanza (valor


esperado) del estimador y el verdadero valor del parámetro a estimar. Es deseable que un
estimador sea insesgado o centrado, esto es, que el sesgo sea nulo para que la esperanza del
estimador sea igual al valor del parámetro que se desea estimar. Por ejemplo, si se desea
estimar la media de una población, la media aritmética de la muestra es un estimador
insesgado de la misma, ya que la esperanza (valor esperado) es igual a la media poblacional.
4.3.-Muestras preliminares de los proyectos aprobados en 3.4

El Volumen 4 relativo a Seguridad Estructural, está integrado por siete tomos o partes y en
ellos se registra la normatividad técnica relativa a las especificaciones, diseño y cálculo de
estructuras destinadas a la construcción de Infraestructura Física Educativa, puntualizando
que esta normatividad técnica es de observancia obligatoria en los términos que marca la Ley
General de la Infraestructura Física Educativa (publicada el 1 de febrero del 2008) siendo
aplicable a todas las edificaciones y espacios que formen parte integrante de un plantel escolar,
independientemente del uso particular al que esté destinado. La Normatividad Técnica
consignada en el Volumen 4, es una selección de Normas y Especificaciones Técnicas
tomadas de diversos documentos oficiales vigentes y comprende una serie de reglas y
principios de carácter no limitativo, aplicables específicamente a la construcción de espacios y
edificaciones escolares que pueden ser emplazadas en cualquier localidad del territorio
nacional y que por su importancia y naturaleza se clasifican dentro Grupo A (construcciones
cuya falla estructural podría causar la pérdida de un número elevado de vidas) y que por ello
deberán brindar a la población usuaria un nivel de seguridad óptimo y que adicionalmente en
un eventual caso de desastre puedan estas, utilizarse como albergues o refugios de carácter
temporal en la zona afectada. Así mismo se introducen algunos criterios que ha establecido
este Instituto como producto de la experiencia adquirida en la construcción de este tipo de
inmuebles. Toda estructura y cada una de sus partes, deberán diseñarse para ofrecer una
seguridad adecuada contra la aparición de todo estado límite de falla posible ante las
combinaciones de acciones más desfavorables que pudieran presentarse durante su vida útil,
además no se rebasará ningún estado límite de servicio ante las combinaciones de acciones
que correspondan a las condiciones normales de operación. Se presentará con el agotamiento
definitivo de la capacidad de carga de una estructura o de cualquiera de sus miembros; o por
el hecho de que, sin agotar su capacidad de carga la estructura sufra daños irreversibles que
afecten su resistencia ante nuevas aplicaciones de carga. Se considerará que se presenta el
estado límite de falla dúctil, cuando la capacidad de carga de la sección, elemento o estructura,
se mantenga para deformaciones apreciables mayores que las existentes antes de alcanzar el
estado límite.
4.4. Características estadísticas del estimador líder.

Es un estadístico (es decir, es una función de la muestra) usado para estimar un parámetro
desconocido de la población. Por ejemplo, si se desea conocer el precio medio de un artículo
(el parámetro desconocido) se recogerán observaciones del precio de dicho artículo en
diversos establecimientos (la muestra) y la media aritmética de las observaciones puede
utilizarse como estimador del precio medio. Para cada parámetro pueden existir varios
estimadores diferentes. En general, escogeremos el estimador que posea mejores
propiedades que los restantes, como insesgadez, eficiencia, convergencia y robustez
(consistencia).

SESGO:

Se denomina sesgo de un estimador a la diferencia entre la esperanza (o valor esperado) del


estimador y el verdadero valor del parámetro a estimar. Es deseable que un estimador sea
insesgado o centrado, es decir, que su sesgo sea nulo por ser su esperanza igual al parámetro
que se desea estimar.

Por ejemplo, si se desea estimar la media de una población, la media aritmética de la muestra
es un estimador insesgado de la misma, ya que su esperanza (valor esperado) es igual a la
media de la población.

EFICIENCIA:

Un estimador es más eficiente o preciso que otro, si la varianza del primero es menor que la
del segundo.

CONVERGENCIA:

Para estudiar las características de un estimador no solo basta con saber el sesgo y la
varianza, sino que además es útil hacer un análisis de su comportamiento y estabilidad en el
largo plazo, esto es, su comportamiento asintótico. Cuando hablamos de estabilidad en largo
plazo, se viene a la mente el concepto de convergencia. Luego, podemos construir sucesiones
de estimadores y estudiar el fenómeno de la convergencia. Comportamiento Asintótico: En el
caso de las variables aleatorias, existen diversos tipos de convergencia, dentro de las cuales
podemos distinguir:
-Convergencia en probabilidad (o débil).

-Convergencia casi segura (o fuerte).

-Convergencia en media cuadrática.

-Convergencia en distribución.

4.4.1. Establecimiento de la precisión.

En Otras opciones, puede establecer la precisión de datos, asociar menús contextuales al


formulario y activar variables de usuario dinámicas. Controle la precisión de los datos aplicando
valores mínimos y máximos para diferentes tipo de cuenta. Por ejemplo, puede truncar y
redondear la parte decimal de los números más largos.

Para establecer la precisión del formulario y otras opciones:

Abra el formulario y, a continuación, haga clic en Otras opciones.

En Precisión, seleccione opciones para establecer el número de posiciones decimales visibles


en una celda para Valores de moneda, Valores no de moneda y Valores porcentuales.

Especifique los valores oportunos en Mínimo para agregar ceros a los números con pocos
decimales.

Especifique los valores oportunos en Máximo para truncar y redondear la parte decimal de los
números más largos.

En la pestaña Pruebas del cuadro de diálogo Preferencias de ejecución se establecen las


preferencias que detienen una simulación: número de pruebas, errores de cálculo y control de
precisión. Para obtener instrucciones generales, consulte (Establecimiento de preferencias de
ejecución).

La simulación actual se debe restablecer para que surta efecto la configuración del control de
la precisión.

La pestaña Pruebas del cuadro de diálogo Preferencias de ejecución tiene la siguiente


configuración:

Número de pruebas para ejecutar: define el número máximo de pruebas que Crystal Ball
ejecuta antes de detener la simulación. Si selecciona una de las casillas de verificación de este
cuadro de diálogo, Cristal Ball sólo utiliza el número máximo de pruebas si los resultados de la
previsión no cumplen antes los otros criterios de detención.

Detener en errores de cálculo: si está seleccionada esta opción, la simulación se detiene


cuando se produce un error matemático (por ejemplo, la división por cero) en cualquier celda
de previsión. Si se produce un error de cálculo, para ayudarle a encontrar el error, Cristal Ball
no restaura los valores de las celdas. Si no se producen errores de cálculo, la simulación
continúa hasta que se alcanza el valor de Número de pruebas para ejecutar o (si se ha
establecido) cuando se alcanza la precisión especificada.

4.4.2. Cálculo del número mínimo de observaciones necesarias.

El tamaño de la muestra o cálculo de número de observaciones es un proceso vital en la etapa


de cronometraje,

dado que de este depende en gran medida el nivel de confianza del estudio de tiempos. Este
proceso tiene como objetivo determinar el valor del promedio representativo para cada
elemento.

Los métodos más utilizados para determinar el número de observaciones son:

 Método Estadístico
 Método Tradicional

Este artículo expone un modelo para la determinación del número mínimo de observaciones
en estudios e investigaciones de un solo factor. Para este modelo se obvió la “predicción” o
estimación a priori de la varianza de los datos, empleando, en su lugar, el valor crítico del nivel
de confianza y el valor del poder estadístico de la prueba o potencia del contraste deseados.
La aplicación del modelo mostró un comportamiento aceptable en varias investigaciones
ejecutadas a nivel experimental en el ámbito académico y puede ser aplicado en estudios de
tecnologías inéditas o con diseños experimentales de un solo factor, en investigaciones
efectuadas con recursos económicos y físicos limitados o en proyectos en donde se requiera
disminuir costes. La ecuación se fundamenta en los planteamientos probabilísticos de la
comparación de proporciones y los contrastes de hipótesis. El modelo se constituye en un
planteamiento alternativo frente a las expresiones convencionales, en casos donde no es
posible estimar la discrepancia de los datos futuros. Palabras clave: tamaño de la muestra,
investigación de un solo factor, varianza de datos. En investigación o experimentación, siempre
debe recurrirse, en primera instancia, a la elección del tamaño de la muestra a ser abarcado y
posteriormente tratado, que permitirá obtener datos confiables desde un punto de vista
estadístico con los que se comprobará la hipótesis planteada. No obstante, es frecuente que
el número de observaciones sea definido por el investigador, en función de la cantidad de
dinero o de tiempo disponibles, así como del lugar o de la mano de obra disponible.

4.4.3. Intervalos de confianza.

En artículos previos hemos abordado cómo analizar en forma crítica la validez de un estudio
de terapia1-3 y cómo expresar los resultados con distintas medidas de efecto (riesgo absoluto,
riesgo relativo, número necesario para tratar). Así, al momento de aplicar los resultados de un
estudio, lo hacemos utilizando el número que se nos entrega, lo que conocemos como
estimador puntual. Si el estudio se volviera a realizar en condiciones idénticas, pero con una
nueva muestra, es probable que el resultado no sea exactamente igual, ya que el valor que se
nos entrega es una aproximación del valor real. El valor real es el que se obtendría al aplicar
la intervención a la población completa, entendiendo población como el total de pacientes
idénticos a los del estudio dentro de la población general. Este es el valor que realmente nos
interesa aplicar en la práctica clínica. Utilizando los datos de un estudio podemos estimar un
rango en el que se encuentra con alta probabilidad el valor real, y es precisamente este rango
lo que conocemos como intervalo de confianza. Este artículo pretende ayudar a los clínicos a
comprender e interpretar un intervalo de confianza, su relación con el tamaño muestra y
advertir las diferencias comparativas con el valor P.

Intervalo de confianza (IC): Definición y propiedades. El intervalo de confianza describe la


variabilidad entre la medida obtenida en un estudio y la medida real de la población (el valor
real). Corresponde a un rango de valores, cuya distribución es normal y en el cual se encuentra,
con alta probabilidad, el valor real de una determinada variable. Esta «alta probabilidad» se ha
establecido por consenso en 95%. Así, un intervalo de confianza de 95% nos indica que dentro
del rango dado se encuentra el valor real de un parámetro con 95% de certeza.

Considerando lo anterior, ampliamos el experimento y realizamos 8 nuevos lanzamientos (10


en total), resultando 5 caras y 5 sellos. Nuevamente el resultado es 0,5, sin embargo, ahora
intuitivamente nos percatamos que la verdadera naturaleza de la moneda se encuentra en un
rango menos amplio. Por ejemplo, es poco probable que después de 10 lanzamientos 9 sean
sello, menos aún que todos lo sean, sin embargo, aún es factible que 8 o 7 o 6 sí lo sean. Así,
nuestro nuevo rango puede variar entre 0,2 y 0,8, pero con un alcance: todos advertimos que
si bien 0,8 y 0,2 son posibles, los valores centrales (0,4 y 0,6) lo son más aún, siendo 0,5 el
más probable.

4.5. Muestras definitivas.

Confección de muestras físicas de etiquetas tejidas; Antes de la fabricación de las etiquetas,


el cliente recibe muestras definitivas, fabricadas con los mismos colores, diseños y materiales
que tendrán las etiquetas fabricadas posteriormente según el pedido. Asimismo, en Exclusive
Tarde ofrecemos asesoramiento a todos aquellos socios que deseen iniciar una producción
propia Especializada en todo lo referente a las etapas y procesos técnicos necesarios, desde
el diseño hasta la fabricación de las muestras definitivas que deberán someterse,
sucesivamente, a las pruebas de venta. Dos productores exportadores chinos incluidos en la
muestra, solo después de la comunicación de las conclusiones definitivas, se realizó
demasiado tarde para ser tenida en cuenta. En lo que respecta a las medidas antidumping
definitivas en vigor contra los encendedores no recargables de piedra y ciertos. Estrechamente
vinculados a la decisión sobre las cifras globales y la estructura y duración definitivas del marco
financiero todas las manadas de la explotación, si una de ellas ha dado positivo en las pruebas
de salmonella enteritis o Salmonella typhimurium efectuadas en muestras tomadas por el
explotador de empresa alimentaria, salvo que la carne de los pavos de las manadas vaya a
someterse a tratamiento térmico industrial u otro tratamiento para eliminar la salmonela, y
concluyó que ninguno de los compromisos ofrecidos tras la comunicación de las conclusiones
definitivas debía de ser aceptado. Expresa su máxima preocupación por la continua serie de
asesinatos de conocidas personalidades, como Anna Politkóvskaya, que se oponen al actual
Gobierno ruso o que se alzan en defensa de los derechos fundamentales de los ciudadanos
rusos; subraya que el Consejo y la Comisión deben reaccionar con toda su autoridad y que la
colaboración con Rusia se verá gravemente afectada si el Gobierno ruso no da muestras de
su capacidad y determinación para colaborar en las investigaciones destinadas a encontrar a
los asesinos, cumpliendo con su deber de poner fin a este círculo vicioso y llevando a los
responsables ante la justicia de que, en el momento de adoptar decisiones concretas
definitivas, el Consejo pueda disponer de los elementos de juicio más fiables que sea posible.
Una disolución automática online integrada en el transmisor de muestras para la tecnología de
llama así como en el transmisor de muestras de tubo de grafito se ocupa de una ejecución sin
interrupciones de las secuencias de muestras también con concentraciones de elementos de
gran variabilidad.

4.5.1. Estadísticas descriptivas.

La estadística descriptiva es la rama de las Matemáticas que recolecta, presenta y caracteriza


un conjunto de datos (por ejemplo, edad de una población, altura de los estudiantes de una
escuela, temperatura en los meses de verano, etc.) con el fin de describir apropiadamente las
diversas características de ese conjunto. Al conjunto de los distintos valores numéricos que
adopta un carácter cuantitativo se llama variable estadística. Las variables pueden ser de dos
tipos:

• Variables cualitativas o categóricas: no se pueden medir numéricamente (por ejemplo:


nacionalidad, color de la piel, sexo).

• Variables cuantitativas: tienen valor numérico (edad, precio de un producto, ingresos


anuales). Las variables también se pueden clasificar en:

• Variables unidimensionales: sólo recogen información sobre una característica (por ejemplo:
edad de los alumnos de una clase).

• Variables bidimensionales: recogen información sobre dos características de la población


(por ejemplo: edad y altura de los alumnos de una clase).

• Variables pluridimensionales: recogen información sobre tres o más características (por


ejemplo: edad, altura y peso de los alumnos de una clase).

Las estadísticas descriptivas resumen cuantitativamente un conjunto de datos. Para tener una
visión global de los datos que se van a analizar, puede mostrar estadísticas descriptivas junto
con análisis más formales.

Puede utilizar estadísticas descriptivas para: Ver los promedios, como la media o la mediana.

Obtener información, como la media de los grupos de interés, que puede necesitar para
interpretar otras pruebas estadísticas.

Proporcionar representaciones gráficas de los datos, como histogramas y box-plots.


Estadísticos agrupados o sin agrupar puede crear una tabla de estadísticas resumidas, como
media, mediana, etc., para una o varias variables numéricas, basadas en todos los casos. En
la tabla siguiente se muestran los estadísticos descriptivos de los ingresos familiares.

4.5.2. Muestras pequeñas: prueba de Kolmogórov-Smirnov para ajuste de


una distribución de probabilidades continua hipotética (en hoja de cálculo
o con paquete estadístico).

En este capítulo se examinarán pruebas de hipótesis en las que la característica que se


desconoce es alguna propiedad de la forma funcional de la distribución que se muestrea.
Además se discutirán pruebas de independencia de dos variables aleatorias en las cuales la
evidencia muestra se obtiene mediante la clasificación de cada variable aleatoria en un cierto
número de categorías. Este tipo de prueba recibe el nombre de bondad de ajuste. Para un
tamaño específico del error de tipo I, la hipótesis nula será rechazada si existe una diferencia
suficiente entre las frecuencias observadas y las esperadas. La hipótesis alternativa es
compuesta y a veces no suele estar identificada. El resultado es que la función potencia es
difícil de obtener. En consecuencia, una prueba de bondad de ajuste no debe usarse por sí
misma para aceptar la afirmación de la hipótesis nula.

Se utiliza para decidir cuándo un conjunto de datos se ajusta a una distribución dada
Considérese una muestra aleatoria de tamaño n de la distribución de una variable aleatoria X
dividida en k clases exhaustivas e incompatibles, y sea Ni i = 1, 2,…, k. el número de
observaciones en la i-ésima clase. Considérese la hipótesis nula.

Si existe una concordancia perfecta entre las frecuencias observadas y las esperadas, el
estadístico tendrá un valor igual a cero; por otra parte si las discrepancias entre estas
frecuencias son grandes, el estadístico tomará un valor, también muy grande. Por ello se
desprende que para un valor dado del error de tipo

I, la región crítica estará en el extremo superior la distribución chi-cuadrada con k-

1 grado de libertad.

Una ventaja de la prueba de bondad de ajuste chi-cuadrada es que para valores grandes de
n, la distribución límite chi-cuadrada de la estadística, es independiente de la forma que tenga
la distribución F0(x) propuesta en la hipótesis H0. Como consecuencia de esto se tiene que la
prueba de bondad se utiliza también para distribuciones de probabilidad en las que F0(x) es
continua. Sin embargo, debe insistirse en que la prueba de bondad es discreta, en el sentido
de que ésta compara frecuencias que se observan y se esperan para un número finito de
categorías.

4.5.3. Muestras grandes: prueba de KarlPearson para ajuste de una


distribución de probabilidades hipotética, discreta o continúa (en hoja de
cálculo o con paquete estadístico).

Karl Pearson fue historiador, escribió sobre folklore, fue un socialista convencido, abogado,
matemático aplicado, biometría, estadístico, maestro y biógrafo. Pero sin duda su contribución
más importante es al nacimiento de la Estadística Aplicada.

Es por lo que le debemos el mayor crédito, en frase de el mismo”. Hasta que los fenómenos
de cualquier rama del conocimiento no hayan sido sometidos a medida y número, no se puede
decir que se trate de una ciencia”. Introdujo el método de los momentos para la obtención de
estimadores, el sistema de curvas de frecuencias para disponer de distribuciones que pudieran
aplicarse a los distintos fenómenos aleatorios, desarrollo la correlación lineal para aplicarla a
la teoría de la herencia y de la evolución. Introdujo el método de la χ 2 para dar una medida
del ajuste entre datos y distribuciones, para contrastar la homogeneidad entre varias muestras,
y la independencia entre variables. Fundo los Anales de Eugenesia y en 1900, junto con Galton
y Weldon, fundó la revista Biométrica de la que fue editor hasta su muerte. En una descripción
autobiográfica decía”una explicación para mi vida, se debe a una combinación de dos
características que he heredado: capacidad para trabajar mucho y capacidad para relacionar
las observaciones de los demás”. Datos biográficos Nace en Londres en 1857 y muere en
1936, su familia es originaria de Yorkshire. Hijo de un abogado, estudia en el University College
School. En 1873, a la edad de 16 años fue retirado de la escuela por motivos de salud, y pasa
el año siguiente con un preceptor privado. En 1875 obtuvo una beca para el Kings College, en
Cambridge. El decía que Cambridge le dio, placer en las amistades, placer en las polémicas,
placer en el estudio, placer en la búsqueda de nuevas luces, tanto en las matemáticas como
en la filosofía y la religión; así como ayuda para mantener su radicalismo científico dentro del
lımites moderados y razonables. Con 22 años marcha a Alemania y estudia leyes, física y
metafísica. Entre 1880 y 1884 es profesor de matemáticas en el King College y en el University
College.
En 1911 fue el primer profesor de Galton de Eugenesia, la naciente parte de la Biología
encargada de los estudios encaminados a conseguir la mejora de las especies. Era un
darwinista convencido. En el año 1890 se producen dos sucesos importantes para la
trayectoria científica de Pearson; Galton publica su Herencia Natural donde incluye sus
trabajos sobre correlación y regresión y se incorpora a la cátedra de zoología en el University
College de Londres. Los primeros trabajos le van a dotar de una herramienta, con la que
cuantificar las medidas de dependencia con la que va a poder contrastar, con resultado
positivo, la teoría de la evolución introducida por Darwin.

4.5.4. Otras pruebas: Anderson-Darling, prueba G, por ejemplo.

El estadístico de la prueba se puede entonces comparar contra las distribuciones del


estadístico de prueba (dependiendo que se utiliza) para determinar el P-valor.

La prueba de Anderson-Darling es una prueba estadística que permite determinar si una


muestra de datos se extrae de una distribución de probabilidad. En su forma básica, la prueba
asume que no existen parámetros a estimar en la distribución que se está probando, en cuyo
caso la prueba y su conjunto de valores críticos siguen una distribución libre. Sin embargo, la
prueba se utiliza con mayor frecuencia en contextos en los que se está probando una familia
de distribuciones, en cuyo caso deben ser estimados los parámetros de esa familia y debe
tenerse estos en cuenta a la hora de ajustar la prueba estadística y sus valores críticos. Cuando
se aplica para probar si una distribución normal describe adecuadamente un conjunto de datos,
es una de las herramientas estadísticas más potentes para la detección de la mayoría de las
desviaciones de la normalidad. Tal vez el método más recomendable para el caso en que F(x)
es una distribución continua es el método para una muestra de Kolmogorov-Smirnov o (K-S).
Consiste en una prueba de hipótesis en el que la hipótesis nula afirma que los datos sí se
ajustan a la distribución F(x) y la hipótesis alterna establece que no se ajustan. El estadístico
de prueba está dado por este valor se compara con el valor crítico que se encuentra en una
tabla. Se rechaza la hipótesis nula si Dc es mayor que el valor de tabla para el nivel de
confianza y el tamaño de muestra que se estén considerando.

Una parte importante de la inferencia estadística es obtener información acerca de la población


de la cual una muestra aleatoria (m.a.) ha sido extraída.
Por ejemplo, mucha metodología estadística está basada en el supuesto de que la población
es normal; sin embargo, este supuesto debe de ser verificado antes de continuar con otros
aspectos relacionados con la inferencia estadística. La prueba de Anderson-Darling es usada
para probar si una muestra viene de una distribución especifica. Esta prueba es una
modificación de la prueba de Kolmogorov- Smirnov donde se le da más peso a las colas de la
distribución que la prueba de Kolmogorov-Smirnov.

En estadística, la prueba de Anderson-Darling es una prueba no paramétrica sobre si los datos


de una muestra provienen de una distribución específica. La fórmula para el estadístico
determina si los datos (observar que los datos se deben ordenar) vienen de una distribución
con función acumulativa F.

4.6. Simulación de los comportamientos aleatorios del proyecto y su


verificación.

Considera determinista. En este caso, el comportamiento del sistema está determinado una
vez que se hayan definido las condiciones iniciales y las relaciones que existen entre sus
componentes. Por el contrario, un sistema no determinista o estocástico tiene algún elemento
que se comporta de forma aleatoria, de forma que no está predeterminado comportamiento en
función de las condiciones iniciales y de las relaciones entre sus componentes. En este caso,
el sistema sólo se podrá estudiar en términos probabilistas, consiguiendo, en el mejor de los
casos, conocer sus respuestas posibles con sus probabilidades asociadas. − Sistemas
continuos y sistemas discretos. En un sistema continuo las variables de estado cambian de
forma continua a lo largo del tiempo, mientras que en uno discreto cambian instantáneamente
de valor en ciertos instantes de tiempo. En un sistema de una cierta complejidad puede ocurrir
que existan simultáneamente variables de estado continuas y discretas. En este caso,
dependiendo de la predominancia de una y otras y del objetivo del estudio que se pretende
realizar, se considerará el sistema como perteneciente a uno de los dos tipos. Tipos de
modelos Para estudiar un sistema, la forma más inmediata sería experimentar sobre él. Sin
embargo, esto puede ser desaconsejable, e incluso imposible, por diversos motivos: − Puede
ocurrir que el sistema no exista y lo que se pretenda sea su diseño. − Puede ser imposible
experimentar con el sistema real porque no se dispone de ningún control sobre dicho sistema;
por ejemplo, si se desea estudiar un sistema financiero, bursátil.
Puede ser económicamente inviable la experimentación sobre el sistema real. − La
experimentación sobre el sistema real puede conllevar unos plazos de tiempo muy dilatados.
Es el caso, por ejemplo, de ciertos sistemas sociales o biológicos. En cualquiera de los casos
anteriores se hace necesaria la construcción de un modelo del sistema que refleje con la
fidelidad adecuada las características destacadas del sistema a analizar y la experimentación
sobre dicho modelo. Si se realiza correctamente la construcción del modelo y el diseño de los
experimentos, los resultados obtenidos permitirán inferir cuál sería el comportamiento del
sistema a analizar en determinadas condiciones.

Bibliografía

RÍOS INSUA, David y otros : Simulación. Métodos y Aplicaciones.2000


Alfaomega - / ra-ma

• HILLIER Frederick S , Lieberman Gerald J.: Introducción a la investigación de


Operaciones. 1997 Mac Graw Hill InterAmericana.

• BIERMAN, Harold Jr. y otros. Análisis cuantitativos para la toma de decisiones.


Novena edición.1995 Addison-Wesley Ibero-Americana.

• HALPIN, Daniel W., Riggs L. S. Planning and Análisis of Constructions


Operations. 1992 Wiley & Sons

• LAW, Averill M., Kelton D. W.: Simulation Modeling & Analysis.- Second Edition-
.1991 Mac Graw Hill

También podría gustarte