Está en la página 1de 16

UNIDAD 4.

Diseño de la Calidad de la Simulación


4.1. Lista de estimadores a obtener de la simulación.
Hasta ahora hemos estudiado cómo simular probabilidades de elección pero no
hemos estudiado las propiedades de los estimadores de los parámetros que se
basan en estas probabilidades simuladas. En los casos que hemos presentado,
simplemente hemos insertado las probabilidades simuladas en la función log-
verosimilitud y hemos maximizada dicha función, de la misma forma que lo
habríamos hecho si las probabilidades hubieran sido exactas. Este procedimiento
parece intuitivamente razonable. Sin embargo, no hemos mostrado realmente, al
menos hasta ahora, que el estimador resultante tenga propiedades deseables,
como consistencia, normalidad asintótica o eficiencia. Tampoco hemos explorado
la posibilidad de que otras formas de estimación puedan ser preferibles cuando
usamos simulación, en lugar de las probabilidades exactas. El propósito de este
capítulo es examinar varios métodos de estimación en el contexto de la
simulación. Derivaremos las propiedades de estos estimadores y mostraremos las
condiciones en las que cada estimador es consistente y asintóticamente
equivalente al estimador que obtendríamos si usásemos valores exactos en lugar
de simulación. Estas condiciones proporcionan una guía al investigador sobre
cómo debe llevarse a cabo la simulación para obtener estimadores con
propiedades deseables. El análisis también pone en evidencia las ventajas y
limitaciones de cada forma de estimación, facilitando así la elección del
investigador entre los diferentes métodos.
Las técnicas de simulación en estadística, como son los métodos de Monte Carlo,
y los procedimientos de re muestreo conocidos como bootstrap, son de gran
utilidad cuando no tenemos expresiones cerradas para calcular medidas de
incertidumbre como son la desviación estándar de estimadores y los intervalos de
confianza. Estos métodos de simulación permiten obtener estimaciones con
menores supuestos que los métodos analíticos, a cambio de un trabajo
computacional más intenso. La disponibilidad creciente de los recursos
computacionales, hacen de las técnicas de simulación una herramienta de uso
creciente. En este trabajo se discuten estas técnicas de simulación, y se ilustran
con ejemplos sencillos.
En el contexto estadístico, entendemos por simulación, la técnica de muestreo
estadístico controlado, que se utiliza conjuntamente con un modelo, para obtener
respuestas aproximadas a preguntas que surgen en problemas complejos de tipo
probabilístico. En metrología, el proceso de medición es de naturaleza
probabilística y los modelos de medición con frecuencia son complejos [1]. Estas
dos características del proceso de medición, complejidad y aleatoriedad, hacen del
análisis de datos de medición un área de oportunidad natural para los métodos de
simulación.
4.1.1. Instrumentos de medición.
Un instrumento de medición es aquel elemento empleado con el propósito de
contrastar magnitudes físicas distintas a través de un procedimiento de medición.
Se clasifican de acuerdo a la magnitud física que se desee medir:
Instrumentos desarrollados para medir la masa:
BALANZA: es un tipo de palanca constituida por brazos análogos, la cual a través
del equilibrio obtenido entre pesos de dos elementos permite la medición de
masas.
CATARÓMTERO: con este término se designa al instrumento capaz de medir
ciertas concentraciones de gas, teniendo en cuenta una comparación de la
conductividad térmica.
BÁSCULA: la palabra proviene del francés bascule y se refiere a un dispositivo
empleado para estipular la masa de un cuerpo. Suelen constituirse por una base
en posición horizontal, en la cual se ubica el cuerpo a pesar. Gracias a este
sistema, es posible establecer el peso de elementos de gran magnitud de manera
sencilla.
Instrumentos utilizados para medir el tiempo:
CALENDARIO: consiste en un elemento creado con el propósito de llevar una
contabilización del tiempo. La mayor parte de éstos se llaman calendarios solares.
Esto es porque toman como referencia el período empleado por la tierra para dar
una  vuelta alrededor del sol.
CRONÓMETRO: es un elemento ubicado dentro de las categorías de los relojes
cuyo objetivo consiste en la medición de fracciones mínimas de tiempo.
RELOJ: el término se refiere al elemento capaz de medir el tiempo, por medio de
la división del mismo en horas, minutos y segundos.
DATACIÓN RADIOMÉTRICA: a través de esta proceso es posible fijar con
exactitud la edad de los minerales, rocas, etc. consiste en la realización de un
análisis tanto de un isótopo padre como un hijo, cuya vida media es conocida. Un
ejemplo de este procedimiento es la datación por radiocarbono, llevada a cabo a
partir de la desintegración del carbono 14.
Instrumentos empleados para la medición de longitud:
CINTA MÉTRICA: a través de la misma es posible la medición de una superficie
determinada. Se basa en una cinta graduada y de gran maleabilidad, lo cual
permite medir áreas formadas por curvas.
CALIBRADOR: este instrumento se emplea con el fin de medir extensiones de
aquellos elementos de tamaño reducido. Otorga la posibilidad de apreciar tanto
centímetros como unidades milimétricas.
4.1.2. Medios de registro de datos.
Es la acción que se refiere a almacenar algo o a dejar constancia de ello en algún
tipo de documento. Un dato, por su parte, es una información que posibilita el
acceso a un conocimiento. La noción de registro de datos, por lo tanto, está
vinculada a consignar determinadas informaciones en un soporte. El registro de
datos puede desarrollarse tanto en un papel como en formato digital. Por
ejemplo: “Apenas llegué a la oficina, un empleado administrativo me pidió mis
documentos y procedió al registro de datos en una planilla”, “Gracias a esta nueva
herramienta tecnológica que acabamos de incorporar, el registro de datos será
mucho más veloz”, “Tenemos problemas con el registro de datos ya que el
sistema no está funcionando bien: le pido disculpas por las molestias”.
La policía de todo el mundo encuentra precisamente en los registros de datos una
de sus herramientas más útiles y eficaces de trabajo. Y es que los mismos le
permiten tener acceso inmediato a la identidad de personas sobre las que desee
conocer algún tipo de información concreto. Exactamente las autoridades cuentan
con registros donde tienen almacenados numerosos aspectos de la ciudadanía
tales nombres y apellidos, domicilio, edad, sexo, estado civil, nombre de los
padres, fecha y lugar de nacimiento, fotografías, huellas digitales, trabajo… Todo
eso y mucho más sin olvidar tampoco las infracciones que haya podido cometer e
incluso la ficha policial, en el caso de que la posean por haber realizado algún
delito.
En el ámbito de la informática, se conoce como registro de datos al bloque con
información que forma parte de una tabla. Esto quiere decir que, en una base de
datos, el registro de datos es una fila.
Esta fila o registro supone un conjunto de datos que mantienen una cierta
vinculación entre sí. La totalidad de las filas de una tabla respeta una estructura
idéntica, una característica que permite trabajar y hacer cálculos con la
información. La tabla, en definitiva, constituye la base de datos.
Para poder llevar a cabo el citado registro, se hace necesario recurrir al uso de la
tecnología que existe y que facilita no sólo el llevarlo al día y poder consultarlo
cuando sea imprescindible sino también poder ir rellenando nuevas filas y
columnas. Existen diversos programas específicos para ello, no obstante, uno de
los más utilizados en todo el mundo es Microsoft Excel.
Se conoce como registro de datos biométricos, por otra parte, a la recopilación de
información vinculada a la biometría de una persona. Se trata de datos que
contribuyen a la identificación del sujeto en cuestión: una huella digital, una
fotografía, etc.

4.2. Identificación del estimador determinante (estimador líder) del tamaño


de la simulación.
En la estadística tiene un papel destacado la noción de MUESTRA ALEATORIA.
Una muestra aleatoria de tamaño n es:
·         Una colección de n variables aleatorias.
·         Todas con la misma distribución.
·         Todas independientes.
Esta definición idealiza la operación de repetir n veces la observación de la misma
variable aleatoria, siendo las repeticiones independientes una de otra. La
colección de donde extraemos la muestra aleatoria, se denomina POBLACIÓN.
Nuestra intención al tomar una muestra, es la de hacer INFERENCIA. Este
término lo usamos en estadística para denotar al procedimiento con el que
hacemos afirmaciones acerca de valores generales de la población mediante los
números que observamos en la muestra. Quizá un ejemplo aclare las ideas.
Suponga que observamos el proceso de fabricación de las ``bolitas'' que se le
ponen al envase de los desodorantes ``roll on''. No todas las bolitas van a tener el
mismo diámetro, si escogemos, al azar una bolita, tendremos un valor para el
diámetro que es una variable aleatoria. Podemos suponer que los diámetros
tienen la distribución normal, debido a nuestra experiencia con el proceso,
conocemos que la desviación estándar de la población es de 4 mm
(aproximadamente). Pero, también por experiencia, sabemos que el diámetro
promedio puede variar por desajuste de la maquinaria productora. De modo que
tenemos:
·         Una POBLACIÓN, que son todas las bolitas que se producen.
·         Un PARÁMETRO de la población conocido (o casi) que es la desviación
estándar.
·         Otro PARÁMETRO cuyo valor es desconocido: la media.
Para tratar de conocer el valor del parámetro que desconocemos, tomamos una
MUESTRA de las bolitas. Supongamos que son 100 bolitas en la muestra. Con un
instrumento de precisión, y con mucho cuidado, medimos los diámetros de las 100
bolitas de la muestra y calculamos su promedio.
¿Qué nos dice el valor de la media de la muestra respecto a la media de la
población?
· Por un lado, definitivamente la media de la muestra NO va a ser igual a la de la
población.

4.3. Muestras preliminares de los proyectos aprobados en 3.4.


El Volumen 4 relativo a Seguridad Estructural, está integrado por siete tomos o
partes y en ellos se registra la normatividad técnica relativa a las especificaciones,
diseño y cálculo de estructuras destinadas a la construcción de Infraestructura
Física Educativa, puntualizando que esta normatividad técnica es de observancia
obligatoria en los términos que marca la Ley General de la Infraestructura Física
Educativa (publicada el 1 de febrero del 2008) siendo aplicable a todas las
edificaciones y espacios que formen parte integrante de un plantel escolar,
independientemente del uso particular al que esté destinado. La Normatividad
Técnica consignada en el Volumen 4, es una selección de Normas y
Especificaciones Técnicas tomadas de diversos documentos oficiales vigentes y
comprende una serie de reglas y principios de carácter no limitativo, aplicables
específicamente a la construcción de espacios y edificaciones escolares que
pueden ser emplazadas en cualquier localidad del territorio nacional y que por su
importancia y naturaleza se clasifican dentro Grupo A (construcciones cuya falla
estructural podría causar la pérdida de un número elevado de vidas) y que por ello
deberán brindar a la población usuaria un nivel de seguridad óptimo y que
adicionalmente en un eventual caso de desastre puedan estas, utilizarse como
albergues o refugios de carácter temporal en la zona afectada. Así mismo se
introducen algunos criterios que ha establecido este Instituto como producto de la
experiencia adquirida en la construcción de este tipo de inmuebles.
Toda estructura y cada una de sus partes, deberán diseñarse para ofrecer una
seguridad adecuada contra la aparición de todo estado límite de falla posible ante
las combinaciones de acciones más desfavorables que pudieran presentarse
durante su vida útil, además no se rebasará ningún estado límite de servicio ante
las combinaciones de acciones que correspondan a las condiciones normales de
operación.
Se presentará con el agotamiento definitivo de la capacidad de carga de una
estructura o de cualquiera de sus miembros; o por el hecho de que, sin agotar su
capacidad de carga la estructura sufra daños irreversibles que afecten su
resistencia ante nuevas aplicaciones de carga. Se considerará que se presenta el
estado límite de falla dúctil, cuando la capacidad de carga de la sección, elemento
o estructura, se mantenga para deformaciones apreciables mayores que las
existentes antes de alcanzar el estado límite.

4.4. Características estadísticas del estimador líder.


Es un estadístico (es decir, es una función de la muestra) usado para estimar un
parámetro desconocido de la población. Por ejemplo, si se desea conocer el
precio medio de un artículo (el parámetro desconocido) se recogerán
observaciones del precio de dicho artículo en diversos establecimientos (la
muestra) y la media aritmética de las observaciones puede utilizarse como
estimador del precio medio.
Para cada parámetro pueden existir varios estimadores diferentes. En general,
escogeremos el estimador que posea mejores propiedades que los restantes,
como insesgadez, eficiencia, convergencia y robustez (consistencia).
SESGO:
Se denomina sesgo de un estimador a la diferencia entre la esperanza (o valor
esperado) del estimador y el verdadero valor del parámetro a estimar. Es deseable
que un estimador sea insesgado o centrado, es decir, que su sesgo sea nulo por
ser su esperanza igual al parámetro que se desea estimar.
Por ejemplo, si se desea estimar la media de una población, la media aritmética de
la muestra es un estimador insesgado de la misma, ya que su esperanza (valor
esperado) es igual a la media de la población.
EFICIENCIA:
Un estimador es más eficiente o preciso que otro, si la varianza del primero es
menor que la del segundo.
CONVERGENCIA:
Para estudiar las características de un estimador no solo basta con saber el sesgo
y la varianza, sino que además es útil hacer un análisis de su comportamiento y
estabilidad en el largo plazo, esto es, su comportamiento asintótico. Cuando
hablamos de estabilidad en largo plazo, se viene a la mente el concepto de
convergencia. Luego, podemos construir sucesiones de estimadores y estudiar el
fenómeno de la convergencia. Comportamiento Asintótico: En el caso de las
variables aleatorias, existen diversos tipos de convergencia, dentro de las cuales
podemos distinguir:
-Convergencia en probabilidad (o débil).
-Convergencia casi segura (o fuerte).
-Convergencia en media cuadrática.
-Convergencia en distribución.
CONSISTENCIA:

4.4.1. Establecimiento de la precisión.


En Otras opciones, puede establecer la precisión de datos, asociar menús
contextuales al formulario y activar variables de usuario dinámicas.
Controle la precisión de los datos aplicando valores mínimos y máximos para
diferentes tipo de cuenta. Por ejemplo, puede truncar y redondear la parte decimal
de los números más largos.
Para establecer la precisión del formulario y otras opciones:
Abra el formulario y, a continuación, haga clic en Otras opciones.
En Precisión, seleccione opciones para establecer el número de posiciones
decimales visibles en una celda para Valores de moneda, Valores no de
moneda y Valores porcentuales.
Especifique los valores oportunos en Mínimo para agregar ceros a los números
con pocos decimales. Especifique los valores oportunos en Máximo para truncar y
redondear la parte decimal de los números más largos.
En la pestaña Pruebas del cuadro de diálogo Preferencias de ejecución se
establecen las preferencias que detienen una simulación: número de pruebas,
errores de cálculo y control de precisión. Para obtener instrucciones generales,
consulte (Establecimiento de preferencias de ejecución).
La simulación actual se debe restablecer para que surta efecto la configuración del
control de la precisión.
La pestaña Pruebas del cuadro de diálogo Preferencias de ejecución tiene la
siguiente configuración:
Número de pruebas para ejecutar: define el número máximo de pruebas que
Crystal Ball ejecuta antes de detener la simulación. Si selecciona una de las
casillas de verificación de este cuadro de diálogo, Cristal Ball sólo utiliza el número
máximo de pruebas si los resultados de la previsión no cumplen antes los otros
criterios de detención.
Detener en errores de cálculo: si está seleccionada esta opción, la simulación se
detiene cuando se produce un error matemático (por ejemplo, la división por cero)
en cualquier celda de previsión. Si se produce un error de cálculo, para ayudarle a
encontrar el error, Cristal Ball no restaura los valores de las celdas. Si no se
producen errores de cálculo, la simulación continúa hasta que se alcanza el valor
de Número de pruebas para ejecutar o (si se ha establecido) cuando se alcanza la
precisión especificada.

4.4.2. Cálculo del número mínimo de observaciones necesarias.


El tamaño de la muestra o cálculo de número de observaciones es un proceso
vital en la etapa de cronometraje, dado que de este depende en gran medida el
nivel de confianza del estudio de tiempos. Este proceso tiene como objetivo
determinar el valor del promedio representativo para cada elemento.
Los métodos más utilizados para determinar el número de observaciones son:
 Método Estadístico
 Método Tradicional 
Este artículo expone un modelo para la determinación del número mínimo de
observaciones en estudios e investigaciones de un solo factor. Para este modelo
se obvió la “predicción” o estimación a priori de la varianza de los datos,
empleando, en su lugar, el valor crítico del nivel de confianza y el valor del poder
estadístico de la prueba o potencia del contraste deseados. La aplicación del
modelo mostró un comportamiento aceptable en varias investigaciones ejecutadas
a nivel experimental en el ámbito académico y puede ser aplicado en estudios de
tecnologías inéditas o con diseños experimentales de un solo factor, en
investigaciones efectuadas con recursos económicos y físicos limitados o en
proyectos en donde se requiera disminuir costes. La ecuación se fundamenta en
los planteamientos probabilísticos de la comparación de proporciones y los
contrastes de hipótesis. El modelo se constituye en un planteamiento alternativo
frente a las expresiones convencionales, en casos donde no es posible estimar la
discrepancia de los datos futuros. Palabras clave: tamaño de la muestra,
investigación de un solo factor, varianza de datos.
En investigación o experimentación, siempre debe recurrirse, en primera instancia,
a la elección del tamaño de la muestra a ser abarcado y posteriormente tratado,
que permitirá obtener datos confiables desde un punto de vista estadístico con los
que se comprobará la hipótesis planteada.
No obstante, es frecuente que el número de observaciones sea definido por el
investigador, en función de la cantidad de dinero o de tiempo disponibles, así
como del lugar o de la mano de obra disponible.

4.4.3. Intervalos de confianza.


En artículos previos hemos abordado cómo analizar en forma crítica la validez de
un estudio de terapia1-3 y cómo expresar los resultados con distintas medidas de
efecto (riesgo absoluto, riesgo relativo, número necesario para tratar). Así, al
momento de aplicar los resultados de un estudio, lo hacemos utilizando el número
que se nos entrega, lo que conocemos como estimador puntual. Si el estudio se
volviera a realizar en condiciones idénticas, pero con una nueva muestra, es
probable que el resultado no sea exactamente igual, ya que el valor que se nos
entrega es una aproximación del valor real. El valor real es el que se obtendría al
aplicar la intervención a la población completa, entendiendo población como el
total de pacientes idénticos a los del estudio dentro de la población general. Este
es el valor que realmente nos interesa aplicar en la práctica clínica.
Utilizando los datos de un estudio podemos estimar un rango en el que se
encuentra con alta probabilidad el valor real, y es precisamente este rango lo que
conocemos como intervalo de confianza.
Este artículo pretende ayudar a los clínicos a comprender e interpretar un intervalo
de confianza, su relación con el tamaño muestra y advertir las diferencias
comparativas con el valor P.
Intervalo de confianza (IC): Definición y propiedades
El intervalo de confianza describe la variabilidad entre la medida obtenida en un
estudio y la medida real de la población (el valor real). Corresponde a un rango de
valores, cuya distribución es normal y en el cual se encuentra, con alta
probabilidad, el valor real de una determinada variable. Esta «alta probabilidad» se
ha establecido por consenso en 95%. Así, un intervalo de confianza de 95% nos
indica que dentro del rango dado se encuentra el valor real de un parámetro con
95% de certeza.
Considerando lo anterior, ampliamos el experimento y realizamos 8 nuevos
lanzamientos (10 en total), resultando 5 caras y 5 sellos. Nuevamente el resultado
es 0,5, sin embargo, ahora intuitivamente nos percatamos que la verdadera
naturaleza de la moneda se encuentra en un rango menos amplio. Por ejemplo, es
poco probable que después de 10 lanzamientos 9 sean sello, menos aún que
todos lo sean, sin embargo, aún es factible que 8 o 7 o 6 sí lo sean. Así, nuestro
nuevo rango puede variar entre 0,2 y 0,8, pero con un alcance: todos advertimos
que si bien 0,8 y 0,2 son posibles, los valores centrales (0,4 y 0,6) lo son más aún,
siendo 0,5 el más probable.

4.5. Muestras definitivas.


Confección de muestras físicas de etiquetas tejidas; Antes de la fabricación de las
etiquetas, el cliente recibe muestras definitivas, fabricadas con los mismos colores,
diseños y materiales que tendrán las etiquetas fabricadas posteriormente según el
pedido. Asimismo, en Exclusive Tarde ofrecemos asesoramiento a todos aquellos
socios que deseen iniciar una producción propia
Especializada en todo lo referente a las etapas y procesos técnicos necesarios,
desde el diseño hasta la fabricación de las muestras definitivas que deberán
someterse, sucesivamente, a las pruebas de venta. 
Dos productores exportadores chinos incluidos en la muestra, solo después de la
comunicación de las conclusiones definitivas, se realizó demasiado tarde para ser
tenida en cuenta.
En lo que respecta a las medidas antidumping definitivas en vigor contra  los
encendedores no recargables de piedra y ciertos.
Estrechamente vinculados a la decisión sobre las cifras globales y la estructura y
duración definitivas del marco financiero
todas las manadas de la explotación, si una de ellas ha dado positivo en las
pruebas de salmonella enteritis o Salmonella typhimurium
efectuadas en muestras tomadas por el explotador de empresa alimentaria, salvo
que la carne de los pavos de las manadas vaya a someterse a tratamiento térmico
industrial u otro tratamiento para eliminar la salmonela, y concluyó que ninguno de
los compromisos ofrecidos tras la comunicación de las
conclusiones definitivas debía de ser aceptado.
 Expresa su máxima preocupación por la continua serie de asesinatos de
conocidas personalidades, como Anna Politkóvskaya, que se oponen al actual
Gobierno ruso o que se alzan en defensa de los derechos fundamentales de los
ciudadanos rusos; subraya que el Consejo y la Comisión deben reaccionar con
toda su autoridad y que la colaboración con Rusia se verá gravemente afectada si
el Gobierno ruso no da muestras de su capacidad y determinación para colaborar
en las investigaciones destinadas a encontrar a los asesinos, cumpliendo con su
deber de poner fin a este círculo vicioso y llevando a los responsables ante la
justicia de que, en el momento de adoptar decisiones concretas definitivas,
el Consejo pueda disponer de los elementos de juicio más fiables que sea posible.
 Una disolución automática online integrada en el transmisor de muestras para la
tecnología de llama así como en el transmisor de muestras de tubo de grafito se
ocupa de una ejecución sin interrupciones de las secuencias de muestras también
con concentraciones de elementos de gran variabilidad.

 
4.5.1. Estadísticas descriptivas.
La estadística descriptiva es la rama de las Matemáticas que recolecta, presenta y
caracteriza un conjunto de datos (por ejemplo, edad de una población, altura de
los estudiantes de una escuela, temperatura en los meses de verano, etc.) con el
fin de describir apropiadamente las diversas características de ese conjunto. Al
conjunto de los distintos valores numéricos que adopta un carácter cuantitativo se
llama variable estadística. Las variables pueden ser de dos tipos: • Variables
cualitativas o categóricas: no se pueden medir numéricamente (por ejemplo:
nacionalidad, color de la piel, sexo).
• Variables cuantitativas: tienen valor numérico (edad, precio de un producto,
ingresos anuales). Las variables también se pueden clasificar en:
• Variables unidimensionales: sólo recogen información sobre una característica
(por ejemplo: edad de los alumnos de una clase).
• Variables bidimensionales: recogen información sobre dos características de la
población (por ejemplo: edad y altura de los alumnos de una clase).
• Variables pluridimensionales: recogen información sobre tres o más
características (por ejemplo: edad, altura y peso de los alumnos de una clase).
Las estadísticas descriptivas resumen cuantitativamente un conjunto de datos.
Para tener una visión global de los datos que se van a analizar, puede mostrar
estadísticas descriptivas junto con análisis más formales.
Puede utilizar estadísticas descriptivas para:
 Ver los promedios, como la media o la mediana.
 Obtener información, como la media de los grupos de interés, que puede
necesitar para interpretar otras pruebas estadísticas.
 Proporcionar representaciones gráficas de los datos, como histogramas y
box-plots.
Estadísticos agrupados o sin agrupar
Puede crear una tabla de estadísticas resumidas, como media, mediana, etc., para
una o varias variables numéricas, basadas en todos los casos. En la tabla
siguiente se muestran los estadísticos descriptivos de los ingresos familiares.

4.5.2. Muestras pequeñas: prueba de Kolmogórov-Smirnov para ajuste de


una distribución de probabilidades continua hipotética (en hoja de cálculo o
con paquete estadístico).
En este capítulo se examinarán pruebas de hipótesis en las que la característica
que se desconoce es alguna propiedad de la forma funcional de la distribución que
se muestrea. Además se discutirán pruebas de independencia de dos variables
aleatorias en las cuales la evidencia muestra se obtiene mediante la clasificación
de cada variable aleatoria en un cierto número de categorías. Este tipo de prueba
recibe el nombre de bondad de ajuste. Para un tamaño específico del error de tipo
I, la hipótesis nula será rechazada si existe una diferencia suficiente entre las
frecuencias observadas y las esperadas.
La hipótesis alternativa es compuesta y a veces no suele estar identificada. El
resultado es que la función potencia es difícil de obtener. En consecuencia, una
prueba de bondad de ajuste no debe usarse por sí misma para aceptar la
afirmación de la hipótesis nula.
Se utiliza para decidir cuándo un conjunto de datos se ajusta a una distribución
dada
Considérese una muestra aleatoria de tamaño n de la distribución de una variable
aleatoria X dividida en k clases exhaustivas e incompatibles, y sea Ni  i = 1, 2,…,
k. el número de observaciones en la i-ésima clase. Considérese la hipótesis nula.
Si existe una concordancia perfecta entre las frecuencias observadas y las
esperadas, el estadístico tendrá un valor igual a cero; por otra parte si las
discrepancias entre estas frecuencias son grandes, el estadístico tomará un valor,
también muy grande. Por ello se desprende que para un valor dado del error de
tipo I, la región crítica estará en el extremo superior la distribución chi-cuadrada
con k-1 grado de libertad.
Una ventaja de la prueba de bondad de ajuste chi-cuadrada es que para valores
grandes de n, la distribución límite chi-cuadrada de la estadística, es
independiente de la forma que tenga la distribución F0(x) propuesta en la hipótesis
H0. Como consecuencia de esto se tiene que la prueba de bondad se utiliza
también para distribuciones de probabilidad en las que F0(x) es continua. Sin
embargo, debe insistirse en que la prueba de bondad es discreta, en el sentido de
que ésta compara frecuencias que se observan y se esperan para un número finito
de categorías.

4.5.3. Muestras grandes: prueba de KarlPearson para ajuste de una


distribución de probabilidades hipotética, discreta o continúa (en hoja de
cálculo o con paquete estadístico).
Karl Pearson fue historiador, escribió sobre folklore, fue un socialista convencido,
abogado, matemático aplicado, biometría, estadístico, maestro y biógrafo. Pero sin
duda su contribución más importante es al nacimiento de la Estadística Aplicada.
Es por lo que le debemos el mayor crédito, en frase de el mismo”. Hasta que los
fenómenos de cualquier rama del conocimiento no hayan sido sometidos a medida
y número, no se puede decir que se trate de una ciencia”. Introdujo el método de
los momentos para la obtención de estimadores, el sistema de curvas de
frecuencias para disponer de distribuciones que pudieran aplicarse a los distintos
fenómenos aleatorios, desarrollo la correlación lineal para aplicarla a la teoría de la
herencia y de la evolución. Introdujo el método de la χ 2 para dar una medida del
ajuste entre datos y distribuciones, para contrastar la homogeneidad entre varias
muestras, y la independencia entre variables. Fundo los Anales de Eugenesia y en
1900, junto con Galton y Weldon, fundó la revista Biométrica de la que fue editor
hasta su muerte. En una descripción autobiográfica decía”una explicación para mi
vida, se debe a una combinación de dos características que he heredado:
capacidad para trabajar mucho y capacidad para relacionar las observaciones de
los demás”. Datos biográficos Nace en Londres en 1857 y muere en 1936, su
familia es originaria de Yorkshire. Hijo de un abogado, estudia en el University
College School. En 1873, a la edad de 16 años fue retirado de la escuela por
motivos de salud, y pasa el año siguiente con un preceptor privado. En 1875
obtuvo una beca para el Kings College, en Cambridge. El decía que Cambridge le
dio, placer en las amistades, placer en las polémicas, placer en el estudio, placer
en la búsqueda de nuevas luces, tanto en las matemáticas como en la filosofía y la
religión; así como ayuda para mantener su radicalismo científico dentro del lımites
moderados y razonables. Con 22 años marcha a Alemania y estudia leyes, física y
metafísica. Entre 1880 y 1884 es profesor de matemáticas en el King College y en
el University College. En 1911 fue el primer profesor de Galton de Eugenesia, la
naciente parte de la Biología encargada de los estudios encaminados a conseguir
la mejora de las especies. Era un darwinista convencido. En el año 1890 se
producen dos sucesos importantes para la trayectoria científica de Pearson;
Galton publica su Herencia Natural donde incluye sus trabajos sobre correlación y
regresión y se incorpora a la cátedra de zoología en el University College de
Londres. Los primeros trabajos le van a dotar de una herramienta, con la que
cuantificar las medidas de dependencia con la que va a poder contrastar, con
resultado positivo, la teoría de la evolución introducida por Darwin.

4.5.4. Otras pruebas: Anderson-Darling, prueba G, por ejemplo.


El estadístico de la prueba se puede entonces comparar contra las distribuciones

del estadístico de prueba (dependiendo que   se utiliza) para determinar el


P-valor.
La prueba de Anderson-Darling es una prueba estadística que permite determinar
si una muestra de datos se extrae de una distribución de probabilidad. En su forma
básica, la prueba asume que no existen parámetros a estimar en la distribución
que se está probando, en cuyo caso la prueba y su conjunto de valores críticos
siguen una distribución libre. Sin embargo, la prueba se utiliza con mayor
frecuencia en contextos en los que se está probando una familia de distribuciones,
en cuyo caso deben ser estimados los parámetros de esa familia y debe tenerse
estos en cuenta a la hora de ajustar la prueba estadística y sus valores críticos.
Cuando se aplica para probar si una distribución normal describe adecuadamente
un conjunto de datos, es una de las herramientas estadísticas más potentes para
la detección de la mayoría de las desviaciones de la normalidad.
Tal vez el método más recomendable para el caso en que F(x) es una distribución
continua es el método para una muestra de Kolmogorov-Smirnov o (K-S). Consiste
en una prueba de hipótesis en el que la hipótesis nula afirma que los datos sí se
ajustan a la distribución F(x) y la hipótesis alterna establece que no se ajustan. El
estadístico de prueba está dado por este valor se compara con el valor crítico que
se encuentra en una tabla. Se rechaza la hipótesis nula si Dc es mayor que el
valor de tabla para el nivel de confianza y el tamaño de muestra que se estén
considerando.
Una parte importante de la inferencia estadística es obtener información acerca de
la población de la cual una muestra aleatoria (m.a.) ha sido extraída. Por ejemplo,
mucha metodología estadística está basada en el supuesto de que la población es
normal; sin embargo, este supuesto debe de ser verificado antes de continuar con
otros aspectos relacionados con la inferencia estadística.
La prueba de Anderson-Darling es usada para probar si una muestra viene de una
distribución especifica. Esta prueba es una modificación de la prueba de
Kolmogorov- Smirnov donde se le da más peso a las colas de la distribución que
la prueba de Kolmogorov-Smirnov.
En estadística, la prueba de Anderson-Darling es una prueba no paramétrica
sobre si los datos de una muestra provienen de una distribución específica. La
fórmula para el estadístico determina si los datos (observar que los datos se
deben ordenar) vienen de una distribución con función acumulativa  F.

4.6. Simulación de los comportamientos aleatorios del proyecto y su


verificación.
Considera determinista. En este caso, el comportamiento del sistema está
determinado una vez que se hayan definido las condiciones iniciales y las
relaciones que existen entre sus componentes. Por el contrario, un sistema no
determinista o estocástico tiene algún elemento que se comporta de forma
aleatoria, de forma que no está predeterminado comportamiento en función de las
condiciones iniciales y de las relaciones entre sus componentes. En este caso, el
sistema sólo se podrá estudiar en términos probabilistas, consiguiendo, en el
mejor de los casos, conocer sus respuestas posibles con sus probabilidades
asociadas. − Sistemas continuos y sistemas discretos. En un sistema continuo las
variables de estado cambian de forma continua a lo largo del tiempo, mientras que
en uno discreto cambian instantáneamente de valor en ciertos instantes de tiempo.
En un sistema de una cierta complejidad puede ocurrir que existan
simultáneamente variables de estado continuas y discretas. En este caso,
dependiendo de la predominancia de una y otras y del objetivo del estudio que se
pretende realizar, se considerará el sistema como perteneciente a uno de los dos
tipos. Tipos de modelos Para estudiar un sistema, la forma más inmediata sería
experimentar sobre él. Sin embargo, esto puede ser desaconsejable, e incluso
imposible, por diversos motivos: − Puede ocurrir que el sistema no exista y lo que
se pretenda sea su diseño. − Puede ser imposible experimentar con el sistema
real porque no se dispone de ningún control sobre dicho sistema; por ejemplo, si
se desea estudiar un sistema financiero, bursátil,... − Puede ser económicamente
inviable la experimentación sobre el sistema real. − La experimentación sobre el
sistema real puede conllevar unos plazos de tiempo muy dilatados. Es el caso, por
ejemplo, de ciertos sistemas sociales o biológicos.
En cualquiera de los casos anteriores se hace necesaria la construcción de un
modelo del sistema que refleje con la fidelidad adecuada las características
destacadas del sistema a analizar y la experimentación sobre dicho modelo. Si se
realiza correctamente la construcción del modelo y el diseño de los experimentos,
los resultados obtenidos permitirán inferir cuál sería el comportamiento del sistema
a analizar en determinadas condiciones.

También podría gustarte