Está en la página 1de 9

Universidad Autónoma de Tamaulipas

Facultad de Ingeniera de Tampico

Valeria Hernández Guerrero

a2213332267

Ingeniera Industrial y de Sistemas

Sexto Semestre

Grupo C

Modelos de simulación

Profesor Luis Eduardo de la Torre Guzmán

Unidad 2

22 de marzo de 2024
Introducción

En este trabajo se hablará de las variables aleatorias, se tocarán temas y se

responderán preguntas importantes como, ¿Qué son las variables aleatorias?

¿Cuáles son los tipos de variables aleatorias? ¿Qué es una determinación de un tipo

de distribución de un conjunto de datos?, La prueba de Chi-Cuadrado, la prueba de

Anderson-Darling, la prueba de Kolmogorov-Smirnov,etc.

Las variables aleatorias son uno de los conceptos fundamentales en estadística y

probabilidad. Proporcionan un marco para modelar y comprender el

comportamiento de fenómenos que exhiben cierto grado de aleatoriedad.

Las variables aleatorias se utilizan para modelar una amplia gama de fenómenos

en diversas disciplinas, desde la física y la ingeniería hasta la economía y la

biología. Son fundamentales en la formulación de modelos probabilísticos y en la

realización de inferencias sobre fenómenos aleatorios.

El estudio de las variables aleatorias implica comprender sus propiedades, como

la función de distribución de probabilidad, la función de densidad de probabilidad

(en el caso de variables aleatorias continuas), la esperanza matemática (o valor

esperado), la varianza y otros momentos estadísticos. Estas propiedades

proporcionan información importante sobre el comportamiento de la variable


aleatoria y permiten realizar predicciones y tomar decisiones basadas en datos

probabilísticos

Variables Aleatorias

Una variable es aleatoria si su valor está determinado al azar. En gran número de


experimentos aleatorios es necesario, para su tratamiento matemático, cuantificar
los resultados de modo que se asigne un número real a cada uno de los resultados
posibles del experimento.

Tipos de variables aleatorias

Las variables aleatorias pueden ser discretas o continuas, en función de que


tomen un número finito (o infinito numerable) de valores, o bien un número
infinito no numerable de valores, respectivamente.

Variable aleatoria discreta

Una variable aleatoria discreta es un concepto utilizado en estadística y


probabilidad para describir un tipo de variable que puede tomar un conjunto finito
o infinito numerable de valores, pero solo valores específicos dentro de ese
conjunto. Estos valores deben ser contables y separados por espacios discretos.
En otras palabras, una variable aleatoria discreta es aquella cuyos posibles valores
son "contables" y no "continuos".

Por ejemplo, considera el experimento de lanzar un dado justo. La variable


aleatoria X podría representar el número de puntos obtenidos en un solo
lanzamiento del dado. Los posibles valores de X serían {1, 2, 3, 4, 5, 6}, que son
contables y distintos. En este caso, la variable aleatoria es discreta porque solo
puede tomar valores específicos (los números enteros del 1 al 6), y no puede tomar
valores intermedios entre ellos.

Otro ejemplo común de una variable aleatoria discreta es el número de hijos que
tiene una familia. Los posibles valores son 0, 1, 2, 3, etc., que son contables y
separados por espacios discretos.

Variable aleatoria continua

Una variable aleatoria continua es aquella que puede tomar cualquier valor dentro
de un intervalo específico de números reales. A diferencia de las variables
aleatorias discretas, que solo pueden tomar valores específicos, las variables
aleatorias continuas pueden tomar un rango infinito de valores dentro de un
intervalo.

Por ejemplo, la altura de una persona es una variable aleatoria continua. La altura
puede ser medida con una precisión muy fina, y prácticamente cualquier valor
dentro de un rango específico (por ejemplo, entre 100 y 200 centímetros) es posible.
No hay saltos discretos entre los valores de altura posibles; la altura de una
persona puede ser 150.5 cm, 150.51 cm, 150.511 cm, etc.

Otro ejemplo sería el tiempo que tarda un automóvil en recorrer una cierta
distancia. Este tiempo podría ser cualquier valor dentro de un rango continuo de
tiempo, dependiendo de varios factores como la velocidad del automóvil, las
condiciones del tráfico, etc.

Determinación de un tipo de distribución de un conjunto de datos


La determinación del tipo de distribución de un conjunto de datos es un proceso en
estadística que implica identificar el patrón o la forma en la que los datos están
distribuidos. Esto es fundamental para comprender mejor las características de los
datos y para aplicar técnicas estadísticas adecuadas en su análisis.

Determinar el tipo de distribución de un conjunto de datos implica analizar


visualmente los datos mediante gráficos como histogramas o diagramas de
dispersión, y también puede implicar el uso de pruebas estadísticas específicas
para evaluar si los datos siguen un patrón particular de distribución. Esto es
importante para seleccionar el mejor enfoque estadístico para el análisis de los
datos y para hacer inferencias precisas sobre la población subyacente

Prueba de Chi-Cuadrada
La prueba de Chi-Cuadrado es un procedimiento estadístico utilizado para
determinar si existe una diferencia significativa entre los resultados esperados y
los observados en una o más categorías.

Se trata de una prueba no paramétrica que es utilizada por los investigadores


para examinar las diferencias entre variables categóricas en la misma población.
También puede utilizarse para validar o proporcionar un contexto adicional para
las frecuencias observadas.

La idea básica de la prueba es que se comparan los valores de los datos reales con
lo que se esperaría si la hipótesis nula fuera cierta.

De esta forma, se busca determinar si una diferencia entre los datos observados y
los esperados se debe al azar, o si se debe a una relación entre las variables que
se están estudiando.

La prueba de Chi-cuadrado es una excelente opción para comprender e interpretar


la relación entre dos variables categóricas.

La tabulación cruzada presenta las distribuciones de dos variables categóricas


simultáneamente, con las intersecciones de las categorías de las variables que
aparecen en las celdas de la tabla.
El cálculo estadístico de Chi-Cuadrado y su comparación con un valor crítico de la
distribución Chi-Cuadrado permite al investigador evaluar si los recuentos de
celdas observados son significativamente diferentes de los recuentos de celdas
esperados.

Debido a la forma en que se calcula el valor de Chi-Cuadrado, es extremadamente


sensible al tamaño de muestra: cuando el tamaño de la muestra es demasiado
grande (~500), casi cualquier pequeña diferencia parecerá estadísticamente
significativa.

También es sensible a la distribución dentro de las celdas. Esto puede solucionarse


utilizando siempre variables categóricas con un número limitado de categorías.

¿Cómo realizar una prueba de Chi-Cuadrado?

1. Define tus hipótesis nula y alternativa antes de iniciar la recolección de


datos.
2. Decide cuál será el valor alfa. Esto implica decidir el riesgo que estás
dispuesto a asumir de llegar a una conclusión errónea. Por ejemplo,
supongamos que fijamos un valor α=0,05 para las pruebas de
independencia. En este caso, has decidido un riesgo del 5 % de concluir
que las dos variables son independientes, cuando en realidad no lo son.
3. Comprueba los datos para ver si hay errores.
4. Comprueba los supuestos de la prueba.
5. Realiza la prueba y obtén tus conclusiones.

Prueba de Kolmogorov – Smirnov


El procedimiento Prueba de Kolmogorov-Smirnov para una muestra compara la
función de distribución acumulada observada de una variable con una distribución
teórica determinada, que puede ser la normal, la uniforme, la de Poisson o la
exponencial. La Z de Kolmogorov-Smirnov se calcula a partir de la diferencia
mayor (en valor absoluto) entre las funciones de distribución acumuladas teórica
y observada. Esta prueba de bondad de ajuste contrasta si las observaciones
pudieran razonablemente proceder de la distribución especificada.
Se trata de una prueba de bondad de ajuste, es decir, sirve para verificar si las
puntuaciones que hemos obtenido de la muestra siguen o no una distribución
normal. Es decir, permite medir el grado de concordancia existente entre la
distribución de un conjunto de datos y una distribución teórica específica. Su
objetivo es señalar si los datos provienen de una población que tiene la distribución
teórica especificada, es decir, lo que hace es contrastar si las observaciones
podrían razonablemente proceder de la distribución especificada.
La prueba de Kolmogórov-Smirnov aborda la siguiente pregunta: ¿Provienen las
observaciones de la muestra de alguna distribución hipotética?
Hipótesis nula e hipótesis alternativa
Como prueba de bondad de ajuste, responde a la pregunta de: “¿la distribución
muestral (empírica) se ajusta a la poblacional (teórica)?”. En este caso, la hipótesis
nula (H0) establecerá que la distribución empírica es similar a la teórica (la
hipótesis nula es la que no se intenta rechazar). En otras palabras, la hipótesis nula
establecerá que la distribución de frecuencias observada es consistente con la
distribución teórica (y que se da por lo tanto un buen ajuste).
En contraste, la hipótesis alternativa (H1) establecerá que la distribución de
frecuencias observada no es consistente con la distribución teórica (mal ajuste).
Como en otras pruebas de contraste de hipótesis, el símbolo α (alfa) indicará el
nivel de significación de la prueba.
¿Cómo se calcula?
El resultado de la prueba de Kolmogórov-Smirnov se representa mediante la letra
Z. La Z se calcula a partir de la diferencia mayor (en valor absoluto) entre las
funciones de distribución acumuladas teórica y observada (empírica).
Prueba de Anderson –Darling

La prueba de Anderson-Darling es una prueba de bondad de ajuste utilizada en


estadísticas para determinar si una muestra de datos proviene de una población
con una distribución específica, como la distribución normal. Fue desarrollada por
Theodore Wilbur Anderson y Donald A. Darling en 1952.

La prueba de Anderson-Darling se basa en la comparación entre la función de


distribución acumulada empírica (ECDF) de los datos observados y la función de
distribución acumulada teórica de la distribución de referencia. La prueba calcula
una estadística de prueba basada en las diferencias entre las dos funciones de
distribución acumulada.
La hipótesis nula (\(H_0\)) de la prueba de Anderson-Darling es que los datos
provienen de una población con la distribución especificada. La hipótesis
alternativa (\(H_1\)) es que los datos no provienen de la distribución especificada.

La estadística de prueba de Anderson-Darling se calcula como la suma ponderada


de los cuadrados de las diferencias entre la función de distribución acumulada
empírica y la función de distribución acumulada teórica, ajustada por ciertos
coeficientes que dependen de la distribución que se está probando. Cuanto mayor
sea el valor de la estadística de prueba, mayor será la evidencia en contra de la
hipótesis nula, lo que indica una peor bondad de ajuste entre los datos y la
distribución teórica.

La prueba de Anderson-Darling es más sensible a las diferencias en la cola de la


distribución que otras pruebas de bondad de ajuste, como la prueba de
Kolmogorov-Smirnov. Por lo tanto, es especialmente útil cuando se desea detectar
desviaciones significativas de la distribución teórica en las colas de la distribución.

Es importante tener en cuenta que la prueba de Anderson-Darling requiere que se


especifique la distribución teórica que se está probando.
Conclusión
Para finalizar, gracias a toda investigación y la información recopilado podemos
observar la importancia de las variables aleatorias en campos como ingeniera,
estadística, probabilidad, finanzas, ciencias de la salud, ciencias naturales,
tecnología de información, etc.

Las variables aleatorias son fundamentales en esta amplia variedad de campos y


disciplinas pues en ellas se requiere modelar y analizar fenómenos que exhiben
incertidumbre y variabilidad. Su uso permite tomar decisiones informadas,
realizar predicciones y comprender mejor el mundo que nos rodea.

También podemos concluir que gracias a que cada tipo de variable aleatoria tiene
distintas características se puede adaptarse a más campos, dar respuesta a los
distintos escenarios con distintas características y/o necesidades.

También podría gustarte