0% encontró este documento útil (0 votos)
41 vistas17 páginas

A6 - Bautista - Marvin de Jesus

El documento aborda la teoría de distribuciones de probabilidad continuas, enfocándose en la distribución uniforme, exponencial, gamma y normal, y su aplicación en diversas disciplinas. Se explica cómo las variables aleatorias continuas requieren una función de densidad de probabilidad para modelar fenómenos con infinitos valores posibles, y se presentan ejemplos y problemas prácticos relacionados con estas distribuciones. Además, se discuten las propiedades y características clave de las distribuciones continuas en comparación con las discretas.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
41 vistas17 páginas

A6 - Bautista - Marvin de Jesus

El documento aborda la teoría de distribuciones de probabilidad continuas, enfocándose en la distribución uniforme, exponencial, gamma y normal, y su aplicación en diversas disciplinas. Se explica cómo las variables aleatorias continuas requieren una función de densidad de probabilidad para modelar fenómenos con infinitos valores posibles, y se presentan ejemplos y problemas prácticos relacionados con estas distribuciones. Además, se discuten las propiedades y características clave de las distribuciones continuas en comparación con las discretas.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

ITSA

INGENIERIA INDUSTRIAL

Materia: Probabilidad y Estadística

Clave de asignatura: AEC-1053

Nombre del trabajo: Distribución Uniforme (Continua)

Nombre del docente: Julio Cesar Ortiz Antonio

Nombre del alumno: Marvin de Jesús Bautista Fonseca.

Grupo:204 A

Acayucan Veracruz
INTRODUCCION

La teoría de las distribuciones de probabilidad continuas es fundamental en


estadística y probabilidad, ya que permite modelar fenómenos en los que las variables
aleatorias pueden asumir un número infinito de valores dentro de un intervalo. A
diferencia de las distribuciones discretas, donde cada valor tiene una probabilidad
específica asignada, las distribuciones continuas requieren una función de densidad
de probabilidad para describir la variabilidad de los datos.

En esta investigación documental, se exploran las principales distribuciones de


probabilidad continua, incluyendo la distribución uniforme, exponencial, gamma y
normal. Cada una de estas distribuciones tiene aplicaciones clave en diversas
disciplinas, desde la ingeniería hasta la economía, proporcionando modelos
matemáticos que ayudan a comprender y predecir comportamientos en sistemas
complejos. A través del análisis de sus propiedades y características, se busca
desarrollar una comprensión sólida de cómo estas distribuciones se utilizan para
calcular probabilidades, interpretar datos y hacer inferencias estadísticas.
Unidad 6. Distribución de probabilidad continuas

Cuando una variable aleatoria x es discreta, se puede asignar una probabilidad


positiva a cada uno de los valores que x pueda tomar y obtener la distribución de
probabilidad para x. La suma de todas las probabilidades asociada con los diferentes
valores de x es 1, pero no todos los experimentos resultan en variables aleatorias que
sean discretas. Las variables aleatorias continuas, por ejemplo estaturas y pesos,
lapso de vida útil de un producto en particular o un error experimental de laboratorio,
pueden tomar los infinitamente numerosos valores correspondientes a puntos en un
intervalo de una recta. Si se trata de asignar una probabilidad positiva a cada uno de
estos numerosos valores, las probabilidades ya no sumarán 1, como es el caso con
variables aleatorias discretas. Por tanto, se debe usar un método diferente para
generar la distribución de probabilidad para una variable aleatoria continua.

Supongamos que usted tiene un conjunto de mediciones en una variable


aleatoria continua y que crea un histograma de frecuencia relativa para describir la
distribución de las mismas. Para un pequeño número de mediciones, se puede usar un
pequeño número de clases; entonces, a medida que se recolecten más y más
mediciones, se pueden usar más clases y reducir el ancho de clase. El perfil del
histograma cambiará ligeramente, casi todo el tiempo haciéndose cada vez más
irregular, como se muestra en la figura 1. Cuando el número de mediciones se hace
muy grande y los anchos de clase se hacen muy angostos, el histograma de frecuencia
relativa aparece cada vez más como la curva suave que aparece en la figura 1.1d). Esta
curva suave describe la distribución de probabilidad de la variable aleatoria continua.

Figura 1. Histogramas de frecuencia relativa para tamaños muestrales cada vez más crecientes
Una variable aleatoria continua puede tomar cualquiera de un número infinito
de valores de la recta real, en forma semejante al número infinito de granos de arena
en una playa. La distribución de probabilidad es creada al distribuir una unidad de
probabilidad a lo largo de la recta, igual que como se puede distribuir un puñado de
arena. La probabilidad, es decir granos de arena o de mediciones, se apilarán en
ciertos lugares y el resultado es la distribución de probabilidad mostrado en la figura 2.
La profundidad o densidad de la probabilidad, que varía con x, puede ser descrita por
una fórmula matemática f(x), llamada distribución de probabilidad o función de
densidad de probabilidad para la variable aleatoria x.

Figura 2. La distribución de probabilidad f (x); P (a < x < b ) es igual al área sombreada bajo la curva

Varias propiedades importantes de distribuciones continuas de probabilidad


son comparables a sus similares discretas. Así como la suma de probabilidades
discretas (o la suma de las frecuencias relativas) es igual a 1 y la probabilidad de que x
caiga en cierto intervalo puede hallarse al sumar las probabilidades en ese intervalo,
las distribuciones de probabilidad tienen las características que se detallan a
continuación.

• El área bajo una distribución continua de probabilidad es igual a 1.


• La probabilidad de que x caiga en un intervalo particular, por ejemplo de a a
b, es igual al área bajo la curva entre los dos puntos a y b. Ésta es el área
sombreada de la figura 2.

También hay una diferencia importante entre variables aleatorias discretas y


continuas. Considere la probabilidad de que x sea igual a algún valor en particular, por
ejemplo a. Como no hay área arriba de un solo punto, por ejemplo x = a, en la
distribución de probabilidad para una variable aleatoria continua, nuestra definición
implica que la probabilidad es 0.
• P(x = a) = 0 para variables aleatorias continuas.
• Esto implica que P(x ≥ a) = P(x ≥ a) y P(x ≤ a) = P(x ≤ a).
• Esto no es cierto en general para variables aleatorias discretas.

Ejemplo 1. La variable aleatoria uniforme se emplea para modelar el comportamiento


de una variable aleatoria continua cuyos valores estén uniforme o exactamente
distribuidos en un intervalo dado. Por ejemplo, es probable que el error x introducido
al redondear una observación a la pulgada más cercana tenga una distribución
uniforme en el intervalo de -0.5 a 0.5. La función de densidad de probabilidad f(x) sería
“plana” como se muestra en la figura 6.3. La altura del rectángulo está fija en 1, de
modo que el área total bajo la distribución de probabilidad es 1.

Figura 2. Una distribución uniforme de probabilidad

¿Cuál es la probabilidad de que el error de redondeo sea menor a 0.2 en magnitud?


Solución Esta probabilidad corresponde al área bajo la distribución entre x = -0.2 y x =
0.2. Como la altura del rectángulo es 1,

P(-0.2 < x < 0.2) = [0.2 - (-0.2)] x 1 = 0.4


6.1 Distribución uniforme continua
Una de las distribuciones continuas más simples de la estadística es la
distribución uniforme continua. Esta distribución se caracteriza por una función de
densidad que es “plana”, por lo cual la probabilidad es uniforme en un intervalo
cerrado, digamos [A, B].

Distribución uniforme: La función de densidad de la variable aleatoria uniforme


continua X en el intervalo [A, B] es 1
1
, 𝐴 ≤ 𝑥 ≤ 𝐵,
𝑓(𝑥; 𝐴, 𝐵) = {𝐵 − 𝐴
0, 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
La función de densidad forma un rectángulo con base B – A y altura constante
1
. Como resultado, la distribución uniforme a menudo se conoce como distribución
𝐵−𝐴
rectangular. Sin embargo, observe que el intervalo no siempre es cerrado: [A, B];
también puede ser (A, B). En la figura 6.1 se muestra la función de densidad para una
variable aleatoria uniforme en el intervalo [1, 3].

Resulta sencillo calcular las probabilidades para la distribución uniforme


debido a la naturaleza simple de la función de densidad. Sin embargo, observe que la
aplicación de esta distribución se basa en el supuesto de que la probabilidad de caer
en un intervalo de longitud fija dentro de [A, B] es constante.

Ejemplo 6.1: Suponga que el tiempo máximo que se puede reservar una sala
de conferencias grande de cierta empresa son cuatro horas. Con mucha frecuencia
tienen conferencias extensas y breves. De hecho, se puede suponer que la duración X
de una conferencia tiene una distribución uniforme en el intervalo [0, 4].

Figura 6.1: Función de densidad para una variable aleatoria en el intervalo [1, 3].
a) ¿Cuál es la función de densidad de probabilidad?

b) ¿Cuál es la probabilidad de que cualquier conferencia determinada dure al


menos 3 horas?

Solución: a) La función de densidad apropiada para la variable aleatoria X


distribuida uniformemente en esta situación es
1
𝑓(𝑥; 𝐴, 𝐵) = { 4 , 0 ≤ 𝑥 ≤ 4,
0, 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

41 1
b) 𝑃[𝑋 ≥ 3] = ∫3 4 𝑑𝑥 = 4

Teorema 6.1: La media y la varianza de la distribución uniforme son

𝐴+𝐵 2 (𝐵 − 𝐴 )2
𝜇 = y 𝜎 =
2 12
• Problema 1: Una línea de producción fabrica piezas con un diámetro que debe
estar entre 10 y 12 cm. Si el diámetro sigue una distribución uniforme, ¿cuál es
la probabilidad de que una pieza seleccionada al azar tenga un diámetro entre
10.5 y 11.5 cm?

o Solución: La función de densidad de probabilidad es f(x) = 1/(12-10) = 0.5


para 10 ≤ x ≤ 12, y 0 en otro caso. La probabilidad es el área bajo la curva
entre 10.5 y 11.5: P(10.5 ≤ X ≤ 11.5) = (11.5 - 10.5) * 0.5 = 0.5 o 50%.

• Problema 2: El tiempo de espera (en minutos) de los clientes en una estación


de servicio sigue una distribución uniforme entre 0 y 15 minutos. ¿Cuál es el
tiempo de espera promedio y la varianza? ¿Qué porcentaje de clientes esperan
más de 10 minutos?

o Solución: Para una distribución uniforme en [A, B], la media es (A+B)/2 y


la varianza es (B-A)²/12. Entonces, la media es (0+15)/2 = 7.5 minutos, y
la varianza es (15-0)²/12 = 18.75 minutos². La probabilidad de esperar
más de 10 minutos es (15-10)/15 = 1/3 o aproximadamente 33.33%.

• Problema 3: Se necesita determinar la capacidad de un depósito de


almacenamiento de materia prima para una fábrica. El consumo diario de
materia prima sigue una distribución uniforme entre 500 y 800 kg. Si el depósito
se reabastece cada 3 días, ¿qué capacidad mínima debe tener el depósito para
asegurar que no se agote la materia prima con una probabilidad de al menos
95%?

o Solución: El consumo diario promedio es (500+800)/2 = 650 kg. El


consumo en 3 días es 1950 kg. Para una distribución uniforme, la
desviación estándar es (800-500)²/12 ≈ 81.65 kg. Para asegurar que no se
agote la materia prima con una probabilidad de 95%, se debe considerar
un margen de seguridad. Un enfoque conservador sería usar un múltiplo
de la desviación estándar (por ejemplo, 2σ). La capacidad mínima sería
1950 + 2*81.65 ≈ 2113.3 kg.

6.2. Distribución exponencial


La familia de distribuciones exponenciales proporciona modelos de
probabilidad que son muy utilizados en disciplinas de ingeniería y ciencias.

DEFINICIÓN: Se dice que X tiene una distribución exponencial con parámetro λ


(λ > 0) si la función de densidad de probabilidad de X es
−λx
𝑓(𝑥; λ) = { −λ𝑒 , 𝑥≥ 0
0, de lo contrario
Algunas fuentes escriben la función de densidad de probabilidad exponencial en la
forma (1/β)ex/β, de modo que β = 1/λ. El valor esperado de una variable aleatoria
exponencialmente distribuida X es

Para obtener este valor esperado se requiere integrar por partes. La varianza de X se
calcula utilizando el hecho de que V(X) = E(X2) - [E(X)]2. La determinación de E(X2)
requiere integrar por partes dos veces en sucesión. Los resultados de estas
integraciones son los siguientes:
1 1
𝜇 5 5 𝜎2
𝜆 𝜆

Tanto la media como la desviación estándar de la distribución exponencial son iguales


a 1/λ. En la figura 4.26 aparecen algunas gráficas de varias funciones de densidad de
probabilidad exponenciales.
f ( x; )
2
2

0.5
1

0.5 1

Figura 4.26 Curvas de densidad exponencial.

La función de densidad de probabilidad exponencial es fácil de integrar para obtener la


función de densidad acumulativa.

• Problema 1: El tiempo de funcionamiento (en horas) de un motor antes de una


falla sigue una distribución exponencial con una media de 1000 horas. ¿Cuál es
la probabilidad de que el motor funcione durante más de 1500 horas antes de
una falla?

o Solución: Si la media es 1000 horas, el parámetro λ = 1/1000. La función


de supervivencia es P(X > x) = e^(-λx). P(X > 1500) = e^(-1500/1000) ≈
0.223 o 22.3%.

• Problema 2: En un centro de atención telefónica, el tiempo entre llamadas


entrantes sigue una distribución exponencial con una media de 2 minutos.
¿Cuál es la probabilidad de que el tiempo de espera para la siguiente llamada
sea inferior a 1 minuto?

o Solución: λ = 1/2. P(X < 1) = 1 - e^(-1/2) ≈ 0.393 o 39.3%.

• Problema 3: Se está diseñando un sistema de mantenimiento preventivo para


máquinas en una fábrica. El tiempo hasta la falla de una máquina sigue una
distribución exponencial con una tasa de falla de 0.001 por hora. ¿Cada cuántas
horas se debe realizar el mantenimiento preventivo para que la probabilidad de
falla antes del mantenimiento sea menor al 5%?

o Solución: λ = 0.001. Se busca x tal que P(X < x) = 0.05. 0.05 = 1 - e^(-
0.001x). Resolviendo para x: x ≈ -ln(0.95)/0.001 ≈ 51.29 horas. El
mantenimiento preventivo debería realizarse cada 51 horas
aproximadamente.
6.3. Distribución gamma
Para definir la familia de distribuciones gama, primero se tiene que introducir una
función que desempeña un importante papel en muchas ramas de las matemáticas.

Con α > 0, la función gama Г (α) se define como



Γ(𝛼) = ∫ x 𝛼-1 𝑒 −x 𝑑𝑥
0

Las propiedades más importantes de la función gama son las siguientes:

1. Con cualquier α> 1, Г (α) = (α - 1) . Г (α - 1) [vía integración por partes].


2. Con cualquier entero positivo, n, , Г (n) = (n - 1)!
1
3. Г(2) = √𝜋

De acuerdo con la expresión anterior, si


entonces f(x;α ) ≥ 0 y ∫0 f(x; 𝛼) 𝑑𝑥 = Г(𝛼)/Г(𝛼), así que f(x; 𝛼) satisface las dos
propiedades básicas de una función de densidad de probabilidad.

DEFINICIÓN Se dice que una variable aleatoria continua X tiene una distribución gama
si la función de densidad de probabilidad de X es

donde los parámetros α y β satisfacen α > 0, β > 0. La distribución gama estándar


tiene β = 1, así que (4.7) da la función de densidad de probabilidad de una variable
aleatoria gama estándar.

La figura 4.27(a) ilustra las gráficas de la función de densidad de probabilidad


gama f(x; α, β) (4.8) para varios pares (α, β), en tanto que la figura 4.27(b) presenta
gráficas de la función de densidad de probabilidad gama estándar. Para la función de
densidad de probabilidad estándar cuando α ≤ 1, f(x; α) es estrictamente decreciente
a medida que x se incrementa desde 0; cuando α > 1, f(x; α) se eleva desde 0 en x = 0
hasta un máximo y luego decrece. El parámetro en β (4.8) se llama parámetro de escala
porque los valores diferentes de uno alargan o comprimen la función de densidad de
probabilidad en la dirección x.

6.4. Distribución normal


La distribución normal es la más importante en toda la probabilidad y estadística.
Muchas poblaciones numéricas tienen distribuciones que pueden ser representadas
muy fielmente por una curva normal apropiada. Los ejemplos incluyen estaturas,
pesos y otras características físicas (el famoso artículo Biométrica 1903 “On the Laws
of Inheritance in Man” discutió muchos ejemplos de esta clase), errores de medición
en experimentos científicos, mediciones antropométricas en fósiles, tiempos de
reacción en experimentos psicológicos, mediciones de inteligencia y aptitud,
calificaciones en varios exámenes y numerosas medidas e indicadores económicos.
Incluso cuando la distribución subyacente es discreta, la curva normal a menudo da
una excelente aproximación.

Una variable normal es parameterizado por su media µ y desviación típica σ. Tiene una
distribución simétrica. P(|X| < 2σ) = 0,954. Recordamos la regla empírica de antes
cuando hablamos de la regla de Chebyshev.

La distribución normal estandár

La distribución normal con media 0 y desviación típica 1 se llama la distribución normal


estándar. Existen tablas que se pueden utilizar para calcular las probabilidades para
esta distribución. Si tenemos una variable normal X con media µ y desviación típica σ,
podemos convertirla a una normal estándar a través de la siguiente transformación.
Se dice que una variable aleatoria continua X tiene una distribución normal con
parámetros µ y σ (o µ y σ2), donde -∞ < µ < ∞ y µ > o, si la función de densidad de
probabilidad de X es 2

• Problema 1: El peso de los paquetes enviados por una empresa de mensajería


sigue una distribución normal con una media de 2 kg y una desviación estándar
de 0.5 kg. ¿Qué porcentaje de paquetes pesan más de 2.5 kg?

o Solución: Se debe estandarizar la variable: Z = (2.5 - 2) / 0.5 = 1. Usando


una tabla de la distribución normal estándar, P(Z > 1) ≈ 0.1587 o 15.87%.

• Problema 2: La duración de vida útil de una máquina sigue una distribución


normal con una media de 10 años y una desviación estándar de 2 años. ¿Cuál
es la probabilidad de que una máquina dure entre 8 y 12 años?

o Solución: Z1 = (8 - 10) / 2 = -1; Z2 = (12 - 10) / 2 = 1. P(-1 < Z < 1) ≈ 0.6827


o 68.27%.

• Problema 3: Una empresa fabrica tornillos con un diámetro nominal de 10 mm.


El diámetro real sigue una distribución normal con una media de 10 mm y una
desviación estándar de 0.1 mm. Si los tornillos con un diámetro fuera del rango
9.8 mm a 10.2 mm se consideran defectuosos, ¿cuál es el porcentaje de
tornillos defectuosos?

o Solución: Z1 = (9.8 - 10) / 0.1 = -2; Z2 = (10.2 - 10) / 0.1 = 2. P(Z < -2 o Z >
2) ≈ 2 * P(Z > 2) ≈ 2 * 0.0228 ≈ 0.0456 o 4.56%.

6.4. Aproximación de la distribución binomial


Recuérdese que el valor medio y la desviación estándar de una variable aleatoria
binomial X son µX = np y U, respectivamente. La figura 4.25 muestra un histograma de
probabilidad binomial de la distribución binomial con n = 20, p = 0.6 con el cual µ =
20(0.6) = 12 y σ √(20)(0.6)(0.4) = 2.19. Sobre el histograma de probabilidad se
superpuso una curva normal con esas µ y σ. Aunque el histograma de probabilidad es
un poco asimétrico (debido a que p ≠ 0.5), la curva normal da una muy buena
aproximación, sobre todo en la parte media de la figura. El área de cualquier rectángulo
(probabilidad de cualquier valor X particular), excepto la de los localizados en las colas
extremas, puede ser aproximada con precisión mediante el área de la curva normal
correspondiente. Por ejemplo, P(X = 10) = B(10; 20, 0.6) - B(9; 20, 0.6) = 0.117, mientras
que el área bajo la curva normal entre 9.5 y 10.5 es P(-1.14 ≤ Z ≤ -0.68) = 0.1212.

En términos generales, en tanto que el histograma de probabilidad binomial no sea


demasiado asimétrico, las probabilidades binomiales pueden ser aproximadas muy
bien por áreas de curva normal. Se acostumbra entonces decir que X tiene
aproximadamente una distribución normal.

DEFINICION Sea X una variable aleatoria normal basada en n ensayos con


probabilidad de éxito p. Luego si el histograma de probabilidad binomial
no es demasiado asimétrico, X tiene aproximadamente una distribución
normal con µ = np y σ =√npq. En particular, con x = un valor posible de X,

En la práctica, la aproximación es adecuada siempre que tanto np ≥ 10 como nq ≥ 10,


puesto que en ese caso existe bastante simetría en la distribución binomial
subyacente.
CONCLUSIÓN
En esta investigación, se analizaron diferentes distribuciones de probabilidad
continuas, cada una con aplicaciones importantes en estadística y en distintas áreas
del conocimiento. Se explicó cómo las variables aleatorias continuas no pueden
manejarse de la misma manera que las discretas, lo que requiere el uso de funciones
de densidad de probabilidad para describir la distribución de los datos.

Las distribuciones uniforme, exponencial, gamma y normal fueron presentadas


con ejemplos claros, mostrando cómo se pueden utilizar en distintos contextos. La
distribución uniforme describe eventos con probabilidades constantes, la exponencial
modela tiempos de espera entre eventos, la gamma se usa para procesos
acumulativos y la normal es clave en muchos fenómenos naturales y sociales.

Comprender estas distribuciones es fundamental para interpretar datos, tomar


decisiones basadas en probabilidades y aplicar modelos matemáticos a situaciones
reales. En general, este estudio demuestra la importancia de las distribuciones de
probabilidad continuas y cómo influyen en el análisis estadístico de numerosos
fenómenos.
GLOSARIO DE TERMINOS

1. Aproximación normal de la binomial – Técnica para aproximar una


distribución binomial con una distribución normal cuando el número de
ensayos es grande y la probabilidad de éxito no está demasiado cerca de 0 o 1.
Se usa para simplificar cálculos de probabilidad en situaciones prácticas.

2. Área bajo la curva – En una distribución de probabilidad continua, representa


la probabilidad de que una variable aleatoria tome valores dentro de un
intervalo específico. Se calcula mediante integración de la función de densidad
de probabilidad.

3. Desviación estándar – Medida de dispersión que indica cuánto varían los


valores de una variable aleatoria respecto a su media. Es la raíz cuadrada de la
varianza y se usa para interpretar la variabilidad de los datos.

4. Distribución exponencial – Modelo de probabilidad usado para describir


tiempos de espera entre eventos en un proceso de Poisson. Su función de
densidad decrece exponencialmente, reflejando la probabilidad de que el
evento ocurra después de cierto tiempo.

5. Distribución gamma – Familia de distribuciones continuas que generaliza la


distribución exponencial y se aplica en modelos de tiempo de vida y procesos
estocásticos. Depende de dos parámetros: forma y escala.

6. Distribución normal – Distribución de probabilidad continua con forma de


campana, simétrica respecto a su media. Es fundamental en estadística, ya que
muchos fenómenos naturales y sociales siguen esta distribución.

7. Distribución uniforme – Distribución en la que todos los valores dentro de un


intervalo tienen la misma probabilidad de ocurrir. Se representa con una
función de densidad constante.

8. Error de redondeo – Diferencia entre el valor real y el valor redondeado de una


medición. Puede seguir una distribución uniforme si los errores ocurren con
igual probabilidad dentro de un cierto rango.

9. Esperanza matemática (media) – Valor esperado de una variable aleatoria,


calculado como el promedio ponderado por sus probabilidades. Representa la
tendencia central de la distribución.
10. Ensayo de Bernoulli – Experimento con dos posibles resultados (éxito o
fracaso), base de la distribución binomial. Cada ensayo es independiente y
tiene la misma probabilidad de éxito.

11. Función de densidad de probabilidad – Expresión matemática que describe la


distribución de una variable aleatoria continua, indicando la probabilidad
relativa de diferentes valores.

12. Función gamma (Γ) – Función matemática que generaliza el factorial a valores
no enteros. Se usa en la distribución gamma y en diversas aplicaciones
estadísticas.

13. Histograma de frecuencia relativa – Representación gráfica de la distribución


de una variable aleatoria basada en frecuencias relativas. Se usa para visualizar
datos y aproximaciones de distribuciones.

14. Parámetro de escala – Factor que afecta la dispersión o extensión de una


distribución de probabilidad. En la distribución gamma, este parámetro
controla la amplitud de la función de densidad.

15. Parámetro de forma – Característica de una distribución que influye en su


simetría y propiedades generales. En la distribución gamma, determina el
número de eventos acumulados en un intervalo.

16. Probabilidad acumulativa – Probabilidad de que una variable aleatoria tome


un valor menor o igual a un determinado número. Se obtiene sumando las
probabilidades de los valores previos.

17. Probabilidad condicional – Probabilidad de que ocurra un evento dado que


otro evento ha ocurrido. Se calcula mediante la regla de Bayes en inferencias
estadísticas.

18. Teorema de Chebyshev – Regla estadística que establece límites para la


dispersión de datos en cualquier distribución, indicando qué fracción de
valores está dentro de un cierto número de desviaciones estándar de la media.

19. Variable aleatoria continua – Variable que puede tomar un número infinito de
valores dentro de un intervalo. Se estudia usando funciones de densidad de
probabilidad en lugar de distribuciones discretas.

20. Varianza – Medida de dispersión que indica la variabilidad de los valores


respecto a la media. Se calcula como la media de los cuadrados de las
desviaciones respecto a la media.
REFERENCIAS BIBLIOGRAFICAS

Martinez, E. (s. f.). Distribuciones de probabilidad continuas.


Scribd. [Link]
Probabilidad-Continuas

Mendenhall, W., Beaver, R. J., Beaver, B. M., & Fragoso, F. S. (1982). Introducción a la
probabilidad y estadística (pp. 341-381). Wadsworth
Internacional/IberoAmérica.

Ojeda, L. R. (2007). Probabilidad y estadística básica para ingenieros. Escuela superior


politécnica del litora

Sotomayor, G. V., & Wisniewski, P. M. (2001). Probabilidad y estadística para ingeniería


y ciencias. Thomson Learning.

Spiegel, M. R. (2009). Estadística.

Walpole, R. E., Myers, R. H., & Myers, S. L. (1999). Probabilidad y estadística para
ingenieros. Pearson educación.

También podría gustarte