Está en la página 1de 21

República Bolivariana de Venezuela.

Ministerio del Poder Popular para la Educación.

I.U.P. “Santiago Mariño”

Escuela de Ingeniería Industrial

Estadística II

Variables aleatorias, distribución de


probabilidades y función de distribución
de probabilidades

Nombre:

Joximar Vásquez.

28.264.879

Ciudad Ojeda, Junio 2020.


1. Variables aleatorias.
1.1 Definición
Una variable aleatoria es una función que asocia un valor numérico a cada
posible resultado de un experimento aleatorio, estos valores posibles
representan los resultados de los experimentos que todavía no se han
llevado a cado o a cantidades inciertas.
Cabe destacar que los experimentos aleatorios es aquel que, desarrollado
bajo las mismas condiciones, pueden ofrecer resultados aleatorios.

1.2 Tipos
Entre los tipos de variable aleatoria están:
 Variable aleatoria discreta: Son aquellas cuyo rango está formado por
una cantidad finita de elementos, o que sus elementos pueden
enumerarse de forma secuencia. Por ejemplo, si una persona arroja un
dado tres veces, los resultados son variables aleatorias discretas, ya que
pueden obtenerse valores del 1 al 6.
 Variable aleatoria continua: Se vincula a un recorrido o rango que
abarca, en teoría, la totalidad de los números reales, aunque solo sea
accesible una cierta cantidad de valores (como la altura de un grupo de
personas. En otras palabras, una variable aleatoria es continua si toma un
número infinito no numerable de valores.

1.3 Características:
 Asigna un valor al resultado de un experimento aleatorio.
 Puede representar los posibles resultados de un experimento aún no
realizado, o los posibles valores de una cantidad cuyo valor actualmente
existente es incierto.
 Su valor no es fijo.
 Su valor puede ser una partición también.
 Las variables aleatorias están asociadas a la esperanza matemática
1.4 Funciones
 Función de probabilidad: Es una función que asigna probabilidades a
los valores de la variable aleatoria. Tiene como fórmula:
f ( x )=P( X=x )
Dónde x es una variable aleatoria discreta con posibles valores.
Se tiene como ejemplo el lanzamiento de un dado:

x 1 2 3 4 5 6
P( X =x) 1/6 1/6 1/6 1/6 1/6 1/6

Dónde P( X =x) define la probabilidad de que aparezca el número


indicado en X.
 Función de distribución: Especifica la probabilidad de que una variable
aleatoria sea menor o igual que un valor dado. A la función de distribución
acumulativa la denominamos F(x) y su fórmula es la siguiente:
f ( x )=P( X ≤ x )
 Función de densidad: Es una fórmula que ayuda a calcular la
probabilidad de que una variable aleatoria continua tenga un valor que
esté dentro de un intervalo específico. Sea X una variable aleatoria
continua. Entonces, una función de densidad de probabilidad de X es una
función f(x) tal que para dos números cualesquiera a y b con a ≤ b:
b
P ( a ≤ X ≤ b )=∫ f ( x ) dx
a

1.5 Probabilidades
Se define a la probabilidad como el estudio y medición cuantitativa de que
un determinado hecho suceda o se produzca. Para ello se determinan
ciertos presupuestos del contexto, sus posibles combinaciones y además se
hace uso de la disciplina de la estadística. En este caso las probabilidades
suelen ser representados en número mayores a cero e inferiores a uno o en
fracciones. Es la posibilidad de que un evento suceda dependiendo de las
condiciones dadas para que acontezca.
2. Distribución discreta de probabilidad
2.1 Definición
Una distribución discreta describe la probabilidad de ocurrencia de cada
valor de una variable aleatoria discreta. Una variable aleatoria discreta es
una variable aleatoria que tiene valores contables, tales como una lista de
enteros no negativos. Con una distribución de probabilidad discreta, cada
valor posible de la variable aleatoria discreta puede estar asociado con una
probabilidad distinta de cero. Por lo tanto, una distribución de probabilidad
discreta suele representarse en forma tabular.

2.2 Distribuciones discretas de probabilidad Bernoulli


La distribución de Bernoulli es un modelo teórico utilizado para representar
una variable aleatoria discreta la cual solo puede resultar en dos sucesos
mutuamente excluyentes.  En otras palabras, la distribución de Bernoulli es
una distribución aplicada a una variable aleatoria discreta, la cual solo puede
resultar en dos sucesos posibles: “éxito” y “no éxito”. 
Las variables de Bernoulli pueden tomar dos valores numéricos, 0 y 1,
donde 1 corresponde a un éxito y 0 corresponde a un no éxito. Una variable
aleatoria X sigue una distribución de Bernoulli si:

P ( X=1 ) =p

P(X =0)=1 – p

Dónde p es la probabilidad de ocurrencia del evento.

Su fórmula general es:

P( X =x)=p x ¿
2.3 Distribuciones discretas de probabilidad Binomial
Una distribución binomial es una distribución de probabilidad discreta que
describe el número de éxitos al realizar n experimentos independientes entre
sí, acerca de una variable aleatoria.
La distribución binomial se entiende como una serie de pruebas o ensayos
en la que solo podemos tener 2 resultados (éxito o fracaso), siendo el éxito
nuestra variable aleatoria.

La fórmula para calcular la distribución binomial es:

P(X )= n p x q n−x
()
x

Dónde n es el número de ensayos o experimentos; x es el número de éxitos;


p es la probabilidad de éxito; y q es la probabilidad de fracaso (1-p)

Es importante resaltar que la expresión entre paréntesis no es una


expresión matricial, sino que es un resultado de una combinatoria sin
repetición. Este se obtiene con la siguiente formula:

n!
C n , x= n =
() x x ! ( n−x ) !

2.4 Distribuciones discretas de probabilidad Geométrica


Esta distribución puede ser definida como el número de intentos hasta
conseguir el primer éxito. Por ejemplo: La probabilidad de lanzar una moneda
y obtener “cara” en el n-ésimo lanzamiento de esta.
Siendo su fórmula:

P ( X=x )=¿

Dónde X es el número de intentos antes del primer éxito, siendo una variable
aleatoria discreta. Y P es la probabilidad de éxito.
2.5 Distribuciones discretas de probabilidad Binomial Negativa
La distribución binomial negativa es una distribución discreta que modela el
número de ensayos necesarios para producir un número específico de
eventos. Cada ensayo tiene dos resultados posibles. El evento es el
resultado de interés en un ensayo. La distribución binomial negativa también
puede modelar el número de no eventos que deben ocurrir para que se
observe el número especificado de resultados.
Por ejemplo, hablando de productos que se construyen en una línea de
ensamble, la distribución binomial negativa puede modelar el número de
unidades ensambladas para que se produzcan 100 unidades defectuosas.
Viene dada por la siguiente fórmula:

p ( Y =k )=❑k−1 Cr −1 pY q k−r

Donde P(Y=k) es la probabilidad de que ocurran r éxitos en k ensayos y que


el último de ellos que es el r-ésimo, ocurra en el k-ésimo ensayo que es el
último; p es el éxito y q es el fracaso (1-p).

2.6 Distribuciones discretas de probabilidad Multinomial


La distribución multinomial es similar a la distribución binomial, con la
diferencia de que en lugar de dos posibles resultados en cada ensayo, puede
haber múltiples resultados.

La distribución multinomial sigue el siguiente modelo:


n!
P ( X 1= X 2 ; X 3=X 3 ) = px p x p x …
1 2 3

x 1 ! x2 ! x 3 ! … 1 2 3

Donde X1 = X1 indica que el suceso X1 aparezca X1 veces; n indica el número


de veces que se ha repetido el suceso; p1 es la probabilidad del suceso X1.
2.7 Distribuciones discretas de probabilidad Poisson
La distribución de Poisson  es una distribución de probabilidad discreta que
se aplica a las ocurrencias de algún suceso durante un intervalo
determinado. La variable aleatoria X  representará el número de ocurrencias
de un suceso en un intervalo determinado, el cual podrá ser tiempo,
distancia, área, volumen o alguna otra unidad similar o derivada de éstas.
Siendo lambda el número medio de ocurrencias se tiene que:
P= ( x , λt ) =e−2 t ¿ ¿

2.8 Distribuciones discretas de probabilidad Hipergeométrica


La distribución hipergeométrica es el modelo que se aplica en
experimentos donde, al igual que en la distribución binomial, en cada ensayo
hay tan sólo dos posibles resultados: o sale blanca o no sale. Pero se
diferencia de la distribución binomial en que los distintos ensayos son
dependientes entre sí.

La distribución hipergeométrica sigue el siguiente modelo:

N1∗ N2

P ( x=k ) =
| || |
k n−k
N
n ||
Dónde:

N1 N1 ! N2 N2! N!
;N=
||
k
= ; =
| | ||
k ! ( N 1−K ) ! n−k ( n−k ) !(N 2 ( n−k ) )! n n! (N−n)!

Siendo que N es el número total de la población, N 1 es el número de una


parte de la población, N2 es el número de la otra parte de la población, K es
el número de la población cuya probabilidad se está calculando y n es el
número de ensayos que se realiza.
2.9 Distribuciones discretas de probabilidad Poisson como
aproximación a la binomial e hipergeométrica
Se puede probar que la distribución binomial tiende a converger a la
distribución de Poisson cuando el parámetro n tiende a infinito y el parámetro
p tiende a ser cero, de manera que el producto de n por p sea una cantidad
constante. De ocurrir esto la distribución binomial tiende a un modelo de
Poisson de parámetro λ igual a n por p.
Este resultado es importante a la hora del cálculo de probabilidades, o,
incluso a la hora de inferir características de la distribución binomial cuando
el número de pruebas sea muy grande n → ∞  y la probabilidad de éxito sea
muy pequeña p → 0. Por lo que:

x n−x λ x e− λ
p ( x , n , p )=❑n C x p q ≅
x!

La expresión anterior solo se cumple cuando n → ∞  y p → 0. De lo


contrario, la aproximación no se puede llevar a efecto, por lo que la fórmula a
utilizar en este caso sería:

λ x e−λ
p ( x , λ)=
x!

Dónde λ = μ = np que es el número esperado de éxitos (tasa promedio de


éxitos), n es el número de repeticiones del experimento, y p es la
probabilidad de éxito.

Por su parte, la aproximación de la distribución hipergeométrica mediante


la distribución binomial establece que: Sea X una variable aleatoria con
distribución hipergeométrica. Si el tamaño del lote es suficientemente grande,
la distribución X puede ser aproximada por la distribución binomial, es decir:
M
p ( X=x ) ≅ n p x qn− x donde p=
()
x N

3. Distribución continua de probabilidad


3.1 Definición
Una distribución continua describe las probabilidades de los posibles
valores de una variable aleatoria continua. Para una variable continua hay
infinitos valores posibles de la variable y entre cada dos de ellos se pueden
definir infinitos valores más. En estas condiciones no es posible deducir la
probabilidad de un valor puntual de la variable, pero es posible calcular la
probabilidad acumulada hasta un cierto valor, y se puede analizar cómo
cambia la probabilidad acumulada en cada punto.
En el caso de variable continua la distribución de probabilidad es la integral
de la función de densidad, por lo que tenemos entonces que:
x
F ( x )=P ( X ≤ x ) =∫ f ( x ) dx
−∞

Sea X una variable continua, una distribución de probabilidad o función de


densidad de probabilidad.

3.2 Distribución continua de probabilidad: Uniforme


Corresponde al caso de una variable aleatoria que sólo puede tomar
valores comprendidos entre dos extremos a y b, de manera que todos los
intervalos de una misma longitud (dentro de (a, b)) tienen la misma
probabilidad.
La función de densidad debe tomar el mismo valor para todos los puntos
dentro del intervalo (a, b) (y cero fuera del intervalo). Es decir:
1

{
f x ( x ) = b−a si x ∈(a , b)
0 si x ∄(a , b)
El experimento de lanzar un dado es un ejemplo que cumple
la distribución uniforme, ya que todos los 6 resultados posibles tienen 1/6 de
probabilidad de ocurrencia.

3.3 Distribución continua de probabilidad: Exponencial


Este modelo suele utilizarse para variables que describen el tiempo hasta
que se produce un determinado suceso. Su función es de la forma:
−x
1 ( α )
f ( x )= e si x> 0
α
Donde su esperanza es α.

Una propiedad importante es la denominada carencia de memoria, que


podemos definir así: si la variable X mide el tiempo de vida y sigue una
distribución exponencial, significará que la probabilidad de que siga con vida
dentro de 20 años es la misma para un individuo que a fecha de hoy tiene 25
años que para otro que tenga 60 años.

3.4 Distribución continua de probabilidad: Gamma


Es una generalización del modelo exponencial ya que, en ocasiones, se
utiliza para modelar  variables que describen el tiempo hasta que se
produce p veces un determinado suceso.
−x
1
f ( x )= p
e α
x p−1 si x> 0
α Γ ( p)
La fórmula depende de dos parámetros positivos α y p. La función Γ(p) es
la denominada función Gamma de Euler que representa la integral:

Γ ( p )=∫ x p−1 e−x dx
0

Que verifica Γ(p + 1) = pΓ(p, con lo que si p es un número entero positivo Γ


(p + 1) = p!

Utilice la distribución gamma para modelar valores de datos positivos que


sean asimétricos a la derecha y mayores que 0. La distribución gamma se
utiliza comúnmente en estudios de supervivencia de fiabilidad. Por ejemplo,
la distribución gamma puede describir el tiempo que transcurre para que falle
un componente eléctrico.

3.5 Distribución continua de probabilidad: Beta


Es una familia de distribuciones de probabilidad continua definidas en el
intervalo (0,1) con dos parámetros positivos que determinan la forma,
comúnmente denotados como α y β. Generalmente, es utilizada cuando no
existen datos históricos sólidos en los cuales basar la estimación de
actividades. Viene dada por
1
f ( x )= x p −1 ¿
β( p,q)
Donde
1
β ( p , q )=∫ x p−1 ¿ ¿
0

También puede establecerse esta distribución como:


Γ ( p+ q ) p−1
f ( x )= x ¿
Γ ( p) Γ ( q)

3.6 Distribución continua de probabilidad: Weibull


Es una distribución versátil que se puede utilizar para modelar una amplia
gama de aplicaciones en ingeniería, investigación médica, control de calidad,
finanzas y climatología. Por ejemplo, la distribución se utiliza frecuentemente
con análisis de fiabilidad para modelar datos de tiempo antes de falla.
Se trata de un modelo asociado a variables del tipo tiempo de vida, tiempo
hasta que un mecanismo falla. Su fórmula viene dada por:
β
β−1 − x
β x ()
f ( x )=
α α () e α
si x ≥0
Que depende de dos parámetros: α ˃ 0 y β ˃0, donde α es un parámetro de
escala y β es un parámetro de forma (lo que proporciona una gran flexibilidad
de densidad y equivale a:
β
− ( αx )
f ( x )=1−e

3.7 Distribución continua de probabilidad: Normal estandarizada y


Normal como aproximación a la binomial.
La distribución continua de probabilidad normal estandarizada utiliza un
miembro de la familia de la distribución normal, que viene siendo aquella
cuya μ = 0 (media) o una σ = 1. De esta manera todas las distribuciones
pueden convertirse a la estándar restando la media de cada observación y
dividiendo por la desviación estándar. Cualquier valor real puede ser
transformado en su equivalente medido en términos de su desviación
estándar y con esto se genera una escala que se conoce como escala z, que
se calcula aplicando la siguiente fórmula:

x −μ
Z=
σ

En el caso de la aproximación de la distribución normal a la binomial, se


estarán calculando probabilidades de experimentos binomiales de una forma
muy aproximada con la distribución normal, esto puede llevarse a cabo si
n → ∞ y p = p (éxito) no es muy cercana a 0 y 1, o cuando n es pequeño y p
tiene un valor muy cercano a ½; esto es:
x−np
(
P ( x , n , p )=❑n C x p x q n−x ≅ p z=
√ npq )
Donde, x = variable de tipo discreto (solo toma valores enteros); μ = np
que es la media de la distribución binomial y σ = √ npq que es la desviación
estándar de la distribución binomial.
Se utiliza la aproximación Normal para evaluar probabilidades Binomiales
siempre que p no esté cercano a 0 o 1. La aproximación es excelente
cuando n es grande y bastante buena para valores pequeños de n si p está
razonablemente cercana a ½.
Al evaluar probabilidades asociadas a una variable discreta x, con una
distribución que evalúa variables de tipo continuo como es la normal, Z sufre
un pequeño cambio:
1
Z=
( x ± )−μ
2
σ
4. Esperanza matemática y momento
La esperanza matemática de una variable aleatoria X es el número que
expresa el valor medio del fenómeno que representa dicha variable.
La esperanza matemática es igual a la sumatoria de las probabilidades de
que exista un suceso aleatorio, multiplicado por el valor del suceso aleatorio.
En distribuciones discretas, con la misma probabilidad en cada suceso la
media aritmética es igual que la esperanza matemática.
N
E ( x )=∑ x i P ( x i )=¿ x 1 P ( x 1 ) + x 2 P ( x 2 )+ x3 P ( x3 ) + …+ x n P ( x n ) ¿
i=1

Dónde x es el valor del suceso, P la probabilidad de que ocurra, i el periodo en el


que se da dicho suceso y N el número total de periodos u observaciones.

Por su parte, el momento es el valor específico de cada distribución que la


caracteriza. Esta caracterización llega hasta el punto de que puede afirmarse la
igualdad de dos distribuciones por la igualdad de sus momentos o, si no se llega a
este extremo de identificación, su semejanza, tanto mayor cuantos más momentos
de igual valor posean ambas distribuciones.
En general, se llama momento de orden r, respecto a un origen, O, a la
expresión:
n
M r= ∑ ¿ ¿
i=1
Dónde xi simboliza a x1, x2, … xn, es decir, los valores que toma la variable;
O es el origen tomado; ni es la frecuencia absoluta del dato xi; N es la suma
de frecuencias absolutas y r es el llamado orden del momento.

Bibliografía

 https://matemovil.com/category/estadistica/
 https://economipedia.com/definiciones/distribucion-binomial.html
 https://www.aulafacil.com/cursos/estadisticas/gratis/distribuciones-
discretas-hipergeometrica
 http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo4/
B0C4m1t3.htm
 https://support.minitab.com/es-mx/minitab/18/help-and-how-to/probability-
distributions-and-random-data/supporting-topics/distributions/beta-
distribution/
 https://sites.google.com/site/ticsdestadistica/los-momentos-estadi
1. Sea S = {alto, medio, bajo}. Defina las variables aleatorias X, Y, Z
como X(alto) = -12, X(medio) = -2, X(bajo) = 3;
Y(alto) = 0, Y(medio) = 0, Y(bajo) = 1;
Z(alto) = 6, Z(medio) = 0, Z(bajo) = 4.
Determine si cada una de las siguientes relaciones es cierta o falsa.

a) X < Y
 Si X(alto) = -12 y Y(alto) = 0, entonces X < Y (-12 < 0).
 Si X(medio) = -2 y Y(medio) = 0, entonces X < Y (-2 < 0).
 Si X(bajo) = 3 y Y(bajo) = 1, entonces X ˃ Y (3 ˃ 1).

Por lo tanto, la relación X < Y es falsa, ya que para que en una


desigualdad una variable aleatoria sea cierta todas sus condiciones
tienen que cumplir. (En este caso, el tercer caso no cumple).

b) X ≤ Y
 Si X(alto) = -12 y Y(alto) = 0, entonces X ≤ Y (-12 ≤ 0).
 Si X(medio) = -2 y Y(medio) = 0, entonces X ≤ Y (-2 ≤ 0).
 Si X(bajo) = 3 y Y(bajo) = 1, entonces X ˃ Y (3 ˃ 1).

Por lo tanto, la relación X ≤ Y es falsa (en este caso, el tercer caso no


cumple).

c) Y < Z
 Si Y(alto) = 0 y Z(alto) = 6, entonces Y < Z (0 < 6).
 Si Y(medio) = 0 y Z(medio) = 0, entonces Y = Z (0 = 0).
 Si Y(bajo) = 1 y Z(bajo) = 4, entonces Y < Z (1 < 4).

Por lo tanto, la relación Y < Z es falsa (en este caso, el segundo caso
no cumple).

d) Y ≤ Z
 Si Y(alto) = 0 y Z(alto) = 6, entonces Y < Z (0 ≤ 6).
 Si Y(medio) = 0 y Z(medio) = 0, entonces Y ≤ Z (0 ≤ 0).
 Si Y(bajo) = 1 y Z(bajo) = 4, entonces Y ≤ Z (1 ≤ 4).

Por lo tanto, la relación Y ≤ Z es cierta para todos los casos.

e) XY < Z
 Si X(alto) = -12 por Y(alto) = 0 es igual a XY(alto) = 0 (-12 x
0 = 0) y Z(alto) = 6, entonces XY < Z (0 < 6).
 Si X(medio) = -2 por Y(medio) = 0 es igual a XY(medio) = 0
(-2 x 0 = 0) y Z(medio) = 0, entonces XY = Z (0 = 0).
 Si X(bajo) = 3 por Y(bajo) = 1 es igual a XY(bajo) = 3 (3 x 1
= 3) y Z(bajo) = 4, entonces XY < Z (3 < 4).

Por lo tanto, la relación XY < Z es falsa (en este caso, el segundo


caso no cumple).

f) XY ≤ Z
 Si X(alto) = -12 por Y(alto) = 0 es igual a XY(alto) = 0 (-12 x
0 = 0) y Z(alto) = 6, entonces XY ≤ Z (0 ≤ 6).
 Si X(medio) = -2 por Y(medio) = 0 es igual a XY(medio) = 0
(-2 x 0 = 0) y Z(medio) = 0, entonces XY ≤ Z (0 ≤ 0).
 Si X(bajo) = 3 por Y(bajo) = 1 es igual a XY(bajo) = 3 (3 x 1
= 3) y Z(bajo) = 4, entonces XY ≤ Z (3 ≤ 4).
Por lo tanto, la relación XY ≤ Z es cierta para todos los casos.

2. Sea S = {1, 2, 3, 4, 5}
a) Defina sobre S dos variables aleatorias X e Y no constantes y
diferentes (es decir, no iguales).

X=s
Y=s+6

Ejemplo Entonces,
X=s Y=s+6
S=2 Y=2+6
Y=8

b) Con las variables aleatorias X e Y que ha definido, sea Z = X


+ Y2. Calcula Z(s) para todo s ∈ S.

 Siendo s = 1

X=s Y=s+6
s=1 Y=1+6
Y=7

Entonces, reemplazamos valores:

Z(s) = X + Y2
Z(1) = 1 + 72
Z(1) = 1 + 49
Z(1) = 50

 Siendo s = 2

X=s Y=s+6
s=2 Y=2+6
Y=8

Entonces, reemplazamos valores:

Z(s) = X + Y2
Z(2) = 2 + 82
Z(2) = 2 + 64
Z(2) = 66

 Siendo s = 3

X=s Y=s+6
s=3 Y=3+6
Y=9

Entonces, reemplazamos valores:

Z(s) = X + Y2
Z(3) = 3 + 92
Z(3) = 3 + 81
Z(3) = 84

 Siendo s = 4

X=s Y=s+6
s=4 Y=4+6
Y = 10

Entonces, reemplazamos valores:

Z(s) = X + Y2
Z(4) = 4 + 102
Z(4) = 4 + 100
Z(4) = 104

 Siendo s = 5

X=s Y=s+6
s=5 Y=5+6
Y = 11

Entonces, reemplazamos valores:

Z(s) = X + Y2
Z(5) = 5 + 112
Z(5) = 5 + 121
Z(5) = 126

También podría gustarte