Está en la página 1de 15

UNIFORME

CÓDIGO:

op <- par(mfrow = c(1, 3),bg = "snow")


par(lty="dashed")
par(col="black")

x <- 0:10
plot(x, dunif(x, min=1, max=2) ,
xlab="N. de sucesos",
ylab="F. de Probabilidad",col=" royalblue4",
main="U(a=1, b=2)", type="h")
points(x, dunif(x, min=1, max=2) , pch=16)
abline(h=0, col=" black ")

x1 <- 0:10
plot(x, dunif(x1, min=1, max=5) ,
xlab="N. de sucesos",
ylab="F. de Probabilidad",col=" skyblue3",
main="U(a=1, b=5)", type="h")
points(x1, dunif(x1, min=1, max=5) , pch=16)
abline(h=0, col=" black ")

x2 <- 0:10
plot(x, dunif(x2, min=1, max=10) ,
xlab="N. de sucesos",
ylab="F. de Probabilidad",col=" royalblue1",
main="U(a=1, b=10)", type="h")
points(x2, dunif(x2, min=1, max=10) , pch=16)
abline(h=0, col=" black ")
EN PYTHON:

A la distribución dunif entran los parámetros min=a, máx=b, y la probabilidad es 1/(b-a).


Por lo tanto, la probabilidad es inversa a la diferencia entre b y a.

Para la segunda gráfica; donde a= 1, b=5, la probabilidad es de ¼.


Para la segunda gráfica la probabilidad es mucho mas pequeña debido a que a=1 y b=10, por lo tanto, la
probabilidad es de 1/9.

Esta distribución siempre es constante en todos los puntos del intervalo [a, b]
BERNOUILLI

CÓDIGO:

op <- par(mfrow = c(1, 3),bg = "seashell")


par(lty="dashed")
par(col="black")
size <- 1

x <- 0:1.5
plot(x, dbinom(x, size, prob=0.01),
xlab="N. de sucesos",
ylab="F. de Probabilidad",col="slateblue4",
main="Ber( P=0.01)", type="h")
points(x, dbinom(x, size, prob=0.01), pch=16)
abline(h=0, col="blue")

x1 <- 0:1.5
plot(x1, dbinom(x1, size, prob=0.3),
xlab="N. de sucesos",
ylab="F. de Probabilidad",col="purple",
main="Ber( P=0.3)", type="h")
points(x1, dbinom(x1, size, prob=0.3), pch=16)
abline(h=0, col="blue")

x2 <- 0:1.5
plot(x2, dbinom(x2, size, prob=0.8),
xlab="N. de sucesos",
ylab="F. de Probabilidad",col="slateblue1",
main="Ber( P=0.8)", type="h")
points(x2, dbinom(x2, size, prob=0.8), pch=16)
abline(h=0, col="blue")
EN PYTHON:

En wolframalpha:

Para la función dbinom entra el parámetro de la probabilidad de que sea exitoso el caso, es decir cuando x=1. Y
cuando x=0 la probabilidad es de 1-p.

Esta distribución discreta sólo esta definida en 1 y 0.


BINOMIAL

CÓDIGO:

op <- par(mfrow = c(2, 2),bg = "beige")


par(lty="dashed")
par(col="black")

x <- 0:4
plot(x, dbinom(x, size=4, prob=0.07),
xlab="N. de sucesos",
ylab="F. de Probabilidad",col="turquoise4",
main="B(n=4, P=0.07)", type="h")
points(x, dbinom(x, size=4, prob=0.07), pch=16)
abline(h=0, col="blue")

x1 <- 0:10
plot(x1, dbinom(x1, size=40, prob=0.07),
xlab="N. de sucesos", col="darkgreen",
ylab="F. de Probabilidad",
main="B(n=40, P=0.07)", type="h")
points(x1, dbinom(x1, size=40, prob=0.07), pch=16)
abline(h=0, col="blue")

x2 <- 0:45
plot(x2, dbinom(x2, size=400, prob=0.07),
xlab="N. de sucesos", col="springgreen3",
ylab="F. de Probabilidad",
main="B(n=400, P=0.07)", type="h")
points(x2, dbinom(x2, size=400, prob=0.07), pch=16)
abline(h=0, col="blue")

x3 <- 200:350
plot(x3, dbinom(x3, size=4000, prob=0.07),
xlab="N. de sucesos",
ylab="F. de Probabilidad", col="yellowgreen",
main="B(n=4000, P=0.07)", type="h")
points(x3, dbinom(x3, size=4000, prob=0.07), pch=16)
abline(h=0, col="blue")
EN PYTHON:

En wolframalpha:

El número n de pruebas que se repiten y la probabilidad p de que suceda un éxito en cada una de ellas.

Al analizar las gráficas se puede concluir que a medida que aumenta la cantidad n de experimentos la gráfica se
corre más hacia la derecha y es más simétrica como se observa cuando n=4000 porque tiende a ser como la
distribución de poisson.
HIPERGEOMETRICA

op <- par(mfrow = c(1, 2),bg = "whitesmoke")


par(lty="dashed")
par(col="black")

x <- 0:10
plot(x,dhyper(x, m=10, n=(20-10), k=5) ,
xlab="N. de sucesos",
ylab="F. de Probabilidad",col="steelblue",
main=" H(20,10,5)", type="h")
points(x, dhyper(x, m=10, n=10, k=5) , pch=16)
abline(h=0, col="blue")

x <- 0:10
plot(x,dhyper(x, m=5, n=(20-5), k=4) ,
xlab="N. de sucesos",
ylab="F. de Probabilidad",col="turquoise3",
main=" H(20,5,4)", type="h")
points(x, dhyper(x, m=5, n=(20-5), k=4), pch=16)
abline(h=0, col="blue")
EN PYTHON:

En wolframalpha:

dhyper(x, m, n, k)
m: Selección aleatoria particular.
n: El número total de la población menos la selección aleatoria particular. n = N - m.
K: la cantidad que se busca

Cuando el tamaño de la muestra n es sólo una pequeña fracción de un lote de tamaño N, la distribución
hipergeométrica se puede aproximar a una distribución binomial.
Se puede decir que entre más grande sea m la gráfica es simetrica.
POISSON

CÓDIGO:

op <- par(mfrow = c(2, 2),bg = "whitesmoke")


par(lty="dashed")
par(col="black")

x <- 0:20
plot(x, dpois(x, lambda=0.5) ,
xlab="N. de sucesos",
ylab="F. de Probabilidad",col="violet",
main="P(0.5)", type="h")
points(x, dpois(x, lambda=0.5), pch=16)
abline(h=0, col="blue")

x1 <- 0:20
plot(x1, dpois(x1, lambda=1),
xlab="N. de sucesos", col="violetred",
ylab="F. de Probabilidad",
main="P(1)", type="h")
points(x1, dpois(x1, lambda=1), pch=16)
abline(h=0, col="blue")

x2 <- 0:20
plot(x2, dpois(x2, lambda=5),
xlab="N. de sucesos", col="violetred4",
ylab="F. de Probabilidad",
main="P(5)", type="h")
points(x2, dpois(x2, lambda=5), pch=16)
abline(h=0, col="blue")

x3 <- 0:20
plot(x3, dpois(x3, lambda=10),
xlab="N. de sucesos", col="orchid",
ylab="F. de Probabilidad",
main="P(10)", type="h")
points(x3, dpois(x3, lambda=10), pch=16)
abline(h=0, col="blue")
EN PYTHON:

En wolframalpha:

El parámetro que ingresa es λ, el promedio de ocurrencias del suceso en cada unidad temporal. Para λ mayores,
la gráfica tiende a ser más simétrica a mediada que se desplaza hacia la derecha.

Hay que tener en cuenta que cuando n → ∞, p → 0 y np permanece constante la distribución binomial puede
aproximarse mediante una distribución de Poisson.
BINOMIAL NEGATIVA.

CÓDIGO:

op <- par(mfrow = c(1, 3),bg = "seashel2")


par(lty="dashed")
par(col="red")

x <- 0:90
plot(x, dnbinom(x, size=10, prob=0.5),
xlab="N. de sucesos",
ylab="F. de Probabilidad",col="orangered4",
main="BN(10, 0.5)", type="h")
points(x, dnbinom (x, size=10, prob=0.5), pch=16)
abline(h=0, col="blue")

x1 <- 0:90
plot(x1, dnbinom (x1, size=25, prob=0.5),
xlab="N. de sucesos", col="red2",
ylab="F. de Probabilidad",
main="BN(25, 0.5)", type="h")
points(x1, dnbinom (x1, size=25, prob=0.5), pch=16)
abline(h=0, col="blue")

x3 <- 0:90
plot(x3, dnbinom (x3, size=50, prob=0.5),
xlab="N. de sucesos",
ylab="F. de Probabilidad", col="tomato2",
main="BN(40, 0.5)", type="h")
points(x3, dnbinom (x3, size=50, prob=0.5), pch=16)
abline(h=0, col="blue")
Ahora X es el número de fracasos que deben ocurrir antes que se observe el r-ésimo éxito. Tiene 2 parámetros,
p y r.

Por esto se observa que cuando la probabilidad de éxito es baja se necesita realizar muchos más ensayos que en
el caso donde la probabilidad de tener éxito es alta.

Cuando k = 1, la distribución binomial negativa, BN(1, p), se denomina distribución geométrica de parámetro p,
Ge(p):
GEOMÉTRICA

CÓDIGO:

op <- par(mfrow = c(1, 3),bg = "papayawhip")


par(lty="dashed")
par(col="black")

x <- 0:5
plot(x, dgeom(x, prob=0.9) ,
xlab="N. de sucesos",
ylab="F. de Probabilidad",col="sienna2",
main="G(0.9)", type="h")
points(x, dgeom (x, prob=0.9), pch=16)
abline(h=0, col="blue")

x1 <- 0:20
plot(x1, dgeom (x1, prob=0.5),
xlab="N. de sucesos", col="salmon1",
ylab="F. de Probabilidad",
main="G(0.5)", type="h")
points(x1, dgeom (x1, prob=0.5), pch=16)
abline(h=0, col="blue")

x2 <- 0:60
plot(x2, dgeom (x2, prob=0.1),
xlab="N. de sucesos", col="orange",
ylab="F. de Probabilidad",
main="G(0.1)", type="h")
points(x2, dgeom (x2, prob=0.1), pch=16)
abline(h=0, col="blue")
EN PYTHON:

Para esta distribución hay ensayos repetidos independientes entre sí, con 2 resultados posibles. La probabilidad
de éxito es la misma (p) en todos los ensayos. Pero siempre se mantiene la forma de la gráfica.

También podría gustarte