Está en la página 1de 12

Introducción al cálculo de probabilidades y

estadı́stica

J. R. Solana
Universidad de Cantabria

2021

Sucesos aleatorios. Probabilidad


En la naturaleza podemos encontrar fenómenos deterministas, que son aquellos en los
cuales una misma causa produce siempre el mismo resultado. Como ejemplo, podemos
considerar la caı́da de un objeto bajo la acción de la gravedad en el vacı́o: la aceleración
será siempre la misma, la aceleración de la gravedad, y mediante la ley de Newton podemos
predecir, por ejemplo, la distancia que recorrerá en un determinado intervalo de tiempo.
Pero también podemos encontrar fenómenos aleatorios, que son aquellos en los cuales una
misma causa puede producir diferentes resultados. Un ejemplo tı́pico es el lanzamiento
de una moneda al aire, cuyo resultado no podemos predecir.
Cada uno de los resultados posibles de un experimento aleatorio es un suceso elemental.
Ejemplos de sucesos elementales son cada uno de los posibles resultados de lanzar una
monenda al aire o un dado. Un suceso compuesto es la combinación de varios sucesos
elementales. Ejemplos de estos últimos serı́a que al lanzar dos veces consecutivas un dado
salga en ambos casos un seis o que al lanzar un dado salga un dos o un tres.
Cuando se repite un experimento aleatorio un cierto número de veces y se registran los
resultados del mismo, se obtiene una muestra. El conjunto de todas las posibles pruebas de
un experimento aleatorio con sus resultados constituye el universo, población o colectivo

1
asociado a dicho experimento aleatorio. Como ejemplo, podemos considerar la intención
de voto de los votantes de un paı́s de cara a unas elecciones: el universo o población
está constituido por el conjunto total de personas del paı́s con derecho a voto con sus
respuestas, pero la consulta se realiza a un cierto número de personas, representativas
del conjunto total, las cuales, junto con las correspondientes respuestas, constituyen la
muestra.
Una variable aleatoria es cualquier variable que depende del resultado de un experi-
mento aleatorio. Por ejemplo, el cuadrado del número que se obtiene al lanzar un dado.
Una variable aleatoria discreta es aquella que sólo puede adquirir valores discretos,
como es el caso de los ejemplos que hemos mencionado hasta ahora. Una variable aleato-
ria continua es aquella que puede adquirir cualquier valor dentro de un cierto intervalo,
potencialmente ilimitado. Como ejemplo de esta última, podemos considerar la distancia
del impacto de un dardo lanzado al centro de una diana.
Mientras que en los fenómenos deterministas basta un número relativamente pequeño
de esperimentos para determinar empı́ricamente las leyes que los rigen, p. ej. la ley que
rige la caida de un objeto en el vacı́o, en los fenómenos aleatorios se requiere un gran
número de pruebas a tal fin.
Consideremos en primer lugar una variable aleatoria discreta. Para establecer las
leyes que la rigen necesitamos realizar un gran número N de pruebas, de manera que
obtengamos todos los resultados i posibles y cada uno de ellos un gran número Ni de
veces, al cabo de las cuales podemos determinar la frecuancia f r(i) con que se ha obtenido
cada resultado i:
Ni
f r(i) = ,
N
Si repetimos la serie de N pruebas obtendremos un conjunto {f r(i)} distinto de frecuen-
cias. Sin embargo, se verifica:

Ni
Pi = lim f r(i) = lim ,
N →∞ N →∞ N

donde Pi es la probabilidad de obtener el resultado i, que es constante para cada suceso


i. Este hecho constituye la ley del azar o ley de los grandes números. De manera que

2
en un fenómeno aleatorio discreto todo lo que podemos decir sobre el resultado de una
prueba es la probabilidad de que se produzca cada resultado posible y para determinar
dichas probabilidades se requiere realizar un gran número de pruebas. Ası́, por ejemplo, si
queremos determinar la probabilidad de que salga cada uno de los seis resultados posibles
al lanzar un dado, deberemos realizar un enorme número de pruebas y determinar la
frecuencia con que sale cada uno de los números. Se obtendrı́a ası́ que Pi = 1/6 para
cada i.... si el dado es perfecto, pero si tiene algún defecto, por pequeño que sea, Pi será
diferente para cada número i. En cualquier caso, se cumpe la condición de normalización:
X
Pi = 1.
i

Si la probabilidad de que se produzca el resultado A es P (A), la probabilidad de que


no se produzca dicho resultado será 1 − P (A). La probabilidad de que se produzcan el
resultado A o el B o ambos es:

P (A + B) = P (A) + P (B) − P (AB),

donde P (AB) es la probabilidad de que se produzcan ambos resultados simultáneamente:1

P (AB) = P (A/B)P (B) = P (B/A)P (A) = P (BA),

donde P (A/B) es la probabilidad condicionada de que se obtenga el resultado A con la


condición de que también se obtenga el resultado B y P (B/A) es la probabilidad condi-
cionada de que se obtenga el resultado B con la condición de que también se obtenga el re-
sultado A. Por ejemplo, consideremos que tenemos una urna opaca con 5 bolas blancas (B)
y 5 bolas negras (N) y deseamos determinar la probabilidad de que al realizar dos extrac-
ciones consecutivas sin retornar la primera bola extraı́da, obtengamos dos bolas blancas.
La probabilidad de que la primera bola sea blanca es P (B) = 1/2. La probabilidad de que
la segunda bola sea blanca con la condición de que la primera sea blanca es P (B/B) = 2/5.
De manera que la probabilidad pedida es P (BB) = P (B/B)P (B) = (2/5)(1/2) = 1/5.
Si los resultados A y B son mutuamente excluyentes se cumple P (AB) = 0 y P (A +
B) = P (A) + P (B). Por ejemplo, podemos considerar la probabilidad de que al lanzar
1
Obsérvese la analogı́a con la unión y la intersección de conjuntos: A + B ≡ A ∪ B, AB ≡ A ∩ B.

3
un dado al aire obtengamos un 1 (A) y un seis (B): tenemos P (AB) = 0 y P (A + B) =
P (A) + P (B) = 1/6 + 1/6 = 1/3.
Si los resultados A y B son independientes se verifica:

P (A/B) = P (A) P (B/A) = P (B), P (AB) = P (A)P (B),

[1 − P (A + B)] = [1 − P (A)][1 − P (B)].

Los resultados anteriores pueden generalizarse para el caso de más de dos resultados.

Función de distribución y momentos de una variable


aleatoria discreta
Una distribución de probabilidad discreta queda determinada indicando las probabili-
dades individuales de cada uno de los sucesos posibles, es decir, indicando el conjunto
{Pi }.
Si z es una variable aleatoria que puede tomar valores xi , la función de distribución
se define como F (x) = P (z ≤ x). Se cumple que:

X
F (x) = Pi ,
xi ≤x

donde Pi = P (xi ).
El valor medio, valor esperado o media de una función f (z) de la variable aleatoria
discreta z que puede tomar valores xi es:

X
hf (z)i = f (xi )Pi .
i

Como caso particular, f (z) = z.


El momento de orden k respecto del origen de la variable aleatoria z se define como:

X
hz k i = xki Pi .
i

4
El momento central de orden k o momento con respecto a la media de la variable z se
define en la forma:
D k E X  k
z − hzi = xi − hzi Pi .
i

Especialmente importante es el momento de orden 2 con respecto a la media, denominado


varianza:
D 2 E X  2 X 
σ2 = z − hzi = xi − hzi Pi = x2i − 2xi hzi + hzi2 Pi
i i

X X X
= x2i Pi − 2hzi xi Pi + hzi2 Pi = hz 2 i − 2hzi2 + hzi2 = hz 2 i − hzi2 .
i i i

que constituye una medida de la dispersión de los resultados. Su raı́z cuadrada es la


desviación tı́pica o desviación estándar, que da una idea de la incertidumbre de una
medida. Si la desviación tı́pica es pequeña la distribución de probabilidad es estrecha y
puntiaguda, es decir, presenta un máximo acusado en las proximidades de hzi, mientras
que si σ es grande, la distribución de probabilidad es ancha y aplanada. Como caso
extremo tendrı́amos una distribución uniforme, en la que todas las probabilidades Pi
serı́an iguales.

Distribuciones binomial y multinomial


Un caso particular de variable aleatoria discreta de gran interés es la distribución
binomial o binómica que, como su nombre indica, sólo tiene dos casos posibles como
resultado de una prueba, que pueden denominarse éxito, con probabilidad p, y fracaso,
con probabilidad q = 1 − p. Un ejemplo tı́pico es el lanzamiento de una moneda al aire
en el que éxito serı́a si sale cara, por ejemplo, en cuyo caso tendrı́amos p = q = 1/2.
Otro ejemplo serı́a el lanzamiento de un dado y considerar éxito si sale 1, por ejemplo,
en cuyo caso p = 1/6 y q = 5/6. Deseamos determinar la probabilidad de que en un
total de N pruebas tengamos n éxitos. La probabilidad de tener n éxitos consecutivos
seguidos de N − n fracasos consecutivos serı́a pn q N −n , pero si no nos importa el orden en

5
que salgan los éxitos y los fracasos, sino sólo su número, tendremos que multiplicar por
las permutaciones con repetición de dos elementos de forma que uno aparece n veces y el
otro N − n veces, de modo que la probabilidad buscada es:

N!
Pn (N ) = pn q N −n .
n!(N − n)!

Distribución que cumple la condición de normalización. En efecto:


N N
X X N!
Pn (N ) = pn q N −n = (p + q)N = 1N = 1,
n=0 n=0
n!(N − n)!

donde hemos tenido en cuenta que el sumatorio es el desarrollo de la potencia N -ésima


del binomio p + q. El valor medio del número de éxitos es:
N N
X N! n N −n
X (N − 1)!
hni = n p q = Np pn−1 q N −1−n+1
n=0
n!(N − n)! n=1
(n − 1)!(N − 1 − n + 1)!

N 0 N 0
X N 0! n0 N 0 −n0
X
= Np 0 !(N 0 − n0 )!
p q = Np Pn0 (N 0 ) = N p,
n0 =0
n n0 =1

donde hemos llamado n0 = n − 1, N 0 = N − 1 y hemos tenido en cuenta la condición de


normalización.
La varianza es:
N
X N!
σn2 2
= hn i − hni = 2
n2 pn q N −n − (N p)2
n=0
n!(N − n)!

N
X N!
= (n2 − n + n) pn q N −n − N 2 p2
n=0
n!(N − n)!

N N
X N! n N −n
X N!
= n(n − 1) p q + n pn q N −n − N 2 p2
n=2
n!(N − n)! n=1
n!(N − n)!

N
X (N − 2)!
= N (N − 1) p 2
pn−2 q N −2−n+2 + N p − N 2 p2
n=2
(n − 2)!(N − 2 − n + 2)!

6
N 0
X N 0! 0 0 0
= N (N − 1) p 2
0 0 0
pn q N −n + N p − N 2 p2
n0 =0
n !(N − n )!

= N (N − 1)p2 + N p − N 2 p2 = N 2 p2 − N p2 + N p − N 2 p2 = N p(1 − p) = N pq,

donde hemos llamado n0 = n − 2, N 0 = N − 2 y hemos tenido en cuenta de nuevo la



condición de normalización. La desviación estándar es σn = N pq.
Una generalización de la distribución binomial es la distribución multinomial o multinó-
mica, en la que puede haber ν posibles resultados distintos de cada prueba, con probabili-
dades p1 , p2 . . . pν , con la condición p1 + p2 + · · · + pν = 1. La probabilidad de que en un
conjunto de N pruebas se obtenga n1 veces el resultado 1, n2 veces el resultado 2, ... , nν
veces el resultado ν, con la condición n1 + n2 + · · · + nν = N , viene dado por:

N!
Pn1 ,n2 ,...,nν (N ) = pn1 1 pn2 2 · · · pnν ν .
n1 !n2 ! · · · nν !

La condición de normalización es:


X
Pn1 ,n2 ,...,nν (N ) = 1,
{ni }

donde {ni } simboliza que la suma se extiende a todos los posibles valores de cada uno de
los ni .

Variables aleatorias continuas: densidad de probabili-


dad
En el caso de una distribución continua de probabilidad no tiene sentido hablar de la
probabilidad de un suceso determinado, porque serı́a nula, dado que en cualquier intervalo
finito hay infinitos resultados posibles. Por ello sólo podemos hablar de la probabilidad de
que el valor de la variabble aleatoria z se encuentre dentro de un cierto intervalo, que puede
ser tan pequeño como queramos. En estas circunstancias, la distribución de probabilidad,

7
en lugar de venir caracterizada por el conjunto de las probabilidades de todos los sucesos
posibles, como en el caso de las distribuciones discretas, viene caracterizada por la función
densidad de probabilidad f (x), definida mediante la expresión:

dP (x) = f (x)dx,

que nos da la probabilidad dP (x) de que la variable tenga un valor comprendido entre x
y x + dx. La función de distribución es ahora:
Z x
F (x) = f (x0 )dx0 .
−∞

La probabilidad de que la variable tenga un valor x comprendido entre x1 y x2 viene dada


por:
Z x2
P (x1 ≤ x ≤ x2 ) = f (x)dx = F (x2 ) − F (x1 ).
x1

La condición de normalización es ahora:


Z ∞
f (x)dx = 1.
−∞

La media de lafunción g(z) de la variable aleatoria z es:


D E Z ∞
g(z) = g(x)f (x)dx.
−∞

Como caso particular:


Z ∞
hzi = xf (x)dx.
−∞

La varianza de la variable aleatoria z:


Z ∞  2
2 2 2
σ = hz i − hzi = x2 − hzi f (x)dx.
−∞

8
La distribución gamma
La función densidad de la distribución gamma viene dada por:

xn−1 e−x
f (x) = , x ≥ 0,
Γ(n)

donde:
Z ∞
Γ(n) = xn−1 e−x dx = (n − 1)!,
0

de modo que es evidente que se cumple la condición de normalización. La forma de la


función densidad depende de n. En la Fig. 1 se ilustra su forma para n = 3.

0.30

n=3

0.20

f(x)

0.10

0.00
0 2 4 6 8 10
x

Figura 1: Función densidad de la distribución gamma para n = 3.

La media de la variable aleatoria z es:


Z ∞ Z ∞
1 1 Γ(n + 1) n!
hzi = xf (x)dx = xn e−x dx = = = n.
Γ(n) 0 Γ(n) 0 Γ(n) (n − 1)!

De forma similar:

9
Z ∞ Z ∞
1 1 Γ(n + 2) (n + 1)!
2
hz i = 2
x f (x)dx = xn+1 e−x dx = = = (n + 1)n,
Γ(n) 0 Γ(n) 0 Γ(n) (n − 1)!

de modo que la varianza viene dada por:

σ 2 = hz 2 i − hzi2 = (n + 1)n − n2 = n.

La función densidad de la distribución gamma generalizada se expresa:

an xn−1 e−ax
f (x) = ,
Γ(n)

donde a es una constante.

La distribución normal o gaussiana


La función densidad de la distribución normal o gaussiana es de la forma:

1 2 2
f (x) = √ e−(x−µ) /2σ ,
σ 2π
donde µ es el valor medio de la variable:
Z ∞ Z ∞
1 2 /2σ 2
µ = hzi = xf (x)dx = √ xe−(x−µ) dx,
−∞ σ 2π −∞

y σ 2 la varianza:
Z ∞ Z ∞
D E 1 D E 2 /2σ 2
2
σ = (z − µ) 2
= 2
(x − µ) f (x)dx = √ (x − µ) 2
e−(x−µ) dx.
−∞ σ 2π −∞

La Fig. 2 ilustra la forma de f (x).


La condición de normalización se expresa:
Z ∞
f (x)dx = 1.
−∞

La función de distribución es:


Z x Z x
1 0 0 0 2 /2σ 2
F (x) = P (z ≤ x) = f (x )dx = √ e−(x −µ) dx0
−∞ σ 2π −∞

10

∫ f ( x ) dx = 1 (43)
−∞

0.5

0.4

0.3
f(x)


0.2

0.1
µ

0.0
-2.0 0.0 2.0 4.0 6.0
x
Fig.1
Figura 2: Función densidad de la distribución normal o gaussina.

Además:
Ciertas distribuciones discretas se aproximan como casos lı́mites a la distribución nor-
∞ ejemplo, de la distribución binomial para N → ∞.
mal. Tal es el caso, por
∫ de variable la distribución gaussiana se transforma en la dis-
µ = < x> =
Mediante un cambio
x f ( x ) dx (44)
−∞
tribución gaussiana normalizada o estándar, que corresponde a m = 0 y σ = 1. Su
función densidad es:
y:
1 2
f (x) = √ e−x /2 ,
2

σ2 = < ( x − función
y su correspondiente µ ) > de distribución: (45)
Z x
1 02
F (x) = √ e−x /2 dx0 ,
J. Ramón Solana.- Teoría Cinética de los
2πGases
−∞ 14
que se encuentra tabulada. En la Tabla 1 se indican sus valores para x ≥ 0, los valores
correspondientes a x < 0 se obtienen fácilmente a paratir de dicha tabla teniendo en
cuenta la simetrı́a con respecto al origen de la función densidad de dicha distribución.
El teorema central del lı́mite establece que si z1 , z2 , . . . , zn son variables independientes
con la misma media µ y varianza σ 2 < ∞, entonces en el lı́mite n → ∞ la distribución
de su suma Sn = ni=1 zi es una gaussiana con media nµ y varianza nσ 2
P

11
Tabla 1: Tabla de la función de distribución gaussiana normalizada:
Rx x02
F (x) = √12π −∞ e− 2 dx0 .

x 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389

1,0 0,8413 0,8438 0,8461 0,8465 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767

2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986

3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998
3,6 0,9998 0,9998 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999

12

También podría gustarte