Está en la página 1de 25

FUNCIONES DE DENSIDAD DE PROBABILIDAD.

El poder determinar la frecuencia con la que un valor de una variable aleatoria aparece como
resultado de un experimento permite predecir los posibles valores resultantes en próximos experimentos. Sin
embargo el intentar realizar un número suficientemente grande de experimentos para poder predecir
confiablemente el valor resultante en un próximo experimento es imposible, con el fin de solucionar este
problema se han desarrollado las Funciones de Densidad de Probabilidad. Funciones con las que es posible
calcular, que no medir, la frecuencia relativa para cada uno de los valores elemento del espacio muestral de la
variable. El conocer estas frecuencias relativas permite, entre otras cosas, determinar la probabilidad de que
el resultado de un experimento caiga en un cierto intervalo del espacio muestral.
Las Funciones de Densidad de Probabilidad (f(x)) deben de cumplir las siguientes condiciones:

1. f(x) es una función unívaluada y positiva para todos los valores x   .


 f(x)dx 1
2. f(x) está normalizada a la unidad  .
3. La probabilidad de que x caiga entre dos valores reales a y b está dada por:
b
P(a  x  b)  a
f(x)dx

y la probabilidad de que se obtenga un valor  x está dada por:


x
F(x)  

f(x)dx

donde la función F(x) se conoce como función de distribución de probabilidad o función integral de
distribución.
El valor de la media poblacional () de la función de densidad de probabilidad está dado por:

μ   xf(x)dx


(1)
Es necesario destacar que la media obtenida a través de la ecuación (1) es la media poblacional,
mientras que:
n

x i
x i 1
n
(2)

es un estimador de esta media. Que tan buen estimador resulte x depende de que tan representativa es la
muestra de la población.
Algunas propiedades de la media poblacional, que también son validas para la media muestral
definida en la ecuación 2, son:
1
1.-Si c es una constante (magnitud no aleatoria)se cumple
c)= c
(3)
cx)= cx)
(4)
2.- Si la magnitud aleatoria x es la suma de n magnitudes independientes
x = x1 + x2 + . . . +xn

el valor medio de la variable x es igual a la suma de los valores medios de cada una de las n variables
aleatorias
x) = x1) + x2) + . . . +xn)
(5)
3.- Si la magnitud aleatoria y es una cierta función no lineal de n magnitudes aleatorias
independientes
y = f(x1,x2, . . ., xn)
que varía poco en intervalos pequeños de variación de los argumentos, para la media y) se cumple, en
forma aproximada que
y) = f(x1),x2), . . ., xn))
(6)
La varianza poblacional () se obtiene:

σ2   (x  μ)
2
f(x)dx

(7)
El correspondiente estimador de es:
n

(x  x ) i
2

s2  i 1
n 1
(8)

La varianza tiene las siguientes propiedades:


1.- Si c es un número constante entonces
c) = 0
(9)
cx) = c2x)

2
(10)
2.- La ley de adición de las varianzas: Si la magnitud aleatoria x es la suma de n magnitudes
independientes
x=x1 + x2 + . . . +xn
el valor de la varianza de la variable x es igual a la suma de los valores de las varianzas de cada una de las n
variables aleatorias
x) = x1) + x2) + . . . +xn)
(11)
vale la pena hacer notar que la ley de adición es valida para las varianzas (xno así para las desviaciones
típicas (x

Función de Densidad de Probabilidad Normal.


Un ejemplo de función de densidad de probabilidad es la Función Gaussiana o Función de Densidad
de Probabilidad Normal. En la naturaleza no existe un gran número de variables que cumplan con esta
distribución; sin embargo, presenta la ventaja que para un número grande de datos otras funciones de
densidad se aproximan a la función de Densidad de Probabilidades Normal.
La Función de Densidad Normal o Función Gaussiana para una variable aleatoria x está dada por:
1  1  x   2 
 
f  exp   
 2  2   
 

(12)
Mientras que la Función de Distribución de Probabilidad es:

1 x0 �
�1 �
2
x-μ ���
F x = � dx exp -
� � ��
σ2π - �
�2 �σ ��
(13)
La curva de la Función de Densidad de Probabilidad (figura 1) es simétrica con respecto a la posición
de , razón por la cual la moda y la mediana coinciden con la media. Vale la pena hacer notar que el ancho de
la curva depende de , entre más grande es la desviación típica más ancha y más baja es la campana.

3
Figura 1.- Función de Densidad de Probabilidad Normal.

El área bajo la curva cumple que el .68 se encuentra en la región determinada por [, + ], es
decir hay un 68% de probabilidad de que dado un valor de la variable aleatoria éste caiga en dicho intervalo.
Para la región comprendida en [, + 2], se cuenta con un .955 del área bajo la campana, lo que indica
que dado un valor de x existe um .955 de probabilidad de que caiga en esa región.
El 99.7% del área bajo la Función de Densidad de probabilidad está comprendida en [, + 3],
con lo que se tiene una probabilidad de. .997 de encontrar un valor dado de la variable x.
Los valores del área bajo la curva de la Función de Densidad de probabilidad Normal se encuentran
en tablas para los valores µ=O y  = 1, de tal suerte que para poder hacer uso de estos datos es necesario
efectuar el siguiente cambio de variable:
x-μ
U=
σ(x)
(14)
Para cuando se tiene un solo conjunto de valores de la variable x, con x la media del conjunto de
valores, la media poblacional y x) la desviación típica poblacional. Para el caso en el que se han repetido
en varias ocasiones el conjunto de toma de datos y x representa el promedio de los promedios de cada

conjunto de datos y σ(X) es la desviación típica poblacional del conjunto de promedios, entonces la variable
a usar es:
x-μ
U=
σ(x)
(15)
4
Sin embargo los parámetros yx) no se pueden conocer, entonces el cambio de variable que se
utiliza y que solamente da una estimación de los resultados es:

x-x
z=
s
(16)
Con x valor de la variable estudiada, x valor medio, S la desviación típica de x y z es el valor de la variable
que se requiere consultar en la tabla.
Para poder hacer uso de la información contenida en las tablas de área bajo la función normal de
distribución de probabilidad, se hace necesario saber que zona de la función se está presentando. En las
siguientes figuras se muestran algunas posibilidades.

Figura 2.- La zona achurada representa la función de Distribución de Probabilidad F(x).

De acuerdo con la ecuación 13 la Función de Distribución de Probabilidad (F(x)) es el área bajo la


función de Densidad de Probabilidad de � a un cierto valor x0 de la variable, es decir es la probabilidad de

encontrar un valor de la variable en el intervalo �, x 0 :

F(x 0 )= P(-�<x �x 0 )
(17)

5
Con una tabla que contenga esta información también es posible determinar, directamente1, la
probabilidad del intervalo complementario:

P(x 0 �x<�)= 1 - P(-�<x �x 0 )


(18)

Figura 3.- Área central bajo la curva de la función de densidad de probabilidad Normal o de Gauss.

Algunas tablas de área bajo la curva de densidad de probabilidad Normal lo que contienen es el área
central de la curva (Fig. 3), es decir la probabilidad del intervalo centrado en el valor medio
(P(-x 0 �x �x0 )) . Es claro que con la información contenida en esta tabla es posible determinar las

siguientes probabilidades:
P(-x 0 �x �x 0 )
P(-x 0 �x �0) = P(0 �x �x0 ) =
2
(19)
expresión valida cuando -x 0 = x 0 y sin olvidar que el valor medio usado para realizar los cálculos es igual

a cero (μ = 0) . La probabilidad de las colas:

1
La aclaración “directamente” es porque la determinación de la probabilidad no requiere hacer ninguna otra operación
matemática, sin embargo con cualquier tabla es posible determinar la probabilidad de cualquier intervalo, basta recordar que la
integral de un intervalo es igual a la suma de las integrales de los subintervalos en los que se divide el intervalo.
6
P(-�<x �x 0 ) + P(-x 0 �x<�) = 1 - P(-x 0 �x �x 0 )

(20)
por cierto existen tablas que contienen esta probabilidad (fig. 4).
Vale la pena repetir que sabiendo el tipo de información contenida en las tablas de la función
de densidad de probabilidad Normal es posible determinar la probabilidad de cualquier intervalo de interés,
basta hacer las sumas o las restas correspondientes, sin olvidar que las probabilidades de los intervalos son
áreas bajo la curva y que éstas pueden sumarse o restarse.

Figura 4.- Área de colas bajo la curva de la función de densidad de


Probabilidad Normal o de Gauss.

Con el fin de ver la aplicación de las tablas de valores de la función de densidad de probabilidad se
presenta el siguiente ejemplo: Suponiendo que los datos utilizados en el ejemplo (tabla de frecuencia) siguen
una distribución normal, suposición inadecuada ¿por qué?, ¿cuál es el intervalo de valores de la variable,
centrado en el valor promedio, en el que existe un 50 % de probabilidad de encontrar un valor x de la
variable?.
Como se ve en la tabla mostrada en la figura 5, para un área de 0.5 se tiene un valor de z = 0,674, con
este valor y haciendo uso de la ecuación 48 es posible determinar el valor la variable x. Despejando a x:

x = (z �s) + x
(21)
Sustituyendo: x = 18,12 y s = 0,16 en la ecuación 53 se tiene:

x = (0,674 �0,16) + 18,12


7
x = 18,23
Este valor de la variable x representa el límite superior de la región central que es el 50% del
área bajo la curva, el límite inferior se obtiene de la siguiente forma:

Figura 5.- Ejemplo de diferentes formas de presentación del área bajo la curva de la Función de de
Densidad de Probabilidad.

Δx = x sup -x

xinf = x-Δx
Sustituyendo los valores correspondientes:
Δx = 18,23-18,12
Δx = 0,11
xinf = 18,12 - 0,11

xinf = 18,01

El intervalo de valores de x en que existe un 50 % de probabilidad de que un valor de x caiga es

[ 18, 01;18, 23] . De la tabla de frecuencia se observa que hay 11 datos que caen en el intervalo, lo que
demuestra una buena aproximación.
8
Con la misma hipótesis (que los datos utilizados en el ejemplo “tabla de frecuencia” siguen una
distribución normal) determinar cual es la probabilidad de encontrar un valor de x en el intervalo

[ 17,80;18, 44] , centrado en el valor promedio.


Para poder hacer uso de la tabla de la figura 5 es necesario transformar el intervalo de interés a un
intervalo en términos de la variable z, dado que el intervalo está centrado en el valor promedio bastará
transformar uno de los valores extremos, por ejemplo 17,80 entonces haciendo uso de la expresión 48 se
tiene:

17,80-18,12
z=
0,16

z = -2
Lo que significa, en términos de la variable z, que el intervalo es [ 2, 2] . De acuerdo a la tabla de la
figura 11, en dicho intervalo, se tiene aproximadamente (z = 1.960) un área de 0,95. Recordando que el
área total bajo la función de distribución está normalizada a uno, entonces el área comprendida en el
intervalo representa un 95 % del área total, lo cual quiere decir que existe un 95 % de probabilidad de
encontrar un valor en dicho intervalo:
P (17,80 �x �18,44) = 0,95
Sin embargo de la tabla de frecuencia se tiene que el espacio muestral está comprendido en el

intervalo [ 17,82;18, 40] , situación que se debió prever. Es necesario reflexionar en el sentido que se está
tratando de predecir el comportamiento de una función de densidad de probabilidad obtenida a partir de un
número finito de datos y que su espacio muestral está contenido en un intervalo finito, a través de una
función de densidad desarrollada para un número infinito de datos y cuyo espacio muestral es < ��
, >.

Función de Densidad de Probabilidad t-Student.


La función de densidad de probabilidad t-Student es una función de distribución de probabilidad que
considera a la desviación típica muestral, en contraste con la función normal que utiliza la desviación típica
poblacional. La variable t que determina a la función de densidad de probabilidad t-Student está definida
como:

9
x-μ
t=
s  x

(22)
La función de la densidad de probabilidad t-Student depende del número de grados de libertad (f) de la
desviación típica muestral, que es igual a n-1 con n número de observaciones, y se determina a través de la
fórmula.

 f 1
   f 1 
2   2 
 2  1  t   
 t    
f  12  f   f 
2
 < t < 
(23)

Donde la función gama ( (x)) se define como:


� z 1

�e
-y
Γ(z ) = y dy
0

(24)
En la figura 6 se muestra la función de densidad de probabilidad t-Student para varios grados de
libertad, la función es simétrica respecto al valor t=0. Para valores de f>20 la función de distribución t-
Student se acerca a la función normal y para f = ∞ ambas coinciden. Para valores pequeños de f, es decir
para pocos grados de libertad (pocas observaciones) la función de distribución se diferencia fuertemente de
la normal. Por ejemplo para f=1 la función ф(t) su máximo es menor y se acerca al eje de las abscisas más
lentamente para t→±ºº.
Una de las aplicaciones de las funciones de densidad de probabilidad es, dada una probabilidad
determinar el intervalo de valores de la variable que cumple con dicha probabilidad. En el caso de la función
t-Student si la probabilidad α de que la magnitud aleatoria t caiga en un intervalo cualquiera está dada, los
límites del intervalo buscado se caracterizan por las magnitudes -t 1-α(f),t1-α(f), dependientes del número de
grados de libertad f y determinados de la condición.

P(-t1-α(f)<t(f)<t1(f))= α (25)

10
Figura 6.- Función de densidad de probabilidad t-Student para
varios grados de libertad. La función de distribución t-Student, para
f = ∞ coincide Con la Función de Densidad de Probabilidad
Normal

Un ejemplo de aplicación de la función de densidad de probabilidad t-Student es la determinación


del error que hay entre la media poblacional de una variable y la media muestral. Considerando como centro
la media muestral, dado un intervalo. Por lo general la probabilidad de que la media poblacional caiga en
dicho intervalo es de 0.95, pudiendo tomar otros valores dependiendo del tipo de observaciones.
El intervalo de confianza para la media poblacional de la magnitud aleatoria se puede construir mediante la
magnitud aleatoria t y la función de distribución t-Student, ya que el número de observaciones es pequeño.
Aplicando la expresión (52), que determina los límites del intervalo de confianza por la probabilidad de que
la magnitud aleatoria x caiga en él; como tal se toma la magnitud de la función t-Student (f) con f=n-1 grados
de libertad, donde n es el número de observaciones.
P(-t1-α(f)<t(f)<t1-α(f))=α
Sustituyendo el valor t(f) de acuerdo con la expresión (49). Se obtiene

x
P(t1a ( f ) < < t1a ( f ))  a
s ( x)
(27)

11
A solucionar la desigualdad para μ, se llega a


 
  
P ( x  t1a  f   s x  <  < x  t1a  f   s x    a
   

(28)
este intervalo es el intervalo de confianza, que determina la certeza de la media muestral, como estimador de
la media poblacional de la magnitud que se mide.
Aplicando el resultado de la ecuación (45) se obtiene
 s x 
t1a  f   s x   t1a ( f )
  n
(29)
Este resultado debería ser usado para expresar la desviación típica poblacional (σ(x)) con base a la
desviación típica muestral (s(x)) en el momento de determinar la incertidumbre tipo A, sin embargo como se
ha visto en “ESATADÍASTICA” de acuerdo con la norma NMX-CH-140-IMNC-2002 la incertidumbre tipo
A es igual a:
s ( x)
u A ( x) 
n
(30)

Función de densidad de probabilidad 2


Si se tienen n magnitudes aleatoria independientes x 1, x2, ..., xn, cada una de la cuales satisface la
función de densidad de probabilidad normal de parámetros  y  .
Para cada magnitud aleatoria establecemos la expresión.
x -μ
Ui = σi
En tal caso, la suma de los cuadrados de la magnitudes aleatorias
n
 2 =�Ui 2
i=i

tiene ley de distribución, llamada distribución 2, con f=n grados de libertad. La función de la densidad de
probabilidad de distribución 2 se determina por la fórmula.

-2
1
j =  2  2 e 2
f -1
2
f �f �
2Γ2 � �
�2 �
y depende sólo del número de grados de libertad f.  es la función Gamma.

12
Función de densidad de probabilidad para la
distribución 2 para diferentes grados de libertad (f).
Contrario al comportamiento de la función de distribución normal, que es simétrica respecto a  , y
x-μ
de la función t-Student que lo es también (recuérdese que el cambio de variable U= las centra es cero),
σ
la función de distribución 2 sólo es simetría para valores grandes de f a cambio de disminuir su altura.

A continuación se muestra la parte superior de la tabla de valores de la función de distribución para


2. En el primer renglón se muestra una serie de probabilidades (0,40; 0,30; 0,20; …) que encabezan
diferentes columnas, en la columna final están los posibles grados de libertad. El cuerpo de la tabla

�  d
representa  de j 
2 2 2
0
χ02

Función de Densidad de Probabilidad de Fisher

Si se tienen dos conjuntos de observaciones independientes de la magnitud aleatoria x.

x1, , x2, ,.... xn,


x1" , x2" ,.... xn"

13
Con número de mediciones n1 y n2 y dispersiones muestrales s12 y s22 satisfacen una misma
dispersión poblacional, entonces se tiene la igualdad.
 12   22   2 ,
Es decir las dispersiones muestra son homogéneas, concepto que puede extenderse a más dispersiones
muestrales.

S12
La relación de las dispersiones muestrales F= 2 ; donde S12 corresponde a la mayor dispersión, es una
S2
magnitud aleatoria que obedece a la ley de distribución conocida como Ley de distribución de Fisher y que
está determinada a través de:

 f   f1 
Γ  f1  2  f f  1 
2 
 2  f 2f 2
1 2 F
j (F)  1 2 f1  f 2
f  f   f 2  f1 F  2
Γ 1   Γ 2 
2  2

0 �F < �

con f1 y f2 grados de libertad y es la conocida función Gamma de Euler. Se expresa como F(f 1,f2) con la

propiedad F(f1,f2 ) �F(f2 ,f1 ) en general. El único caso el que F(f1,f2 )  F(f2 ,f1 ) es cuando n1=n2 y S1 =S2 .
2 2

Función de densidad de probabilidad para la


distribución Fisher. Se muestran dos curvas
para dos pares de grados de libertad.

La gráfica es j (F) en función de F (razón entre los cuadrados de las dispersiones). En la tabla se
encuentra el valor de la razón de los cuadrados de las dispersiones para una probabilidad (la probabilidad de
que dados f1 y f2 la variable F tome algún valor) dada y para f 1 y f2 que van de 1 a �. En la tabla se entiende
f1 como el número de grados de libertad para la mayor dispersión (s 1), mientras f2 representa el número de
grados de libertad para la menor dispersión (s2).

14
En el cálculo de la incertidumbre tipo B, proveniente de los aparatos de medición, es necesario
determinar cual es la función de distribución que sigue la incertidumbre del aparato, a continuación se
muestran dos ejemplos de funciones de distribución que permiten solucionar este problema. El desarrollo que
se siga para estos ejemplos se puede aplicar para cualquier otra función de distribución, la limitante es la
posibilidad no de calcular las integrales que interviene en el desarrollo.

Función de Densidad de Probabilidad Rectangular.

La función de densidad de probabilidad se expresa como:

h μ - a 1  x  μ  a 2
f(x)  
0 en cualquier otro caso

De acuerdo con la condición de normalización se tiene:



-
f(x)dx  1

Para el caso de la función de densidad de probabilidad rectangular el único intervalo en el que la

integral es diferente de cero es [ μ  a 1 , μ  a 2 ] , entonces:

15
 a 2
 -a 1
h dx  1

al efectuar la integral:
μ a 2
hx 1
μ  a1

h (a 2  a1 )  1

despejando h:
1
h
a1  a 2

Ahora se determina el valor promedio, recordando que la integral sólo es diferente de cero en el

intervalo [ μ  a1 , μ  a 2 ] se tiene:

  a2
μ1   x h dx
  a1

realizando la integral:
μ a 2
x 2h
μ1 
2 μ a1

haciendo las sustituciones y las operaciones se tiene:

μ
h
2
2μ a 2  a 1    a 22  a 12 
sustituyendo el valor de h:
a 2  a1
μ1  μ 
2
Antes de continuar es necesario reflexionar acerca de: ¿qué significado tiene la , es necesario hacer notar
que ésta pretende ser el valor central de la gráfica?, ¿qué significado tiene: a 1 < a 2 ; a 2 < a 1 ó a 1  a 2 ?
Para determinar la varianza se tiene:
2
 a 2   a  a1  
σ (x)  
2
h μ   2   x  dx
 -a1
  2  
Efectuando la integral y sustituyendo el valor de h se tiene:

16
2
σ (x) 
 a1  a 2 
2

12
¿Qué significado tiene a 2  a 1 ? Es el tamaño del intervalo en el que la función densidad de
probabilidad rectangular es diferente de cero.
Si es cierto que es el valor central de la función entonces: a 1  a 2 , de donde se tiene que la varianza
está dada por:
a 12
σ 2 (x) 
3
y la desviación típica es:
a1
σ(x) 
3
Se tiene entonces, que para equipos de medición cuyos resultados siguen una distribución rectangular,
con  valor medido, x) representa la incertidumbre tipo B.

Función de Densidad de Probabilidad Triamgular

Para facilitar los cálculos se supone lo que significa que la abscisa del vértice es igual a cero.
De donde la función de densidad de probabilidad triangular está dada por:
La recta que limita la función de densidad de probabilidad en el intervalo  a  x  0 se determina
haciendo uso de los vértices (-a,0) y (0,h). La pendiente de la recta es:
h
m1 
a
entonces la función de densidad de probabilidad en el intervalo dado es:
h
f(x)  xh
a

17
Para el intervalo 0  x  a , los vértices usar son (0,h) y (a,0) de donde la pendiente para este
intervalo es:
h
m
a
entonces para este intervalo la función de densidad de probabilidad para este intervalo es:
h
f(x)   xh
a

La función de densidad de probabilidad en el intervalo  < x <  queda definida por:

0 x < a
h
 xh a  x  0
a
f(x)  
 h x  h 0xa
 a
0 a<x

Aplicando la condición de normalización y tomando en cuenta que el intervalo en el que la integral es


diferente de cero es  a  x  a , se tiene:
h
0  a h 
 
a a

x  h dx     x  h dx  1
 0
 a 
realizando las integrales se tiene:
0 a
 hx 2   hx 2 
  xh     xh   1
 2a  a  2a 0

haciendo las operaciones:


h(a  a)
1
2
despejando a h:
1
h
a
Sustituyendo en la función de densidad de probabilidad se tiene:

18
0 x < a
x 1
 2 a  x  0
a a
f(x)  
 x  1 0xa
 a2 a
0 a<x

Para esta función de densidad de probabilidad la media es cero, ya que la distribución es simétrica
respecto a ese valor y el máximo se localiza en ese valor. Entonces, para este caso particular se tiene que la
varianza está dada por:

σ 2 (x)  
x 2 f(x)dx

recordando que el intervalo en el que la función de densidad de probabilidad triangular es diferente de cero es
[  a, a ] , la varianza está dada por:
0  x 1 a  x 1
σ 2 (x)   x 2  2  dx   x 2   2  dx
a
a a 0
 a a
separando las integrales:
0 x3 0 x
2
a x
3
a x
2
σ 2 (x)  a a2
dx  a h dx  0 a 2 dx  0 h dx
haciendo cada una de las integrales:
0 0 a a
x4 x3 x4 x3
σ (x) 
2
  
4a 2 a
3a a
4a 2 o
3a 0

realizando las operaciones correspondientes:


a2
σ 2 (x) 
6
entonces, la desviación típica para una función de distribución de probabilidad triangular está dada por:
a
σ(x) 
6

que para el caso de tener un instrumento de medición, cuyos resultados sigan una distribución triangular esta
desviación es la incertidumbre tipo B, del instrumento.

Función de Densidad de Probabilidad Binomial.


Si existe la posibilidad de separar en dos eventos complementarios  A y A  los valores de la variable
aleatoria de interés, se puede definir como sucedido (S) cuando ocurre el evento A y cuando sucede el evento
A el evento ha fallado (F). Si p es la probabilidad de S y q es la probabilidad de F y dado que A y A son

19
complementarias entonces p=(1-q). Algunos ejemplos de variables que pueden separarse en grupos
complementarios: sexo en un grupo de individuos, posibles valores masculino y femenino.
Al arrojar un dado la variable aleatoria X toma el valor 0 si la cara del dado es par y 1 si la cara del
dado es non. Los posibles valores de la variable X son 0, si el dado cae {2,4,6}, y 1, si {1,3,5}. Vale la pena
mencionar que la variable así definida, depende de los valores del espacio muestral pero no toma los valores
del espacio muestral.
Si se repite un experimento n veces y K es el número de veces que el evento sucede, entonces K
puede tomar cualquiera de los posibles valores {0,1,2,...,n}, la probabilidad de K (k) está dada por el k-ésimo
elemento del desarrollo binomial (p+q)n2.
Si el experimento se ha repetido n veces, es posible haber obtenido la siguiente secuencia: SSFSFFS...
la cual en términos de probabilidades p y q se puede expresar como: ppqpqqp...= p kqn-k, que indica la
probabilidad que dicha secuencia ocurra, pero cuántas secuencias con k éxitos y n-k fracasos se pueden tener.
El número de dichas secuencias es el número de formas que pueden tomarse k elementos de un conjunto de n
elementos, por ejemplo de los posibles valores que se tienen en un dado {1,2,3,4,5,6}, de cuántas formas
puede tomarse una cara: {1}, {2}, {3}, {4},{5} y {6} es decir 6 formas.
De cuántas formas pueden tomarse pares de letras del siguiente conjunto {a,b,c,d}. Las posibles
parejas son: {a,b}; {a,c}; {a,d}; {b,c}; {b,d} y {c,d}, es necesario aclarar que el orden en el que se tomen los
elementos no importa y que no deben de repetirse. En general el número de formas como pueden tomarse k
elementos de un conjunto de n elementos se describe como nCk y es igual a:
n!
n
Ck 
(n  k )!k !

Entonces la probabilidad de que en un experimento que se repite n veces, se obtengan k éxitos está dado por:
P(K=k)=nCkpkqn-k
con k cualquiera de los posibles valores {0,1,2,3,…,n}.Dado que p y q son excluyentes la probabilidad
P(K=k) se puede expresar como:
P(K=k)=nCkpk(1-p)n-k
La probabilidad de que suceda cualquiera de los posibles valores de k está dad por:
n n

�P(K=k)=� C p q
k=0 k=0
n
k
k n-k
=(p+q)n =1

n n-1 �
�� n �n-2 2 n n-t t
��
 p+q
n
2
El desarrollo binomial está dado por: =pn + ��p q+ � �
p q +...+ ��p q +...+qn , donde los coeficientes
1
�� �2� t
��
n �n
� n!
de las potencias de p y q, ��= Cm = , representan el número de subconjuntos con m elementos de un conjunto de n
m�
� (n-m)!m!
elementos.
20
Es claro que la probabilidad P(K=k) es cada uno de los elementos del desarrollo binomial.
Un método recurrente para calcular P(K=k) se obtiene:
n
P(K=k) C pk qn-k
= n k k-1 n-k+1
P(K=k-1) Ck-1p q
Al realizar las sustituciones y las operaciones correspondientes se tiene:
P(K=k) n-k+1 �p �
= ��
P(K=k-1) k �q �
de donde al despejar P(K=k) se obtiene:
�n-k+1 �p
P(K=k)=P(K=k-1) � �
� k �q
dado que
P(K=0)=nC0p0qn

n! n
P(K=0)= q
0!n!
P(K=0)=qn
con lo que es posible determinar cualquier P(K=k) de manera recurrente. Al aplicar este procedimiento es
necesario verificar el valor P(K=n)=pn y que la suma de todas las probabilidades de uno, esto con el fin de
evitar errores de redondeo.
Ejemplo: Suponiendo que la probabilidad de que el evento A suceda es 0,6. Si el experimento se
repite 5 veces, determinar cuál es la probabilidad de que el evento A suceda 0 veces, una vez, 2,3,4,ó 5 veces.
Y cuál es la probabilidad de que suceda más de dos veces.
Haciendo uso de P(K=k)=nCkpkqn-k con n=6; p=0,6 y q=0,4. se tiene:
5!
P(0)= (0,6)0 (0,4)5
0!(5-0)!
P(0)= 0,01024
5!
P(1)= (0,6)1(0,4)4
1!(5-1)!
P(1)= 0,07680
5!
P(2)= (0,6)2 (0,4)3
2!(5-2)!
P(2)= 0,23040

21
5!
P(3)= (0,6)3 (0,4)2
3!(5-3)!
P(3)= 0,34560
5!
P(4)= (0,6)4 (0,4)1
4!(5-4)!
P(4)= 0,25920
5!
P(5)= (0,6)5 (0,4)0
5!(5-5)!
P(5)= 0,07776
La suma de las probabilidades es igual a uno.
P(K>2)=P(3) + P(4) + P(5)
P(K>2)=(0,34560)+(0,2592)+(0,07776)
P(K>2)=0,68256
Realizar el cálculo a través del método recurrente y comparar los resultados es un buen ejercicio.

Gráfica de la distribución binomila del primer ejemplo.

Un ejemplo más. Sean tres discos color rojo y 4 discos color negro. Suponga que el evento consiste en
sacar un disco color rojo. ¿Cuál es la probabilidad de obtener un disco color rojo en la primera oportunidad,
en un solo evento?
3 4
p= ; q= y n=1 entonces:
7 7
P(1)=2C1p1q1

22
1! �3 � �4 �
P(1)= �� ��
1!(1-1)! �7 �
�7 �
24
P(1)=
49
Para determinar el valor medio y la varianza de la función de distribución de probabilidad binomial se
hace uso de sus definiciones:
n
μ=�kP(K=k)
k=0

sustituyendo P(K=k):
n
μ=�n Ckpk qn-kk
k=0

El primer sumando (k=0) es cero, entonces es pertinente iniciar la suma en k=2, de donde se llega a :
n-k
n
kn!
μ=� pk q
k=1 k!  n-k  !

sacando de factor np y sumando uno y restando uno en el denominador se tiene:


n
(n-1)!
μ=np� pk-1q(n-1-(k-1))
k=0 (k-1)!  n-1-(k-1 )!

n
μ=np�n-1 Ck-1pk-1q(n-1-(k-1))
k=0

μ=np  p+q
n-1

recordando que p+q=1, se tiene que la media de la función de distribución binomial:


μ=np

La varianza es el valor de expectación de (x-μ)2 :


σ 2 =E  x-μ
2

desarrollando el cuadrado:
σ 2 =E  x 2 -2xμ+μ2 

distribuyendo el valor de expectación E{x}:


σ 2 =E  x 2  -2μE  x +E  μ2 

σ 2 =E  x 2  -2μ2 +μ2

σ 2 =E  x 2  -μ2

Por otro lado se tiene que el valor de expectación de x2 se puede expresar como:

23
E  x(x-1) +E  x =E  x 2 -x +E  x

=E  x 2  -E  x +E  x

=E  x 2 

En particular para el caso de la función de densidad de probabilidad binomial, en la que se tiene que
la variable es k, las expresiones quedan:
σ 2 =E  k 2  -μ2

E  k 2   E  k(k-1) +E  k

desarrollando E{k(k-1)}:
n
E  k(k-1) =�k(k-1)p(k)
k=2

la suma se inicia en k=2, porque los dos primeros sumandos son cero (k=0 y k=1). Sustituyendo p(k)
n
E  k(k-1) =�k(k-1)n Ck pk qn-k
k=2

n
n!
E  k(k-1) =�k(k-1) pk qn-k
k=2 k!(n-k)!
n
n!
E  k(k-1) =� pk qn-k
k=2 (k-2)!(n-k)!

sumando y restando 2 en el denominador:


n
(n-2)!
E  k(k-1) =n(n-1)p2 � pk-2 qn-2-(k-2)
k=2 (k-2)!(n-2-(k-2))!
n-2
E  k(k-1) =n(n-1)p 2 � n-2
Ck-2pk-2 q(n-2-(k-2))
k-2=0

E  k(k-1) =n(n-1)p2 (p+q)n-2

Recordando que p+q=1, se obtiene:


E  k(k-1) =n(n-1)p2

con
E  k =np

Sustituyendo ambos resultados en E{k2}, se tiene:


E  k 2  =n(n-1)p2 +np

Sustituyendo en la varianza:
σ 2 =n(n-1)p 2 +np-(np)2
24
σ 2 =n2 p2 -np2 +np-(np)2
Cancelando n2p2 y factorizando np se llega a:
σ 2 =np(1-p)
Pero 1-p=q, entonces:
σ 2 =npq
de donde la desviación típica de la función de densidad de probabilidad binomial es:
σ= npq

Bibliografía

Baird D. C. "Experimentation: An Introduction to Measurement Theory and Experiment Design. Prentice


Hall. New Jersey, 1962.
Spiridonov V. P. Y Lopatkin A. A., Tratamiento Matématico de Datos Físico-Químicos. MIR. Moscú, 1973.
López Carmona Sergio y Sánchez Fernández Carlos. A. Reporte Técnico CNM-MEE-PT-0001. "Resumen y
Ejemplos de Aplicación de la Guía ISO/Bipm para la Expresión de Incertidumbres en la Mediciones".
Querétaro, 1994.
Riveros G. Héctor y Rosas Lucía. "El Método Científico Aplicado a las Ciencias Experimentales", Trillas.
México, 1982.
Green J. R., Margerison D. “Statistical Treatament of Experimental Data”, Elsevier, Netherlands, 1978.

25

También podría gustarte