Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Unidad 3 - FINAL FINAL PDF
Unidad 3 - FINAL FINAL PDF
PROBABILIDAD
y
ESTADÍSTICA I
UNIDAD Nº3
UNIDAD Nº3
Variables aleatorias unidimensionales. Distribuciones.
Propósitos:
Brindar oportunidades para la construcción de herramientas que permitan:
- Analizar los conceptos más relevantes de la teoría de probabilidades y
aplicarlos a la resolución de problemas.
- Reconocer la necesidad del estudio de la teoría probabilística, como
instrumento para medir la incertidumbre en el proceso inferencial y para la
construcción de modelos que describan la realidad y posibiliten su análisis.
- Analizar diferentes distribuciones de probabilidad de variables aleatorias
discretas y continuas con sus modelos matemáticos específicos.
- Distinguir campos de aplicación para cada modelo en particular tomando en
cuenta especialmente la forma de selección de las unidades experimentales.
Bibliografía sugerida:
Canavos, George. Probabilidad y Estadística. Aplicaciones y Métodos. México.
McGraw Hill. 1988.
Meyer Paul L. Probabilidad y Aplicaciones Estadísticas. México. Addison Wesley
Iberoamericana .1993.
Walpole Ronald, Myers Raymond. Probabilidad y Estadística. México. Pearson
Educación. 1999.
Apuntes Posgrado: ―Estadística Aplicada a la Investigación‖. Facultad de
Ciencias Económicas. Universidad Nacional de Córdoba.
1. Introducción
En la Unidad Nº3 analizaremos distribuciones de probabilidad que corresponden a
variables aleatorias discretas y continuas.
Ejemplo 1
Supongamos un experimento aleatorio que consiste en tirar al aire simultáneamente
dos monedas.
Los resultados posibles de dicho experimento son W = {cc, cx, xc, xx}
Si se está interesado en conocer el número de caras, al tirar dos monedas
simultáneamente, necesitamos definir una variable que exprese cada resultado de
este experimento aleatorio.
Entonces, simbolizando a esta variable con X, a la cantidad de caras al tirar dos
monedas. De acuerdo al conjunto de resultados posibles de este experimento,
podemos construir la siguiente tabla:
Cuantificación de Resultados de un experimento Aleatorio
Los resultados de este experimento aleatorio no son números. Por eso, para poder
cuantificarlos, tendremos que asociar un número a cada uno de estos resultados.
Una variable aleatoria es aquella cuyos valores surgen asignando números, a
los resultados de un experimento aleatorio.
3. Distribución de probabilidad
Distribución de probabilidad es un modelo teórico que describe la forma en que varían
los resultados de un experimento aleatorio, es decir, nos da todas las probabilidades
de todos los posibles resultados que podrían obtenerse cuando se realiza un
experimento aleatorio.
Se clasifican como discretas o continuas.
En la distribución de probabilidad discreta está permitido tomar sólo un número
limitado de valores. En la continua, llamada función de densidad, la variable que se
está considerando puede tomar cualquier valor dentro de un intervalo dado.
Para el ejemplo 1:
- simbolizaremos con xi los valores particulares que toma la variable aleatoria X y
en este caso se tendrá x1 = 0, x2 = 1, x3 = 2
- los resultados son igualmente probables y, por ello, es lógico pensar en
asignarle a cada uno la misma probabilidad, o sea 1/4.
A partir de este razonamiento, construimos la siguiente tabla:
Función de Probabilidad de la Tirada Simultánea de Dos Monedas
Ejemplo 2
Una ruleta contiene 38 casillas, numeradas 00, 0, 1, 2,.... 36. Una posibilidad consiste
en apostar al suceso "el resultado es un número impar". Un jugador que realice esta
apuesta ganará en 18 de los 38 resultados posibles.
Puesto que hay 18 impares:
P (El resultado es un número par) = 18/38 = 9/19
P (El resultado es un número impar) = 18/38 = 9/19
Si un jugador realiza una apuesta $1000, con lo cual recibe $2000 si el resultado es
un número impar y nada en caso contrario, podemos representar la "ganancia" (en
pesos) del jugador como $1000 con probabilidad 9/19 y (- $1000) con probabilidad
( 1-9/19 ) = 10/19. Entonces el valor esperado de su ganancia es:
1000 x (9/19) + (-1000) x 10/19 = - 100 pesos. Espera perder $100
Esta probabilidad se convierte en un área o superficie: bajo la curva f(x), sobre el eje
0 x , entre las rectas de ecuación x = a y x = b.
x1 P(x1) F(x1)=P(x1)
…. …. ….
…. …. ….
Estas tablas pueden ser utilizadas para obtener diversas probabilidades para valores
de x o para valores menores o iguales a x.
Ejemplo 3
Suponiendo el experimento aleatorio E: tirada de un dado y siendo la variable X: los
puntos que aparecen en cada una de las tiradas.
La tabla de función de distribución de probabilidad acumulada:
xi P(xi) F(xi)
1 1/6 1/6
2 1/6 1/3
3 1/6 1/2
4 1/6 2/3
5 1/6 5/6
6 1/6 1
Ejemplo 4
Sea E: ―observar el resultado (Aprobado o no aprobado) de tres alumnos‖
En este caso, los posibles resultados no vienen expresados en forma numérica. Se
adopta entonces un código conveniente para expresar los resultados: Aprobó = 1 y No
Aprobó = 0
De esta forma:
S = {(0,0,0) ; (0,0,1) ; (0,1,0) ; (1,0,0) ; (0,1,1) ; (1,0,1) ; (1,1,0) ; (1,1,1)}
Nos interesa estudiar el número de aprobados que se presentan y la denominaremos
con xi, cantidad variable que tomará valores diferentes cada vez que se realice el
experimento. En nuestro ejemplo será:
x1 = 0 aprobado {(0,0,0)}
x2 = 1 aprobado {(0,0,1) ; (0,1,0) ; (1,0,0)}
x3 = 2 aprobados {(1,1,0) ; (1,0,1) ; (0,1,1)} xi p(xi) F(xi)
x4 = 3 aprobados {(1,1,1)} 0
En este caso la variable aleatoria discreta X = número de
alumnos aprobados, ha sido generada por tres observaciones al
azar y los valores posibles que pueden asumir son: xi = 0, 1, 2, 1
3
Como cualquier valor de la variable aleatoria es un suceso,
2
podemos calcular su probabilidad de aparición que
denominaremos así:
3
P(x1 = 0) = P(x2 = 1) = P(x3 = 2) = P(x4 = 3) =
Ejemplo 5
Se considera la siguiente distribución de frecuencias que corresponde a una
distribución empírica de la variable edad en años de personas mordidas por perros.
Indicar la función de probabilidad y la función de distribución acumulada.
X: Edad de las personas mordidas por perros (en años)
Edad de las
personas fi % P(xi) F(xi)
mordidas (años)
634 100 1
Así, la probabilidad de que sea mordida una persona cuya edad oscila entre 3 y 5 años
es 0.09.
Si queremos saber la probabilidad de que una persona menor de 18 años sea mordida
debemos sumar:
P(X ≤ 18) = 0,068 + 0.09 + 0.24 + 0,117 = 0,515
Entonces el 51,5% de las personas mordidas tienen 18 años o menos.
Un problema de aplicación
Supongamos que la probabilidad de que una casa de cierto tipo sea destruida por un
incendio en un período cualquiera de 12 meses es 0,005, según cálculos actuariales
efectuados por un organismo pertinente.
Una compañía de seguros ofrece al propietario de una casa una póliza contra incendio
por el término de 1 año valuando la casa en 20.000 dólares y cobrándole una prima de
200 dólares.
¿Cuál es la ganancia esperada de la compañía?
Para resolver este problema debemos definir, en primer lugar, la variable aleatoria y
establecer los distintos valores que ella puede tomar.
La variable aleatoria G = ganancia de la compañía, la cual puede tomar los valores
200 dólares si la casa no sufre un accidente de incendio y - 19.800 dólares si la casa
se quema durante el año que cubre la póliza.
Ejemplo 6
Supongamos que se está estudiando el sexo de determinados individuos.
El experimento consiste en seleccionar un individuo y clasificarlo de acuerdo al sexo.
Los dos únicos resultados posibles de este experimento serán W = (varón, mujer)
Para cuantificar estos dos resultados posibles y definir una variable aleatoria, podernos
asignar el valor 1 al resultado varón y el valor 0 al resultado mujer. Estos dos
resultados posibles del experimento de clasificar a un individuo según su sexo, serán
igualmente probables. Es decir que puede asignarse una probabilidad igual a 1/2 a
cada uno de estos eventos.
Sin embargo existen situaciones prácticas en las cuales los eventos se presentan con
probabilidades diferentes. Si la muestra fuera extraída del conjunto de individuos que
vive en una base militar, es evidente que el resultado varón tendría una mayor
probabilidad de ocurrir.
Para poder asimilar esta distribución de probabilidad a cualquier situación, se
simboliza la probabilidad de que el individuo sea varón con la letra p.
Si en cada repetición del experimento aleatorio se observa un solo individuo por vez:
- los resultados varón o mujer serán eventos mutuamente excluyentes. Como dos
eventos mutuamente excluyentes son aquellos que, no pueden presentarse
conjuntamente. Si el individuo que se observa es varón, no puede ser a la vez
mujer.
- P (S) = 1, es decir, la probabilidad del conjunto definido por todos los resultados
posibles de un experimento es igual a 1.
Si simbolizamos los dos eventos considerados en el ejemplo como V = varón y M =
mujer, la probabilidad de que se observe un varón o una mujer es:
P (V o M) = P(V U M) = P(V) + P(M) = P(W) = 1
Luego, si P (V) = p, entonces: P (M) = 1 - p
Una función de probabilidad de variable aleatoria discreta puede ser expresada por
medio de una función matemática,
una tabla o un gráfico.
A partir de estas consideraciones,
podemos construir la siguiente tabla
que representa la función de
probabilidad de la variable aleatoria
Bernoulli considerada:
De manera más general, la función
puede expresarse por medio de una fórmula matemática P(X = x) = px (1 – p)(1 – x)
para x = 0 ó x = 1
Esta función de probabilidad se P(x)
grafica mediante el ya conocido
gráfico de bastones; el que se utiliza
siempre que consideramos una
variable aleatoria discreta.
En nuestro ejemplo:
x
Donde P (varón) = p = 0,50 y P
(mujer) = 1-p = 0,50
x
Reemplazando P (xi) por P(X = x) = p (1 – p)(1 – x) obtenemos:
1
E ( X ) xi p xi (1 p)1 xi
i 0
En tanto que, por definición, la variable aleatoria Bernoulli sólo puede tomar los
valores 0 y 1, reemplazamos en la fórmula anterior xi en primer lugar por el valor 0 y
luego por el valor 1 dentro de la Σ y tenemos:
E(X) = 0 . p0 . (1 - p)1 - 0 + 1 . p1 . (1 - p)0 = 0 . 1 . (1 -p) + 1 . p . 1 = 0 + p = p
E(X) = p
La esperanza matemática de una variable con distribución Bernoulli es p.
La varianza de una variable con distribución Bernoulli.
1
V ( X ) xi E ( X ) 2 P( xi )
i 0
D( X ) p.q
Ejemplo 7
Se investiga una nueva vacuna y se estudia si, en un animal en particular, la
inoculación es efectiva o no.
Si se ha establecido por ejemplo, que la vacuna es efectiva un 80% de las veces en
que se aplica, p será igual a 0,80. Por lo tanto, la probabilidad de que un animal
Ejemplo 8
Un biólogo que toma una planta y la clasifica de acuerdo a si presenta o no floración.
Suponiendo que este biólogo toma una muestra de 3 plantas y procede de la siguiente
manera:
a) Toma la primera planta seleccionada en la muestra y la clasifica de acuerdo a sí
tiene flores o no.
b) Repone esa planta, selecciona la segunda y la clasifica también de acuerdo a si
presenta flores o no.
c) Procede de la misma manera con la tercera planta de la muestra.
Cada vez que el biólogo observa una planta seleccionada está realizando un
experimento del tipo Bernoulli2. Recapitulando:
a) Se repite varias veces un experimento del tipo Bernoulli siendo sus resultados
independientes.
b) En cada prueba, el resultado puede clasificarse en una de dos categorías
mutuamente excluyentes que denominamos "éxito" o "fracaso".
c) La probabilidad p de éxito en cada prueba (que en este caso es encontrar una
planta con flores), se mantiene constante de prueba a prueba.
d) El experimento se realiza un número n predeterminado de veces.
1
Ver ―Muestreo con remplazo y muestreo sin reemplazo‖ en el anexo al final de esta unidad.
2
Un experimento de tipo Bernoulli surge cuando se selecciona al azar una unidad experimental y, en base a
características predeterminadas, se la clasifica en una de dos categorías mutuamente excluyentes y
exhaustivas.
Considerando P ( F ) = p y P (F ) = 1 – p = q
El primer resultado de la tabla (FFF) indica que la primera planta observada tiene
flores y la segunda tiene flores y la tercera tiene flores.
Asimilando este resultado a la teoría de probabilidades, podemos simbolizarlo como:
P (F y F y F) = P (F ∩ F ∩ F)
Al ser definida cada repetición del experimento como independiente de las demás, se
tiene:
P (F ∩ F ∩ F) = P (F) . P (F) . P (F) = p . p . p = p3
(Ya que establecimos que p es la
probabilidad de éxito - planta con flores).
Como q expresa la probabilidad de fracaso,
de la misma manera se establecieron las
probabilidades de los demás resultados del
experimento aleatorio.
Podemos así construir la siguiente tabla:
A partir de ella y reacomodando
convenientemente las probabilidades,
obtenemos:
Puede verificarse que la suma de P(x) = 1 a partir del desarrollo del cubo de un
binomio p3 + 3p2.q + 3p.q2 + q3 = (p + q)3. Y como p + q = 1, luego (p + q)3 = 1.
Hemos expresado la función de probabilidad de una variable binomial por medio de
una tabla. De ella podemos deducir la generalización de la función de probabilidad de
P( X x ) C n p x . q n x
x
una variable binomial, es decir
F F F F F F F F F
Hay tantos resultados favorables al evento ―obtener 2 plantas con flores‖, como la
forma de seleccionar 2 objetos a un mismo tiempo a partir de un conjunto de 3
objetos.
3!
2
Esta cantidad se puede obtener utilizando el número combinatorio que se
C 3
2! 1!
3.2.1
lee combinaciones de 3 elementos tomados de 2 en 2, obteniendo C 3 3
2
2.1 1
Esto significa que hay tres maneras de elegir dos plantas con flores, en un conjunto de
tres plantas. Hay tres resultados posibles a este evento.
P (F F F F F F F F F ) = P (F F F ) + P (F F F ) + P (F F F ) =
2
= p2 q + p 2 q + p 2 q = C 3
p2 q =3 p2 q
P(x)
12/27
8/27
6/27
1/27
x
P( X x) C n p x . q n x ( p q) n 1n 1
x
x 0 x 0
A medida que p se acerca a 0,5 la distribución se hace más simétrica y más grande la
dispersión. Al aumentar n, para cualquier valor de p, la asimetría es menos
pronunciada.
Por este motivo, no es posible aplicar el esquema binomial. Estamos ante la situación
de un muestreo sin reemplazo donde la probabilidad de extraer un elemento de la
población varía en cada repetición.
En este caso, la variable así definida sigue una distribución denominada
hipergeométrica.
La distribución hipergeométrica se aplica al muestreo sin reposición de una
población finita, cuyos elementos pueden ser clasificados en dos categorías.
P( X x) C C
. M N M
n
C N
En síntesis:
Una variable aleatoria con distribución hipergeométrica se define como la
cantidad de individuos que pertenecen a una cierta categoría, extraídos de
una población dicotómica por medio de un muestreo sin reemplazo.
n M (N M ) N n ( N n)
V (X ) . . n p q.
N N N 1 ( N 1)
La esperanza matemática es la misma que la vista para la distribución binomial. La
varianza también es la misma, pero multiplicada por el factor (N - n)/(N - 1), conocido
en estadística como factor de corrección para poblaciones finitas.
El cálculo de probabilidades hipergeométricas es muy complicado si no se tiene un
programa de computación adecuado, ya que se deben calcular factoriales de alto
orden.
Ejemplo 9
Un importante estudio contable tiene 18 secretarias; 8 de las cuales han estado en la
firma por más de 6 años. Si un ejecutivo desea seleccionar 4 secretarias para
asignarles una tarea nueva:
¿Cuál es la probabilidad de que en dicha comisión haya 2 de ellas que tengan menos
de 6 años de experiencia?
De acuerdo a la información dada es posible organizar la información:
P( X 2) C C
. 10! 8! 4! 14!
10
4
8
0,4118
C 2! 8! 2! 6! 18!
18
Ella se ocupa del número de veces que ocurre un acontecimiento raro ("p" chico), ya
que a diferencia de la distribución binomial, es muy grande el número de veces que el
acontecimiento no ocurre.
En general se toma por convención m = np < 5; es decir np menor a cinco unidades.
La función de probabilidad de una variable poissoniana X está dada por:
e m . m x
P( X x)
x!
Donde m > 0, x = 0, 1, 2, ..., y e: número neperiano (constante matemática).
En la distribución de Poisson el parámetro m es tanto la esperanza matemática como
la varianza de la distribución.
E( X ) V ( X ) m
Ejemplo 10
Supongamos que un agrónomo sabe, a través de la literatura existente sobre el tema,
que el 2% de las semillas correspondientes a una especie determinada, no germinan
en un tipo específico de suelo.
A los fines de tomar los recaudos pretinentes, antes de comenzar cierta investigación,
desea conocer la probabilidad de que, en el caso de sembrar 100 semillas, 6 de ellas
no germinen.
En primer lugar, debemos calcular el valor del parámetro ―m‖, esperanza matemática
de la distribución.
Entonces, como estamos considerando la distribución de Poisson como límite de la
distribución binomial, la esperanza matemática se calcula igual que en este caso.
Teniendo en cuenta que m=n.p con n=cantidad de semillas en la muestra y p=
proporción de semillas que no germinan, obtenemos:
m = np = 100 . 0,02 = 2 semillas no germinadas
Luego, definiendo a la variable en estudio X = cantidad de semillas no germinadas en
la muestra de 100 semillas, la probabilidad resulta:
e 2 . 2 6
P( X 6) 0,012
6!
Una unidad experimental (la semilla) puede ser asignada a una de dos categorías
(germina o no germina). A su vez, la variable en estudio se define como la cantidad de
veces que se da una categoría en particular que se denomina éxito. En este caso, la
variable aleatoria es la cantidad de semillas que no germinan.
Lo que hemos hecho es asimilar esta distribución binomial en origen, a una
distribución Poisson, ya que el tamaño de la muestra es grande y la probabilidad de
éxito es pequeña.
Ejemplo 11
Un investigador en ecología está estudiando la distribución de plantas de musgos en la
ladera de una montaña.
Para eso, divide la superficie del terreno en estudio en cuadrículas del mismo tamaño
marcadas con un hilo. Dentro de cada cuadrícula así establecida, cuenta la cantidad de
plantas de musgo. Lo que está haciendo este investigador, precisamente, estudiar la
distribución espacial de las plantas de musgo en el terreno que eligió para hacer la
investigación. Además, no existen razones para suponer que las plantas de musgo no
se distribuyen aleatoriamente a través de las cuadrículas, si ellas fueron marcadas
objetivamente.
Gráficamente, tendríamos:
xx x xxx x
x xx xxx x xx
x xx x x
Ejemplo 12
Se estudia la distribución de células de levadura en 400 cuadrículas de un
hemacitómetro. Este es un aparato semejante al utilizado para hacer los recuentos de
las células sanguíneas y de otras estructuras microscópicas suspendidas en líquidos.
Después de haber muestreado 400 cuadrículas y contado la cantidad de células de
levadura en cada una de ellas, se obtuvo la siguiente tabla de distribución de
frecuencias:
Puede observarse que hay 75 cuadrículas que no presentan ninguna célula de levadura
y que la mayor parte de las cuadrículas poseen sólo 1 o 2 células.
Por el contrario, únicamente 17 cuadrículas contienen 5 o más células de levadura.
¿Qué nos hace pensar que esta distribución de frecuencias siga una ley de Poisson?
Empecemos calculando la esperanza matemática o promedio de esta distribución:
Cambiando arriba los valores de la media y la desviación estándar, y abajo los valores
entre los cuales queremos calcular la probabilidad, es decir, a qué porción de espacio
bajo la curva normal corresponde la probabilidad buscada.
2
De esta manera, un valor Z mide la distancia entre un valor especificado de X y la
media aritmética, en las unidades de la desviación estándar.
Por su condición de simetría, dos valores
diferentes de xi (o de zi) que muestran la
misma desviación en valor absoluto de µ
tienen la misma densidad de probabilidad.
La transformación que sufre el eje de las x
será:
Ejemplo 13:
Dada la distribución N (0,1) encontrar:
i) P (z ≤ 1)
ii) P (z 1)
iii) P (-2 ≤ z ≤ 0)
6. Un poco de historia
Jacob Bernoulli descubrió que las frecuencias observadas se acercaban al verdadero
valor previo de su probabilidad al hacer crecer el número de repeticiones del
experimento. Pero él quería encontrar una prueba científica que no sólo probara que al
aumentar el número de observaciones de la muestra se podía estimar la probabilidad
auténtica con el grado de precisión deseado en cada ocasión, sino que permitiera
calcular explícitamente cuántas observaciones eran necesarias para garantizar esa
precisión de que el resultado queda dentro de un intervalo predeterminado alrededor
de la verdadera solución.
El experimento que consiste repetir una prueba con la misma probabilidad de éxito un
número grande de veces recibió el nombre de ―experimento de Bernoulli‖ y, más
adelante, tras la creación del concepto de variable aleatoria, la variable que contabiliza
el número de éxitos en N pruebas se llamó ‗Bernoulli‘ o ‗binomial‘.
Bernoulli era consciente de que, en situaciones reales y cotidianas, la certeza absoluta,
es decir, la probabilidad 1, es imposible de alcanzar. Por eso introdujo la idea de la
―certeza moral‖: para que un resultado fuese moralmente cierto, debía tener una
probabilidad no menor que 0.999, mientras que un resultado con probabilidad no
mayor que 0.001 se consideraría ―moralmente imposible‖. Fue para determinar la
certeza moral de un suceso para lo que Bernoulli formuló su teorema, la ley de los
Grandes Números.
Para tener una idea intuitiva de este concepto, Bernoulli propuso el siguiente ejemplo:
una urna con 30.000 bolas blancas y 20.000 negras, aunque el observador no lo sabe,
pues lo que quiere es determinar la proporción entre bolas blancas y negras, sacando
una de cada vez, anotando el resultado (éxito si es blanca y fracaso si es negra) y
volviéndola a introducir en la urna.
r
Sea N el número de observaciones, X el número de éxitos y p la probabilidad
rs
de éxito en cada prueba, siendo r el número de bolas blancas y s el de bolas negras.
El teorema de Bernoulli afirma que dada cualquier pequeña fracción ε (que su
1
descubridor siempre escribía en la forma y dado cualquier número entero
rs
positivo grande c, se puede hallar un número N N (c) tal que la probabilidad de que
X X
difiera de p no más de ε es mayor que c veces la probabilidad de que difiera de
N N
p más de ε. Veamos todo esto con notación matemática:
X X
P p c . P p
N N
O en notación más actual:
X 1
0 c Z N tl que P p
N c 1
Bernoulli tomó como ejemplo para aclarar este problema c=1.000 y obtuvo como
resultado que eran necesarias 25.550 observaciones. La intuición le decía que no
hacían falta tantas y, por ello, lo intentó con otros valores de c. Desilusionado por
sentir que había fracasado en su intento de cuantificar la certeza moral, Bernoulli no
incluyó en su libro las aplicaciones prometidas.
El que sí lo hizo fue su sobrino Niklaus Bernoulli (1687–1759), que aplicó el resultado
de su tío a registros de 14.000 nacimientos y llegó a la inesperada conclusión de que
la frecuencia de nacimientos de niños es mayor que la de niñas, en la proporción de
18:17. Los resultados tanto de Bernoulli como de su sobrino fueron confirmados años
después por Laplace.
De esta manera, gracias a Bernoulli, se introdujo en la teoría de la probabilidad la ley
de los Grandes Números, uno de los conceptos más importantes en cálculo de
probabilidades, muestreos, etc… y con amplias aplicaciones en muchos campos de la
estadística y de las matemáticas y la ciencia en general. Esta ley además será objeto
de conversaciones entre matemáticos en los siglos venideros, estando sujeta a
constantes estudios, mejoras y ampliaciones hasta prácticamente nuestros días.
A raíz del descubrimiento de la Ley de los Grandes Números, se planteó el problema
de estimar la suma de un subconjunto de elementos de una expresión de carácter
binomial. La dificultad era calcular una probabilidad que Bernoulli ya había dejado
indicada y demostrada y era la probabilidad de que el número de éxitos de un suceso
de probabilidad p y n pruebas estuviera entre A y B.
1
m
Según Bernoulli esta probabilidad era k p k
(1 p) mk y la dificultad que
A k B
m m!
entrañaba esta operación era el cálculo del número combinatorio
k k!(m k )!
Jacob consiguió realizar ciertas estimaciones de dudosa precisión, pero que al no
manejar números muy grandes fueron suficientes para demostrar sus teoremas.
Posteriormente, De Moivre intentó ser algo más preciso y demostró que para B
1
m
m
constante m! B . e .m 2
Con el fin de determinar el valor de esa constante,
1 1 1 1
construyó la siguiente expresión logarítmica ln B 1 ... y
12 360 1260 1680
concluyó según sus cálculos que B era igual a 2,5074.
Este resultado parecía convincente, pero De Moivre no quedó satisfecho al no poder
vincularlo con ninguna constante matemática conocida. Por ese motivo pidió consejo y
ayuda a su buen amigo James Stirling (1692-1770) quien demostró que B 2
Tras la obtención de este importante dato, De Moivre calculó una tabla m! y obtuvo un
resultado que dice lo siguiente:
n n 2
P X t P X . e ( 2 t / n ) . e ( 2 t / n )
2 2
2 2 2n
n
k
2
P X 2 t 2n .e (2t / n) dt
2
Para finalizar, De Moivre encontró que n era la unidad cuya distancia del centro
debe ser medida.
Así, la precisión de una estimación de la probabilidad aumenta igual que la raíz
cuadrada del número de experimentos; en otras palabras, De Moivre acababa de
descubrir la importancia de la varianza.
De Moivre repitió el experimento de Bernoulli y obtuvo que basten 6.498
observaciones. Aunque mejoró el método, no llegó a reconocer la importancia del
descubrimiento de la curva de la normal y no pudo aplicar su resultado a otros
problemas.