Está en la página 1de 21

Historia

de la
Teora de la
Probabilidad
Pablo Salinero Ruiz
Historia de las Matemticas
NDICE
LA PROBABILIDAD Y LOS JUEGOS DE AZAR..............................................................................1
Precursores ................................................................................................................................................... 1
Girolamo Cardano y Niccolo Tartaglia ........................................................................................................ 1
Galileo Galilei .............................................................................................................................................. 2
Blaise Pascal y Pierre de Fermat .................................................................................................................. 2
Christiaan Huygens ...................................................................................................................................... 3
EL DESARROLLO DE LA TEORA DE LA PROBABILIDAD............................................................4
Primeras investigaciones en demografa ...................................................................................................... 4
Primera definiciones de la probabilidad ....................................................................................................... 4
Teoremas bsicos de la Teora de la Probabilidad........................................................................................ 5
Los teoremas del lmite ................................................................................................................................ 6
El problema de la Ruina del Jugador ......................................................................................................... 8
La paradoja de San Petersburgo ................................................................................................................... 8
LA PROBABILIDAD MODERNA ....................................................................................................9
La Teora de la medida de errores ................................................................................................................ 9
Formacin del concepto de variable aleatoria............................................................................................ 9
La Ley de los Grandes Nmeros ................................................................................................................ 10
El Teorema Central del Lmite ................................................................................................................... 11
La interpretacin subjetiva de la probabilidad............................................................................................ 12
La axiomatizacin de la probabilidad......................................................................................................... 12
APLICACIONES DE LA TEORA DE LA PROBABILIDAD .............................................................13
La probabilidad geomtrica........................................................................................................................ 13
Control de calidad ...................................................................................................................................... 14
Procesos Estocsticos ................................................................................................................................. 14
Martingalas................................................................................................................................................. 15
Mtodo de Montecarlo ............................................................................................................................... 15
1
1.- LA PROBABILIDAD Y LOS JUEGOS DE AZAR
PRECURSORES
La probabilidad matemtica tiene sus orgenes en los juegos de azar, principalmente los juegos con dados y car-
tas, muy populares desde tiempos antiguos. Los primeros estudios cientficos sobre fenmenos aleatorios se centraban
en dos problemas:
1. Contabilizar el nmero de posibles resultados de lanzar un dado varias veces.
2. Distribuir las ganancias entre jugadores cuando el juego se interrumpa antes de finalizar, conocido como el
problema del reparto de apuestas.
Una respuesta al primer problema se puede encontrar en el poema De Vetula, de Richard de Fournival (1200
1250), donde afirma correctamente que si se lanzan tres dados hay 216 combinaciones posibles y calcula correctamente
los diferentes valores para la suma de los tres dados. Aunque ahora puede parecer una cuestin trivial, en aquella poca
no lo era, y otros autores erraron al intentar resolverla, generalmente porque no tenan en cuenta las posibles permuta-
ciones de una misma combinacin.
El segundo problema fue abordado por Luca Pacioli (14451517), quien en 1487 propuso estos dos similares
problemas particulares: un juego en el que el premio es de 22 ducados que consiste en alcanzar 60 puntos se interrumpe
cuando un equipo lleva 50 puntos y el otro 30; y tres arqueros que compiten por un premio de 6 ducados lanzan flechas
hasta que uno de ellos haga 6 dianas, siendo interrumpidos cuando el primero de ellos lleva 4 dianas, el segundo 3 y el
tercero 2. Cmo deben repartirse los premios entre los contendientes? Pacioli propuso que el premio debera ser repar-
tido en funcin de las victorias obtenidas anteriormente: as, el premio del primer problema se divida en 605/8 duca-
dos para el primer equipo y en 603/8 para el segundo; para el problema de los arqueros, el premio se divida en la pro-
porcin 4/9, 3/9 y 2/9. Como ms tarde se pondra de manifiesto, esta solucin es incorrecta.
GIROLAMO CARDANO Y NICCOLO TARTAGLIA
La primera obra importante relacionada con el clculo de probabilidades en juegos de azar fue el Libro de los
Juegos de Azar, de Girolamo Cardano (15011576), escrito en 1565, aunque no publicado hasta 1663. Cardano era un
jugador empedernido y su obra es ms bien un manual para jugadores; contiene descripciones de juegos y las precau-
ciones a tomar para que los rivales no hagan trampas, y slo una pequea parte est dedicada al estudio del azar: pro-
blemas tales como calcular todos los resultados posibles al lanzar dos o tres dados y las frecuencias con que aparecan,
hallar la probabilidad de que al lanzar un dado una serie de veces salga un determinado nmero al menos una vez, o cal-
cular las frecuencias de los valores de la suma de las caras de una tirada de dos dados. En la resolucin de estos proble-
mas, Cardano trabaj con los conceptos de la definicin clsica de la probabilidad, aunque no los defini. En concreto,
Cardano introdujo la idea de asignar una probabilidad p entre 0 y 1 a un suceso cuyo resultado se desconoce, conside-
rando el nmero total de resultados y el nmero de resultados favorables, y esboz de una forma rudimentaria lo que
ahora se conoce como la ley de los grandes nmeros, al afirmar que si la probabilidad de una suceso es p, despus de
un nmero n grande de repeticiones lo ms razonable es apostar a que ocurrir alrededor de np veces. Sin embargo,
Cardano no alcanz a reconocer la importancia terica de estos conceptos, ya que consideraba estas relaciones como
meramente aritmticas, ms que como una medida de la posibilidad de ocurrencia de una suceso aleatorio.
Cardano se haba ocupado previamente del problema del reparto de apuestas. En 1539 escribi que la solucin
de Pacioli era incorrecta porque al considerar tan slo el nmero de juegos ganados por cada equipo, no contaba cuntos
juegos deban ganar para hacerse con el premio; como solucin propuso que si n es el nmero de juegos totales y a y b
2
los juegos ganados por cada equipo, el premio deba repartirse de la siguiente manera [1+2++(n-b)]: [1+2+(n-a)].
Esta solucin es, en general, incorrecta y slo da resultados vlidos en casos particulares. El problema del reparto de
apuestas tambin fue abordado por Niccolo Tartaglia (14991557), quien en 1556 public un libro sobre aritmtica en
el que criticaba la solucin dada por Pacioli (Si un bando ha ganado 10 puntos y el otro ninguno, entonces todo el
premio sera para el primer jugador, pero esto no tiene ningn sentido) y dio su propio solucin: si un equipo ha gana-
do a puntos y el otro b, se juega a n puntos y el premio total es P, las ganancias deberan repartirse de la forma
(P/2)P[(a-b)/n], siendo la cantidad mayor para el equipo que tenga ms victorias. Sin embargo, Tartaglia fue cons-
ciente de que su solucin no era la correcta y le dio un carcter ms jurisdiccional que matemtico.
GALILEO GALILEI
Galileo Galilei (15641642) tambin se dedic a resolver problemas sobre dados. Su obra Sobre la Puntuacin
en Tiradas de Dados calculaba el nmero de resultados posibles tirando tres dados. A pesar de que ya se saba desde
mucho tiempo antes que hay 216 posibilidades diferentes, Galileo fue el primero que lleg a esta conclusin a travs del
simple clculo 216=6. Luego atacaba el problema de calcular de cuntas maneras diferentes se puede lograr cada una
de las puntuaciones entre 3 y 18. Para hacer esto, Galileo numer los dados primero, segundo, tercero y fue consi-
derando cada una de las combinaciones de los tres dados que sumaban una determinada cantidad, pero slo entre 3 y 10.
Galileo encontr que slo hay una manera de obtener tres puntuaciones iguales, tres maneras de obtener dos puntuacio-
nes iguales y otra diferente, y seis manera de obtener tres puntuaciones diferentes. Su conclusin fue que es preferible
apostar por el 10 antes que por el 9 porque el 10 se puede obtener de 27 maneras por 25 del 9. El resto de posibilidades
de 11 a 18 se obtenan sin clculos, directamente por simetra: 18 igual que 3, 17 igual que 4, etc. A pesar de la
simplicidad del problema, Galileo reconoci que qued exhausto.
Sin embargo, la principal contribucin de Galileo a la teora de la probabilidad fue la creacin de la teora de la
medida de errores. Segn Galileo, los errores de medida son inevitables y los clasific en dos tipos: los errores siste-
mticos, debidos a los mtodos y las herramientas de medida; y los errores aleatorios, que varan impredeciblemente
de una medida a otra. Esta clasificacin sigue en vigor actualmente. Galileo fue muy cuidadoso al analizar las propieda-
des de los errores aleatorios y estableci que son ms frecuentes los errores pequeos que los grandes; que los errores
por defecto son tan frecuentes como los errores por exceso; y que la mayora de las mediciones se agrupan alrededor del
verdadero valor. Con estas ideas, Galileo no slo contribuy al desarrollo de la teora de la probabilidad, sino que puso
las bases para el nacimiento de la estadstica.
BLAISE PASCAL Y PIERRE DE FERMAT
El desarrollo de la teora de la probabilidad experiment un gran avance en Francia a mediados del siglo XVII
con la correspondencia que mantuvieron Blaise Pascal (16231662) y Pierre de Fermat (1601-1665) durante 1654. An-
toine Gombaud, caballero de Mr, filsofo y literato que jugaba compulsivamente, pidi a Pascal que le resolviese el
problema del reparto de apuestas. Pascal y Fermat lo resolvieron correctamente por medios diferentes pero equivalentes,
aunque el desconocimiento de la teora general les hizo pensar que no lo eran. El acierto de ambos consisti en darse
cuenta de que el reparto de las apuestas debe hacerse en funcin de la probabilidad de ganar que tuviese cada jugador en
el momento de interrumpirse el juego. Para hallar la solucin correcta se valieron de una riguroso metodologa desco-
nocida hasta entonces; sin embargo, Pascal fall en su intento de extender el procedimiento al caso en que hubiera tres o
ms jugadores.
Once aos ms tarde, en 1665, Pascal publicaba su Tratado sobre el Tringulo Aritmtico, la ms importante
contribucin realizada hasta entonces en el campo de la combinatoria. El libro comienza con la construccin de lo que
se dio en llamar el tringulo de Pascal, aunque era conocido desde haca ms de 500 aos en diversas partes del mundo.
El tringulo es de la siguiente forma:
3
1 8 28 56 70 56 28 8 1 8
1 7 21 35 35 21 7 1 7
1 6 15 20 15 6 1 6
1 5 10 10 5 1 5
1 4 6 4 1 4
1 3 3 1 3
1 2 1 2
1 1 1
1 0
8 7 6 5 4 3 2 1 0 / Columna Fila
donde el valor de la k-sima entrada de la n-sima fila es el nmero combinatorio
|
|
.
|

\
|
k
n
.
Pascal demostr algunas propiedades importantes del tringulo: cada elemento es la suma de todos los elementos
de la columna anterior hasta la fila anterior (es decir,

=
|
|
.
|

\
|

=
|
|
.
|

\
|
1
1
1
n
k j
k
j
k
n
); la suma de todos los elementos de la fila n-
sima es 2
n
; y ) ( : ) 1 (
1
: k n k
k
n
k
n
+ =
|
|
.
|

\
|
+
|
|
.
|

\
|
. Para demostrar estos argumentos usaba algo parecido al principio de in-
duccin, pues demostraba un caso y, a continuacin, que eso implicaba el caso inmediatamente siguiente. La ltima
gran propiedad del tringulo que demostr Pascal fue que
!
) 1 ( ... ) 1 (
k
k n n n
k
n
+
=
|
|
.
|

\
|
, demostrndolo por induccin
e identificando ese nmero como el nmero de combinaciones de k elementos en un conjunto de n elementos. Final-
mente, Pascal aplic todos estos resultados para producir una solucin sistemtica del problema del reparto de apuestas:
si al jugador A le faltan r juegos para ganar y al jugador B le faltan s (con r+s1), las apuestas deberan dividirse de
manera que al jugador A le correspondiera una parte proporcional al cociente entre

=
|
|
.
|

\
|
1
0
s
k
k
n
y 2
n
, donde n=r+s-1.
Pascal aplic los razonamientos probabilsticos sobre la toma de decisiones a la teologa y trat de demostrar la
existencia de Dios. Su argumento era el siguiente: Dios existe o no existe; si no existe, da igual creer en l que no creer;
si existe, creer que no existe provoca la condenacin eterna, mientras que creer trae la salvacin. Como la salvacin es
preferible a la condenacin (en trminos probabilsticos, la ganancia es mayor), una persona razonable actuar como si
Dios existiera, aunque crea que la probabilidad de que exista es pequea.
CHRISTIAAN HUYGENS
Los trabajos de Pascal y Fermat fueron continuados por el cientfico holands Christiaan Huygens (16291695).
Su inters por la probabilidad naci en 1655 durante el transcurso de un viaje a Pars, donde coincidi con otros cient-
ficos y discuti con ellos el problema del reparto de apuestas. Fue as como Huygens entr en conocimiento de las obras
de Pascal y Fermat y sus mtodos. En 1656 sala publicado su tratado Sobre los Clculos en los Juegos de Azar, el cual
constaba de un breve prefacio y 14 proposiciones. En las tres primeras, Huygens introduca el concepto de esperanza
matemtica para variables aleatorias que toman dos o tres valores, definida como la ganancia media si se repitiera el
juego muchas veces; la palabra esperanza apareci por primera vez en la historia en la traduccin al latn del original
en holands. En las seis siguientes proposiciones Huygens propona su solucin al problema del reparto de apuestas,
muy similar a la de Pascal, pero lo llev ms all, pues Huygens fue capaz de extender el problema al caso de tres juga-
dores; sobre esto ltimo, no dio una solucin general, sino que indic cmo aplicar al caso general los casos particulares
previamente resueltos.
Las otras cuatro proposiciones trataban sobre problemas varios. En particular, en la proposicin 11 del libro apa-
rece un problema planteado por De Mr a Pascal y Fermat cuntas veces hay que lanzar dos dados para que sea
4
ms probable ganar que perder apostando a que saldr al menos un doble 6? que tanto Cardano como De Mr haban
resuelto incorrectamente (18 y 24 tiradas, respectivamente) y que Huygens fue el primero en resolver correctamente: 25
tiradas. Al final del libro, se incluan cinco problemas propuestos sin solucin para el lector. En 1687 se public un libro
annimo en el que se resolva el primero se esbozaba la solucin del resto. Ms tarde, se comprob que el autor de ese
libro era el filsofo holands de origen judeoportugus Benito Spinoza.
2.- EL DESARROLLO DE LA TEORA DE LA PROBABILIDAD
Hacia el ltimo cuarto del siglo XVII, exista ya un gran volumen de conocimientos sobre sucesos aleatorios,
acompaados por un buen nmero de problemas correctamente planteados y resueltos. Pero todos estos conocimientos
se enfocaban a problemas concretos limitados a los juegos de azar, y ningn estudioso haba sido capaz de dar una defi-
nicin general de la probabilidad.
PRIMERAS INVESTIGACIONES EN DEMOGRAFA
El primer estudioso de la probabilidad que no se centr en juegos de azar fue el comerciante ingls John Graunt
(16201675), quien en 1662 abord problemas sobre demografa o poltica aritmtica, como se la llamaba enton-
ces. Graunt se propuso encontrar un mtodo preciso para estimar la edad media de los habitantes de Londres mediante
la edad de defuncin; haciendo esto introdujo el concepto de frecuencia de un suceso, remarcando el cierto grado de
aleatoriedad presente en las proporciones obtenidas. Tambin demostr que en Londres la proporcin de nacimientos de
nios y nias no era igual sino 14:13 y elabor la primera tabla de mortalidad. Graunt comprendi que cuntas ms ob-
servaciones haca ms precisos eran los resultados, anticipando el principio estadstico de estabilidad de las medias.
Las ideas de Graunt fueron recogidas por William Petty (16231687), quien elabor un anlisis comparativo en-
tre la mortalidad de los Londres y la de Pars, basndose en los datos de los hospitales de caridad, y por el astrnomo
Edmund Halley (16561742), quien present en 1693 una tabla de mortalidad de la ciudad de Breslau (Alemania)
Halley prefera ciudades pequeas con pocos movimientos migratorios antes que ciudades grandes como Londres, Pars
o Dubln e introdujo el concepto de longitud de vida tal que la frecuencia con que se superaba o no se alcanzaba era
la misma; en otras palabras, el concepto de mediana. En los trabajos de Halley tambin se pueden encontrar las bases
de los teoremas de la suma y la multiplicacin de probabilidades y de la ley de los Grandes Nmeros, aunque no los
enunci explcitamente. Las obras de Halley tuvieron gran influencia en demografa y los seguros.
PRIMERAS DEFINICIONES DE LA PROBABILIDAD
Slo cuando los fenmenos aleatorios dejaron de enfocarse como casos particulares y se intent ver los concep-
tos generales que habas detrs de ellos, las nociones de probabilidad mejoraron en su definicin. El primero en dar la
definicin clsica de probabilidad fue Jakob Bernoulli (16541705) en su obra El Arte de Predecir publicada pstu-
mamente en 1713, muy influenciado por los trabajos de Graunt y Petty, que haban demostrado las ventajas de incluir
en sus tablas no slo los nmeros absolutos, sino tambin las proporciones respecto del total. Ms adelante, el matem-
tico francs exiliado en Inglaterra Abraham De Moivre (16671754) acept la definicin dada por Bernoulli y la refor-
mul en trminos modernos: una fraccin en la que el numerador es igual al nmero de apariciones del suceso y el de-
nominador es igual al nmero total de casos en los que es suceso pueda o no pueda ocurrir. Tal fraccin expresa la pro-
babilidad de que ocurra el suceso. La definicin clsica de la probabilidad, en su forma actual, est basada en el con-
cepto de equiprobabilidad de los resultados, basado a su vez en la simetra. Se supone que un experimento se puede
descomponer en n sucesos equiprobables y mutuamente excluyentes E
1
,,E
n
, llamados sucesos elementales. As, la
probabilidad de suceso aleatorio A es el nmero del intervalo [0,1] que expresa el cociente entre los m sucesos elemen-
tales que componen A y el nmero total n de posibles sucesos elementales. El principal escollo que encuentra esta in-
5
terpretacin de la probabilidad es la dificultad de descomponer un suceso en sucesos elementales equiprobables; siendo
fcil para problemas sencillos, como los de cartas, dados o urnas, es casi imposible para problemas ms complejos.
Basndose en los trabajos de Graunt y Petty, Bernoulli resolvi incluso la cuestin de cmo hallar la probabili-
dad de ocurrencia de un suceso aun siendo imposible contar los casos favorables: Aqu hay otro camino disponible pa-
ra alcanzar el resultado deseado. Lo que no se puede hallar a priori se puede obtener a posteriori, es decir, mediante la
observacin mltiple de los resultados de pruebas similares De esta manera, Bernoulli introdujo el concepto de pro-
babilidad frecuentista o estadstica: asignar como probabilidad de un suceso el resultado que se obtendra si el proce-
so se repitiera en condiciones similares un nmero grande de veces. Sin embargo, estas condiciones son demasiado va-
gas para servir como base para una definicin cientfica rigurosa. En primer lugar, se menciona un nmero grande de
veces, pero no se da ninguna indicacin sobre cul es ese nmero lo suficientemente grande; no se describe con preci-
sin qu se entiende por condiciones similares si las condiciones fuesen siempre exactamente las mismas se obtendra
siempre el mismo resultado; tampoco se especifica cul es la mxima desviacin admitida respecto del resultado te-
rico; adems, sigue habiendo sucesos que no pueden plantearse suponiendo la posibilidad de repetirlos muchas veces.
Precisamente, fueron la necesidad de precisar qu se entiende por un nmero grande de repeticiones del expe-
rimento y la tolerancia del resultado obtenido respecto del terico, lo que llevaron a Jakob Bernoulli a idear, en su for-
ma ms intuitiva y bsica, la Ley de los Grandes Nmeros.
TEOREMAS BSICOS DE LA TEORA DE LA PROBABILIDAD
Los tres teoremas bsicos que hicieron posible el desarrollo de la probabilidad tal y como la conocemos hoy fue-
ron los teoremas de la suma, de la multiplicacin y de la probabilidad total. Aunque ni Fermat ni Pascal no Huygens los
idearon, en sus escritos aparecen ya de una forma implcita y utilizados correctamente.
Teorema de la Suma.- Pascal dio a entender implcitamente que saba cmo calcular los casos favorables de un
suceso A si conoca los casos favorables de unos A
j
disjuntos cuya unin es A (es decir, si los A
j
son una particin de
A). Jakob Bernoulli tambin fue consciente de ello, y fue ms all al darse cuenta de que la probabilidad de la unin no
es la suma de las probabilidades si los sucesos no son disjuntos, aunque no supo dar la razn. Previamente, Cardano ha-
ba expresado un resultado similar en trminos de casos en vez de probabilidades. No fue ninguno de ellos quien for-
mul finalmente el teorema de la suma de la probabilidades, sino el reverendo ingls Thomas Bayes (17021761), cuyo
trabajo fue ledo pstumamente, en 1763. En esta obra, Bayes da la primera definicin explcita de sucesos disjuntos
l los llam inconsistentes y enunci la frmula ahora conocida:
{ } { } { } { } B A P B P A P B A P + =
Teorema de la Multiplicacin.- Del mismo modo, el teorema de la multiplicacin de probabilidades era conocido
por casi todos los estudiosos a travs de clculos particulares. Sin embargo, fue Abraham De Moivre (16671754) el
primero que los enunci con autoridad. En la introduccin a su obra Doctrina de las Posibilidades de 1711, De Moivre
present el importante concepto de independencia de sucesos aleatorios; as, escribi: Diremos que dos sucesos son
independientes, si uno de ellos no tiene ninguna relacin con el otro y procedi a definir los sucesos dependientes:
Dos sucesos son dependientes si estn ligados el uno al otro y la probabilidad de ocurrencia de uno de ellos influye en
la probabilidad de ocurrencia del otro. Una vez hecho esto, De Moivre lo aplic al clculo de probabilidades: la pro-
babilidad de ocurrencia de dos sucesos dependientes es igual a la probabilidad de ocurrencia de uno de ellos dividida
por la probabilidad de que el otro ocurra si el primero ya ha ocurrido. Esta regla puede generalizarse para varios suce-
sos. El caso de varios sucesos lo describa as: Se necesita elegir uno de ellos como el primero, otro como el segundo,
y as. Luego, la ocurrencia del primero debe considerarse independiente de todas las dems; el segundo debe conside-
rarse con la condicin de que el primero ha ocurrido: el tercero con la condicin de que tanto el primero como el segun-
do han ocurrido, y as. De aqu, la probabilidad de las ocurrencias de todos los sucesos es igual al producto de todas las
probabilidades. O en notacin moderna:
6
{ } { } { } { } { }
1 1 2 1 3 1 2 1 2 1
| | |

=
n n n
A A A P A A A P A A P A P A A A P K K K
De Moivre acompa sus afirmaciones con ejemplos resueltos. Tambin fue consciente de que lo verdadera-
mente difcil de este teorema es descubrir cundo dos sucesos son o no independientes.
Teorema de Bayes.- El trabajo de De Moivre obtuvo una gran difusin, as que el mrito de Bayes no fue tanto la
originalidad sino expresar la probabilidad condicional en funcin de la probabilidad de la interseccin:
{ }
{ }
{ } B P
B A P
B A P

= |
Adems, el honor del teorema que lleva su nombre no es completamente suyo, ya que l no estaba en condicio-
nes de formular con probabilidades totales. Fue PierreSimon Laplace (17491827) quien desarroll la mayor parte del
teorema de Bayes en su Experiencia en la Filosofa de la Teora de la Probabilidad (1812). Sea A un suceso que ocurre
en conjuncin con uno y slo uno de los n sucesos disjuntos B
1
,,B
n
. Si se sabe que el suceso A ha ocurrido, cul es
la probabilidad de que el suceso B
j
tambin? Laplace respondi de la siguiente manera: La probabilidad de existencia
de una de esas causas es igual a una fraccin con un numerador igual a la probabilidad del suceso que se sigue de esta
causa y un denominador que es la suma de las probabilidades similares relativas a todas las posibles causas. Si estas di-
ferentes causas a priori no son equiprobables, entonces en lugar de tomar la probabilidad del evento que sigue a cada
causa, se toma el producto de esta probabilidad veces la probabilidad de la causa. Esta enrevesada receta puede escri-
bir en notacin moderna:
{ }
{ } { }
{ } { }

=
1
|
|
|
i
i i
i i
i
B P B A P
B A P B P
A B P
Laplace aplic el teorema a problemas de la mecnica celeste, la estadstica mdica e, incluso, a la jurispruden-
cia. Al igual que los otros dos teoremas, el Teorema de Bayes ya se usaba anteriormente, aunque nunca haba sido for-
mulado.
LOS TEOREMAS DEL LMITE
La Ley de los Grandes Nmeros.- Jakob Bernoulli era consciente de que las frecuencias observadas se acercaban
a un clculo previo de su probabilidad al aumentar el nmero de repeticiones del experimento. Pero l quera encontrar
una prueba cientfica que no slo demostrara que al aumentar el nmero de observaciones se poda estimar la probabili-
dad autntica con cualquier grado de precisin deseado, sino que permitiera calcular explcitamente cuntas observacio-
nes eran necesarias para garantizar esa precisin de que el resultado queda dentro de un intervalo predeterminado alre-
dedor de la verdadera solucin. El experimento que consiste repetir una prueba con la misma probabilidad de xito un
nmero grande de veces recibi el nombre de experimento de Bernoulli y, ms adelante, con la creacin del concepto
de variable aleatoria, la variable que contabiliza el nmero de xitos en N pruebas se llam Bernoulli o binomial.
Consciente de que en las situaciones de la vida real, la certeza absoluta (probabilidad 1) es imposible de alcan-
zar, Bernoulli introdujo la idea de la certeza moral: para que un resultado fuese moralmente cierto, deba tener una
probabilidad no menor que 0.999, mientras que un resultado con probabilidad no mayor que 0.001 se considerara mo-
ralmente imposible. Fue para determinar la certeza moral de un suceso para lo que Bernoulli formul su teorema, la
Ley de los Grandes Nmeros.
Para ilustrar este concepto, Bernoulli propuso el siguiente ejemplo: una urna con 30.000 bolas blancas y 20.000
negras, aunque el observador no lo sabe, pues lo que quiere es determinar la proporcin entre bolas blancas y negras,
sacando una de cada vez, anotando el resultado xito si es blanca y fracaso si es negra y reintroducindola en la ur-
na. Sea N el nmero de observaciones, X el nmero de xitos y p = r/(r+s) la probabilidad de xito en cada prueba,
siendo r el nmero de bolas blancas y s el de bolas negras. El teorema de Bernoulli afirma, en terminologa moderna,
que dada cualquier pequea fraccin (que Bernoulli siempre escriba en la forma 1/(r+s)) y dado cualquier nmero
entero positivo grande c, se puede hallar un nmero N = N(c) tal que la probabilidad de que X/N difiera de p no ms de
7
es mayor que c veces la probabilidad de que X/N difiera de p ms de . Con smbolos:
)
`

> >
)
`

p
N
X
P c p
N
X
P
O como escriben los libros modernos:
1
1
que tal 0
+
<
)
`

> >
+
c
p
N
X
P N Z c
En su ejemplo, para c=1.000, Bernoulli obtuvo como resultado que eran necesarias 25.550 observaciones. La
intuicin le deca que no hacan falta tantas y, por ello, lo intent con otros valores de c. Desilusionado por sentir que
haba fracasado en su intento de cuantificar la certeza moral, Bernoulli no incluy en su libro las aplicaciones prometi-
das. El que s lo hizo fue su sobrino Niklaus (16871759), que aplic el resultado de su to a registros de 14.000 naci-
mientos y lleg a la inesperada conclusin de que la frecuencia de nacimientos de nios es mayor que la de nias, en la
proporcin de 18:17. Este resultado fue confirmado aos despus por Laplace
El Teorema Central del Lmite.- La ley de los Grandes Nmeros plante el problema de estimar la suma de un
subconjunto de trminos de una expresin binomial. La principal dificultad era calcular la probabilidad de que el nme-
ro de xitos de un suceso dado de probabilidad p en n pruebas estuviera entre A y B. Jakob Bernoulli haba demostrado
que esta probabilidad era

< <


|
|
.
|

\
|
B k A
k m k
p p
k
m
) 1 ( , siendo ste una parte de la expansin 1 = (p+(1-p))
m
. Lo ms dif-
cil era calcular
)! ( !
!
k m k
m
k
m

=
|
|
.
|

\
|
, pues m! se hace muy grande cuando m es grande. Bernoulli recurri a estimaciones
muy poco precisas, pero suficientes para probar su teorema. De Moivre quiso ser algo ms preciso y recurri a una ex-
presin asinttica y demostr que
2
1
!
+


m
m
m e B m , con B constante. Para determinar el valor de esta constante,
construy la siguiente expansin: K + + =
1680
1
1260
1
360
1
12
1
1 ln B , y hall que B es aproximadamente 2.5074,
pero no qued satisfecho porque no logr vincular este nmero a ninguna constante matemtica conocida. De Moivre
pidi ayuda a su amigo James Stirling (16921770), quien demostr que 2 = B . Con este dato, De Moivre calcul
una tabla para la funcin m! con m entre 10 y 900, y enunci un resultado que, en notacin moderna, dice:
) / 2 ( ) / 2 (
2 2
2
2
2 2
n t n t
e
n
e
n
X P t
n
X P

=
)
`

=
)
`

+ =

De Moivre dibuj la grfica de esta curva, introduciendo el importantsimo concepto de distribucin normal y
demostr que esta curva es simtrica en torno al mximo y que los puntos de inflexin estn a distancia n
2
1
de este
mximo. El hecho de que el promedio de una muestra aleatoria independiente convenientemente normalizada es apro-
ximadamente normal es lo que se conoce como el Teorema Central del Lmite. Ahora ya estaba en condiciones De
Moivre de resolver el problema planteado por la ley de los grandes nmeros:



=
)
`

= + = dt e
n
t
n
X P
k
n t
0
) / 2 (
2
2
2
2

De Moivre trabaj con el valor de n k
2
1
= y obtuvo que la probabilidad de que el nmero de ocurrencias de un
experimento binomial cayera dentro de un intervalo de radio n
2
1
era 0.6827; luego repiti el clculo para otros ml-
tiplos de n . Finalmente, De Moivre encontr que n era unidad cuya distancia del centro debe ser medida. As, la
precisin de una estimacin de probabilidad aumenta igual que la raz cuadrada del nmero de experimentos; en otras
palabras, De Moivre acababa de descubrir la importancia de la varianza.
De Moivre repiti el experimento de Bernoulli y obtuvo que bastaban 6.498 observaciones. Aunque mejor el
8
mtodo de Bernoulli, sin embargo, no lleg a reconocer la importancia de la curva que haba encontrado y no pudo apli-
car su resultado a otros problemas.
EL PROBLEMA DE LA RUINA DEL JUGADOR
El problema de la ruina del jugador tuvo un papel importantsimo en el desarrollo de la teora de la probabili-
dad, pues era extraordinariamente complejo para la poca y exigi la creacin de nuevo mtodos para su resolucin;
adems, sirvi como trampoln para el desarrollo de los procesos estocsticos. El problema de la ruina del jugador fue
propuesto por primera vez por Huygens en su libro y consiste en lo siguiente: los jugadores A y B tienen a y b francos,
respectivamente. Despus de cada juego, el ganador le quita un franco al perdedor. La probabilidad de ganar de A es p y
la de B es q = 1p. Cul es la probabilidad p
A
de que el jugador A arruine totalmente al jugador B? El problema intrig
a muchos de los cientficos ms importantes del momento, como Jakob y Niklaus Bernoulli, De Moivre y Laplace. Ja-
kob Bernoulli critic la formulacin y solucin numrica del problema que dio Huygens, argumentando que restringa
la posibilidad de encontrar una regla general. Los resultados obtenidos por estos matemticos demostraron que eran ca-
paces de afrontar problemas de sucesos muy complicados y que saban manejar los teoremas de la suma, la multiplica-
cin y la probabilidad total, incluso antes de ser formulados.
La solucin fue hallada por De Moivre y Niklaus Bernoulli de forma independiente en 17101711. Segn De
Moivre,

1
1

|
|
.
|

\
|

|
|
.
|

\
|
=
+b a
a
A
p
q
p
q
p , y
1
1

|
|
.
|

\
|

|
|
.
|

\
|
=
+b a
b
B
q
p
q
p
p
Y el nmero esperado N de juegos que son necesarios para que un jugador arruine al otro es,
{ }
q p
ap bp
N E
B A

=
LA PARADOJA DE SAN PETERSBURGO
Una vez definido matemticamente el concepto de esperanza, la idea general era que la manera ms razonable de
tomar una decisin que involucrase probabilidades sera optar por aqulla que tuviese una mayor esperanza. Pero esta
manera de pensar qued desacreditada cuando en 1713 Niklaus Bernoulli propuso el siguiente juego: el jugador A lanza
una moneda; si sale cara en la primera tirada, paga 2 ducados al jugador B; si la primera cara sale en la segunda tirada,
le paga 4 ducados; y as, si la primera cara sale en la tirada nsima, le paga 2
n
ducados. Cunto pagara el jugador B al
jugador A para jugar a este juego? Si se calcula la esperanza matemtica, tenemos = =


=

= 1 1
1
2
1
2
n n
n
n
, y, por tanto, B
podra pagar a A cualquier cantidad, porque su ganancia seguira siendo infinita, pero, sin embargo, la probabilidad de
ganar slo 2 ducados es de 1 a 1, y la de ganar ms de 10 es de 1 contra 7. Este ejemplo conocido como la paradoja
de San Petersburgo por ser la ciudad donde discutieron el problema Niklaus Bernoulli y su hermano Daniel (1700
1782) puso de manifiesto que no siempre la opcin ms razonable es la ms correcta matemticamente. La solucin a
esta paradoja consisti en la introduccin del concepto de esperanza moral (en contraposicin a la esperanza
matemtica) o utilidad, que consiste en dar prioridad al sentido comn y las circunstancias personales o particulares
sobre el resultado matemtico. As, una persona rica, con mucho dinero que perder, podra permitirse el lujo de hacer de
jugador B, mientras que un pobre podra arriesgarse a hacer de jugador A, porque la posibilidad de perder dinero es
muy pequea; sin embargo, los papeles no seran intercambiables. Esta paradoja tuvo mucha importancia en el
desarrollo de la teora de la probabilidad aplicada a los problemas relacionados con los seguros: pagar una gran cantidad
al asegurado pero con una probabilidad muy pequea de que eso ocurra.
9
3.- LA PROBABILIDAD MODERNA
LA TEORA DE LA MEDIDA DE ERRORES
La teora de la medida de errores fue iniciada por Galileo y continuada por otros muchos cientficos, en su mayo-
ra astrnomos, como, por ejemplo, Ticho Brahe (15461601), que encontr que cada medida tiene un posible error y
que la precisin de la medida puede aumentar si se hacen varias medidas y se calcula la media aritmtica. Los primeros
intentos de construir matemticamente la teora de la medida de errores fue hechos por R. Cotes (16821716), T. Simp-
son (17101761) y Daniel Bernoulli. Cada uno de ellos tena una idea diferente sobre la medida de los errores. Cotes
opinaba que los errores se distribuyen uniformemente a lo largo el intervalo (-a,a). Simpson crea que los errores peque-
os ocurren ms frecuentemente que los grandes, pero que estn restringidos por un nmero a, de manera que el error es
0 en los intervalos (-,-a] y [a,+); as, la funcin de densidad es x-2a
2
y=-a en el intervalo (-a,0), y en (0,a) es
x+2a
2
y=a. Daniel Bernoulli fue el primero en poner en duda que la media aritmtica fuera la mejor estimacin del error
y propuso como funcin de densidad
2 2
) ( x x R y = , donde R es conocido y x se determina mediante repetidas
observaciones. Bernoulli no se dio cuenta de que la integral de esta funcin no es 1, sino
2
2
R |
.
|

\
|
, por lo que slo repre-
sente una verdadera funcin de densidad en casos particulares. El trabajo de Bernoulli, no obstante, es importante por-
que fue el primero en proponer estimar un parmetro desconocido mediante el mtodo de mxima verosimilitud.
Otro estudioso de la cuestin fue Laplace, que consideraba la teora de probabilidad ms como una disciplina de
la ciencia natural que de las matemticas. Muy dedicado a la astronoma, aplic a sus investigaciones en teora de medi-
da de errores. Laplace afirm los errores de medida observados eran la suma de una gran cantidad de pequeos errores;
si estos errores tenan una distribucin normal, su suma tambin debera tenerla. Como estimacin del valor desconoci-
do del error a, Laplace sugiri tomar el valor que minimiza la cantidad



n k
k
a x
1
, que es igual a la media de las n ob-
servaciones realizadas.
Sin embargo, el trabajo de Laplace no alcanz mucha difusin porque qued eclipsado por las nuevas ideas pre-
sentadas por K. Gauss (17771855) y A. Legendre (17521833), que propusieron y desarrollaron el mtodo de mnimos
cuadrados. Gauss demostr que, bajo ciertas condiciones generales, la funcin de densidad de los errores de medida tie-
ne la forma
2 2
) (

=
h
e
h

.
Otra gran contribucin fue la realizada por Simeon Poisson (17811840). En particular, plante la siguiente pre-
gunta: es cierto que la media aritmtica es siempre mejor que una nica observacin? La respuesta es no. Como con-
traejemplo, present la siguiente distribucin < <
+
= x
x
x p ,
1 (
1
) (
) 2

. Poisson demostr que la suma de dos


variables aleatorias con esta distribucin tiene la misma distribucin pero con otra escala y luego prob que la media
aritmtica de variables aleatorias independientes de este tipo tiene exactamente la misma distribucin que cualquiera de
ellas. 20 aos despus A. Cauchy (17891857) repiti este mismo resultado y la distribucin descubierta por Poisson
recibi el nombre de Cauchy.
Ms tarde, la teora de errores atrajo la atencin de muchos probabilistas rusos, como P. Chebyshev (18211894)
y A. Markov (18561922), que desarrollaron el mtodo de mnimos cuadrados.
FORMACIN DEL CONCEPTO DE VARIABLE ALEATORIA
Suele ocurrir que la formacin de los conceptos cientficos ocurre antes de que sean comprendidos totalmente.
Eso tambin fue lo que pas con el concepto de variable aleatoria, uno de los pilares bsicos de la teora de probabili-
dad moderna.
El concepto de variable aleatoria estuvo presente de forma encubierta casi desde el principio de la teora de
10
probabilidad. En uno de los problemas de su libro, Huygens introdujo una variable aleatoria que sigue una distribucin
hipergeomtrica. Cuando Galileo habl de los errores aleatorios que no se pueden predecir y que varan de medida en
medida, en realidad se refera a que esos errores son una variable aleatoria de distribucin desconocida. Cuando Ber-
noulli enunci su ley de los grandes nmeros, al contabilizar el nmero bolas blancas extradas de la urna, ese nmero
de xitos es una variable aleatoria que toma valores entre 1 y n el nmero total de pruebas, siguiendo una distribucin
binomial. Al analizar el problema de la ruina del jugador, tambin aparece una variable aleatoria, el nmero de juegos
hasta que uno de los jugadores queda arruinado. Y De Moivre fue incluso ms lejos al introducir la distribucin normal.
Sin embargo, ninguno de ellos se dio cuenta que haca falta introducir un nuevo concepto. Tampoco Gauss, Daniel Ber-
noulli o Laplace mencionaron en ningn momento esta idea, ni siquiera cuando en el comienzo del siglo XIX aparecie-
ron nuevos problemas en los que siempre apareca la distribucin normal: el tamao de los rganos de animales de la
misma edad, la desviacin de los proyectiles en la artillera o en la teora matemtica de la fsica molecular aplicada a
los gases. Adems, la preeminencia de la distribucin normal sobre todas las dems tuvo el efecto contraproducente de
desalentar la investigacin sobre las propiedades de la media y la varianza, porque para el caso de la normal es una
cuestin bien conocida.
Los primeros pasos en la direccin de introducir la idea de variable aleatoria fueron dados por Poisson en 1832
en su libro Sobre la Probabilidad de los Resultados Promedios de Observaciones. No utiliz el trmino variable alea-
toria, pero s habl de alguna cosa que uno puede entender como un conjunto a
1
, a
2
,,a
n
con sus correspondientes
probabilidades p
1
, p
2
,,p
n
; es decir, habl de las variables aleatorias discretas. Tambin consider variables aleatorias
continuas y sus densidades. La palabra variable fue utilizada por primera vez por Chebyshev, que asumi implcita-
mente que todas las variables aleatorias eran independientes y fue A. Liapunov (18571918) el primero que us siste-
mticamente el trmino variable aleatoria y especific que seran independientes cuando fuese necesario. En el co-
mienzo de su obra Sobre una Afirmacin en la Teora de Probabilidad, Liapunov dio la definicin de funcin de distri-
bucin tal y como la conocemos hoy: { } ( ) ( ) a F b F b a P = < < .
LA LEY DE LOS GRANDES NMEROS
El teorema de Bernoulli fue generalizado por vez primera por Poisson en 1837, quien tambin introdujo el tr-
mino ley de los grandes nmeros. Poisson consider una sucesin de n pruebas independientes, en cada una de las
cuales A puede ocurrir con probabilidad p
k
k=1,n. Si
n
es el nmero de ocurrencias de A en las n observaciones, en-
tonces: 0 0
2 1

)
`

<
+ +
>
n
n n
n
p p p
n
P

K
. En 1843 Chebyshev critic el teorema de Poisson, alegando
que no daba una cota explcita para el error y enunci su propia versin, dando una estimacin de n para que se cum-
pliera la desigualdad:

>
)
`

<
+ +
> 1 0
2 1
n
p p p
n
P
n n
K
. Sin embargo, estas dos versiones no significa-
ron ningn avance, pues no superaban la idea original de Bernoulli. Slo cuando en 1867 Chebyshev empez a conside-
rar variables aleatorias en lugar de sucesos, se produjo ese avance cualitativo.
En 1909 mile Borel (18711956) demostr que el experimento de Bernoulli llevaba a una afirmacin ms
fuerte que la ley de los grandes nmeros para p=0.5. En 1917, el matemtico italiano Francesco Cantelli (18751966)
extendi este hecho para p arbitrario: 1 lim
n
=
)
`

=

p
n
P
n

, afirmacin que se conoce como la Ley Fuerte de los Gran-


des Nmeros. Una generalizacin de este resultado fue dada por Andrei Kolmogorov (19031987) en 1930.
En 1935 A. Khinchine (18941959) introdujo el concepto de estabilidad relativa de suma de variables aleatorias:
la suma S
n
=
1
+
2
++
n
, se dice relativamente estable si existen constantes A
n
>0 tales que para todo >0 y n,
se cumple 1 lim
n
=
)
`

=

p
n
P
n

. Para variables aleatorias idnticamente distribuidas, Khinchine encontr condiciones


necesarias y suficientes; su discpulo A. Bobrov (1912) extendi este resultado a variables con distribuciones diferen-
11
tes.
Uno de los resultados relacionados con la ley de los grandes nmeros es el teorema de GlivenkoCantelli, des-
cubierto por A. Glivenko en 19291933, que trata sobre la convergencia de una distribucin emprica a una verdadera
funcin de distribucin.
EL TEOREMA CENTRAL DEL LMITE
Los esfuerzos por lograr una generalizacin del teorema de De Moivre vinieron desde dos campos: la teora de
medida de errores y la estadstica fsica. Entre los primeros se cuentan Laplace, que en 1809 formul un teorema de l-
mites para la suma de variables aleatorias distribuidas uniformemente en un intervalo (-h,h) y, considerando un nmero
creciente de variables aleatorias discretas dio una aproximacin de una distribucin continua a partir de otra discreta;
Poisson, que en 1837 dio un teorema local del lmite y fall al generalizarlo a la suma de variables aleatorias indepen-
dientes arbitrarias con varianza finita porque le falt aadir que deban ser idnticamente distribuidas; y F. Bessel, que
coincidi con Laplace en que la suma de un nmero grande de cantidades aleatorias pequeas en comparacin con la
suma tiene una distribucin normal, aunque en 1838 dio ejemplos de medidas en las que los errores adoptan otras dis-
tribuciones, como, por ejemplo, la medida de ngulos.
En el lado de la estadstica, aparecen principalmente los matemticos rusos de finales del siglo XIX y principios
del XX. El primero de ellos fue Chebyshev, quien en 1887 demostr un teorema sobre la acotacin de la suma de varia-
bles aleatorias con esperanza 0. Para probarlo, Chebyshev ide el Mtodo de los Momentos, de gran importancia en la
estadstica. Sin embargo, la demostracin tena algunos errores que fueron corregidos por su discpulo A. Markov, que
demostr en 1898 la siguiente versin del Teorema de Chebyshev:
Sea S
n
la sucesin de sumas u
1
+ u
2
++u
n
y
n
(x) la distribucin de u
n
.
( )

)
`

< <

b
a
x
n
n
x k
n
k
dx e b
S Var
S
a P b a
dx e x x d x
2 /
2 /
2
2
2
1
,
cumple se entonces ,
2
1
cumple se k Si

Este pareca el teorema del lmite definitivo, hasta que en 1900 A. Liapunov demostr que si las variables aleato-
rias tienen momento de orden 3 finito { }
3
k k k
a E c = y


=
n k
n n
c C
1
, ( )


=
n k
k n
Var B
1
2
, y 0
2

n
n
n
B
C
, entonces
las funciones de distribucin de S
n
convergen a la distribucin normal. Al ao siguiente, Liapunov prob bastaba con
pedir que el momento de orden 2+ con >0, y prob el mismo teorema pero cambiando 3 por 2+ . Liapunov lleg in-
cluso a calcular el orden de esta convergencia a la normal: n
-
log(n).
La demostracin de este teorema no exiga la aplicacin del mtodo de momentos de Chebyshev y Markov, que-
riendo recuperar la idea de su maestro, propuso el concepto de variables aleatorias truncadas, para las cuales su versin
del Teorema Central del Lmite de Liapunov s necesita el mtodo de momentos.
En 1922 el matemtico finlands Lindeberg fue ms all que Liapunov, al no pedir la existencia de ningn mo-
mento salvo el de orden 2. As, ( ) ( ) 0
1
lim
0 si
1
2
= >



>
n k
B a x
k
x n
x dF a x
B n k

, la distribucin de la suma de varia-
bles aleatorias, centradas en sus esperanzas y normadas por la raz cuadrada de la suma de sus varianzas converge a una
distribucin normal estndar. En 1942 William Feller demostr que la condicin suficiente de Lindeberg es tambin ne-
cesaria.
Como corolario al teorema de Lindeberg se obtuvo un resultado esperado desde haca mucho tiempo: si se tienen
variables aleatorias independientes idnticamente distribuidas con varianza finita no nula, se puede aplicar el Teorema
Central del Lmite a su suma.
En 1927 S. Bernshtein consider un problema ms general. Sea
1
,
2
,,
n
, una sucesin de variables aleato-
12
rias independientes sin suponer nada acerca de sus esperanzas o varianzas. Bernshtein encontr condiciones necesarias
y suficientes para hallar constantes B
n
>0 y A
n
, tales que la funcin de distribucin (S
n
-A
n
/B
n
) converja a la normal. En
1935, Feller demostr que esas condiciones eran tambin necesarias, suponiendo que los trminos de la suma son uni-
formemente pequeos. Ese mismo ao, A. Khinchine y Paul Lvy (18861971) encontraron, de forma independiente,
condiciones necesarias y suficientes para la convergencia de la distribucin suma de variables aleatorias independientes
idnticamente distribuidas a la distribucin normal.
Actualmente, las investigaciones se centran en cuestiones tales como cunto de rpida es la convergencia a la
normal, cmo converge un nmero aleatorio de variables aleatorias, o las relaciones entre el Teorema Central del Lmite
y la Ley de los Grandes Nmeros.
LA INTERPRETACIN SUBJETIVA DE LA PROBABILIDAD
Las interpretaciones clsica y frecuentista de la probabilidad no satisfacan a todos. As, en el segundo cuarto del
siglo XX surgi una nueva interpretacin, llamada subjetiva, segn la cual la probabilidad mide el grado de creencia de
un individuo en la verdad de una proposicin, variando entre 0 (el individuo cree que es falso) a 1 (cree que es cierto).
Esta interpretacin fue propuesta por primera vez por el filsofo Frank P. Ramsey en su libro Los Fundamentos de las
Matemticas de 1931, y el primer matemtico que la adopt fue el estadstico italiano Bruno de Finetti en 1937. La in-
terpretacin subjetiva de la probabilidad es ms amplia que la frecuentista, pues mientras que sta slo funciona con ex-
perimentos que se puedan repetir un nmero grande de veces, aqulla se puede aplicar a cualquier tipo de proposicio-
nes. Adems, mientras que los frecuentistas consideran que la probabilidad de un suceso es siempre una constante (que
se aproxima repitiendo el proceso), para los subjetivistas la probabilidad de un suceso puede y debe variar en fun-
cin de la nueva informacin recibida respecto del suceso, manera de proceder que se ajusta ms al mtodo cientfico.
Una crtica que se ha hecho de la interpretacin subjetiva es la supuesta arbitrariedad con que se asignan proba-
bilidades a sucesos. Los subjetivistas se defienden afirmando que las normas de la moral y la coherencia obligan a quien
asigna la probabilidad de un suceso a actuar del modo ms objetivo posible y no de forma caprichosa. Adems, se han
hecho esfuerzos por convertir esta nocin intuitiva en demostraciones formales.
La interpretacin subjetiva es muy utilizada en los diseos de modelo probabilsticos de la fsica cuntica, y sus
tcnica se han aplicado con xito recientemente para filtrar el spam del correo electrnico legtimo.
LA AXIOMATIZACIN DE LA PROBABILIDAD
La definicin de variable aleatoria dada por Poisson era demasiado intuitiva y demasiado apegada a la experien-
cia prctica como para servir de base a un desarrollo terico de la teora de la probabilidad. Era necesaria una formali-
zacin ms grande de los conceptos probabilsticos y hubo que esperar al desarrollo de las teoras de conjuntos y de la
medida que tuvo lugar a finales del siglo XIX y comienzos del XX, debidos principalmente a Georg Cantor (18451918),
mile Borel y Henri Lebesgue (18751941). Ya en 1909, Borel consider la importancia de la teora general de la me-
dida para la construccin de la fundamentacin de la teora de la probabilidad, pero no fue hasta 1933 cuando N. Kol-
mogorov se propuso construir una teora de la probabilidad de una manera rigurosa, basndose en axiomas fundamen-
tales, similar el tratamiento que Euclides dio a la geometra.
La construccin axiomtica de la teora de la probabilidad procede de las propiedades fundamentales de la pro-
babilidad observadas en los ejemplos que ilustran las definiciones clsica y frecuentista. As, la definicin axiomtica
las incluye como casos particulares y supera las carencias de ambas. De esta manera, la probabilidad pudo desarrollarse
como un teora completamente lgica al mismo tiempo que sigui permitiendo resolver los problemas aplicados de la
ciencias modernas y la tecnologa.
La definicin axiomtica da una equivalencia entre los conceptos de la teora de la medida y los de la teora de la
probabilidad. Se toma un conjunto de medida 1, , cuyos elementos son sucesos elementales (puntos de un espacio de
13
medida) y se considera una lgebra M, un subconjunto de que satisface que incluye a y a , que es cerrado por
complementacin y por uniones numerables. Luego se define una funcin P que asigna a un suceso (o conjunto medible
en la teora de la medida) un nmero entre 0 y 1 (su medida). As, la terna (, M, P) recibe el nombre de espacio de
probabilidad. No obstante, la teora de la probabilidad no queda inmersa dentro de la de la medida, porque sta no po-
see una nocin fundamental de la probabilidad, la independencia de variables aleatorias (equivalente probabilstico de
las funciones medibles).
Los axiomas de Kolmogorov que definen la probabilidad son los siguientes:
1. Para cada suceso aleatorio A hay asociado un nmero nonegativo P(A) que se llama su probabilidad.
2. P()=1
3. Si los sucesos A
1
, A
2
,, A
n
son mutuamente excluyentes dos a dos, entonces, P(A
1
+A
2
++A
n
) =
P(A
1
)+P(A
2
)++P(A
n
).
Del hecho de que = y el axioma 3 se deduce que ( ) ( ) ( ) = P P P , y de esto se obtiene una serie
de resultados importantes:
( ) 0 = P ; ( ) ( ) A P A P A
c
= 1 ; ( ) 1 0 A P A ; ( ) ( ) B P A P B A ;
( ) ( ) ( ) ( ) B A P B P A P B A P + = ; ( ) ) (
1
1
=

n
i
i n
A P A A P K .
El sistema de axiomas de Kolmogorov es consistente, pues existen objetos reales que los satisfacen. Por ejemplo,
= {a
1
, a
2
,, a
n
} y M el conjunto de todos los subconjuntos de , donde P(a
i
)=p
i
con i=1,,n, satisface los axiomas
de Kolmogorov.
Sin embargo, el sistema de axiomas es incompleto, pues para un conjunto dado se pueden elegir las probabili-
dades en la lgebra M de maneras diferentes. Esto no significa que el sistema de axiomas no sea lo bastante razona-
ble, sino que ocurre en ocasiones que es necesario estudiar el mismo conjunto de sucesos aleatorios con diferentes pro-
babilidades; por ejemplo, los posibles resultados de lanzar dos dados equilibrados o de lanzar un dado equilibrado y otro
trucado son los mismos y, sin embargo, las probabilidades asociadas a estos sucesos son diferentes.
Tambin ocurre en probabilidad que constantemente hay que considerar sucesos que se pueden descomponer en
una cantidad infinita de subsucesos. Ello exige un nuevo axioma, a elegir de entre estos dos, que son equivalentes: el
axioma extendido de la suma de probabilidades, que dice que si el suceso A es equivalente a la ocurrencia de al menos
uno de los sucesos mutuamente excluyentes dos a dos A
1
, A
2
,, A
n
, entonces P(A) = P(A
1
)+P(A
2
)++P(A
n
)+; o
el axioma de continuidad: si la sucesin de sucesos B
1
, B
2
,, B
n
, es tal que cada suceso implica el anterior y su in-
terseccin es el vaco, entonces
( ) 0
n
n
B P .
4.- APLICACIONES DE LA TEORA DE LA PROBABILIDAD
LA PROBABILIDAD GEOMTRICA
El primero que plante problemas probabilsticos asociados a la geometra fue J. Arbuthnot (16671735), quien,
en su traduccin al ingles, en 1692, del libro de Huygens, aadi un problema de naturaleza totalmente distinta a los
otros: se lanza un cubo, con aristas a, b, c que se cortan en ngulo recto; cul es la probabilidad de que el cubo caiga
sobre el plano que contiene a dos de esas aristas y es perpendicular a la otra? En la resolucin de este problema, hubo
que identificar casos favorables y posibles con reas.
14
El naturalista George Buffon (17071788) plante en 1733 otros dos problemas de probabilidad geomtrica, con
el objetivo de demostrar que no slo la aritmtica, sino tambin la geometra, sirve para resolver problemas de probabi-
lidad. El primer problema de Buffon era el siguiente: de divide el suelo en figuras idnticas; se lanza un moneda de ra-
dio 2r, menor que el tamao de cualquiera de las figuras; cul es la probabilidad de que la moneda corte al menos el
borde de una figura? Para resolverlo, se considera un rectngulo en el plano de lados a y b, tales que min(a,b)<2r; la
probabilidad de la moneda corte al menos uno de los lados de ese rectngulo es
ab
r b a r ) 2 ( 2 +
. El segundo problema
reza de la siguiente manera: un plano es dividido por lneas paralelas a igual distancia, a; se lanza una aguja de longitud
2r; cul es la probabilidad de que la aguja toque alguna de las lneas? Buffon dio una respuesta equivocada, que aos
ms tarde fue corregida por Laplace:
2
) 2 ( 4
a
r a r


.
Los principales estudiosos de la probabilidad geomtrica durante el siglo XIX fueron G. Lame (17951870), J.
Barbier (17971856), D. Silvester (18141857) y M .Crofton (18141874). Silvester propuso otro problema clsico de
la probabilidad geomtrica: se colocan en el plano aleatoriamente cuatro puntos; cul es la probabilidad de que esos
cuatro puntos sean los vrtices de un cuadrngulo convexo? Silvester dio como solucin
A
M 4
1 , donde A denota el
rea de la figura convexa y M la del tringulo que forman los tres primeros puntos colocados.
En el siglo XX, el inters por la probabilidad geomtrica aument a causa de sus mltiples aplicaciones a la fsi-
ca, la biologa, la medicina y la ingeniera.
CONTROL DE CALIDAD
Con el desarrollo de la produccin en masa, en los ltimos 6070 aos ha aumentado el inters en los problemas
de control de calidad. Los orgenes de este tipo de problemas se remontan a 1740, cuando T. Simpson propuso lo si-
guiente: dado un nmero de objetos de calidad diferente: n
1
del tipo 1, n
2
del tipo 2, y as; Se eligen aleatoriamente m
objetos; hallar la probabilidad de haber sacado m
i
del tipo i. El problema fue resuelto en 1846 por M. Ostrogadsky
(18011862) que trat de aplicarlo a los problemas de intendencia militar con el objetivo de ahorrar tiempo en las com-
probaciones. En la resolucin, Ostrogadsky aplic la regla de Bayes, pero hizo la suposicin de que la probabilidad de
sacar que un objeto del tipo n era siempre
1
1
+ n
, que es demasiado poco realista. Mucho ms lo es el planteamiento
actual del problema del control de calidad: cada objeto puede ser defectuoso con probabilidad p; esta probabilidad, en
un sistema de produccin bien organizado debera ser pequea y estable en el tiempo. En este caso, la probabilidad de
encontrar m objetos defectuosos de entre n se expresa mediante la frmula de Bernoulli: ( )
m n m
n
p p
m
n
m P

|
|
.
|

\
|
= ) . 1 ( .
Los mtodos estadsticos de control de calidad alcanzaron gran importancia durante la 2 guerra mundial, ya que
algunos productos no podan ser comprobados sin destruirlo detonadores, bombas y, en otros casos, porque una
comprobacin exhaustiva de la calidad exiga un gran esfuerzo no permitido por las circunstancias blicas.
PROCESOS ESTOCSTICOS
La probabilidad clsica slo se ocupa de problemas estacionarios en el tiempo, mientras que fsicos, bilogos e
ingenieros estn interesados en procesos que evolucionan con el tiempo. Algunos ejemplos de estos problemas son el
nmero y la duracin de las llamadas telefnicas, sistemas dinmicos de poblacin, movimiento de partculas que cho-
can entre ellas, difusin entre lquidos, decaimiento radiactivo.
El concepto de proceso estocsticos, basado en la definicin axiomtica de la probabilidad, es el siguiente: sea
el conjunto de sucesos elementales y t un parmetro continuo. Un proceso estocstico es la funcin de dos argumentos
( ) = ) , ( t t ; para cada valor de t, la funcin ) , ( t es slo una funcin de y, por consiguiente, una variable
aleatoria; para cada valor fijo de , la funcin ) , ( t depende slo de t y es una funcin de una variable real, funcin
15
que recibe el nombre de realizacin del proceso estocstico. Un proceso aleatorio puede verse como la coleccin de
variables aleatorias ( ) t que dependen del parmetro t o como la coleccin de las realizaciones del proceso ( ) t . Es
natural asignar una medida de probabilidad en el espacio de funciones de las realizaciones para definir el proceso.
Los primeros en estudiar estos procesos fueron fsicos como Max Planck y Fokker, y matemticos como Markov
o Slutsky, pero no fue hasta la dcada de 1930 cuando Kolmogorov y Khinchine construyeron la teora general y rigu-
rosa de los procesos estocsticos.
MARTINGALAS
En teora de probabilidad, una martingala es un proceso estocstico discreto, es decir, una sucesin de variables
aleatorias X
1
, X
2
,, X
n
que satisfacen { }
n n n
X X X X E =
+
, , |
1 1
K , es decir, la esperanza condicional de la prxima ob-
servacin, dadas todas las anteriores, es igual a la ltima observacin. El trmino fue adoptado del lenguaje de los juga-
dores. Una definicin algo ms general es esta otra: una sucesin Y
1
, Y
2
,, Y
n
es una martingala con respecto a otra su-
cesin X
1
, X
2
,, X
n
si { } n Y X X Y E
n n n
=
+
, , |
1 1
K .
Originalmente, la martingala se refera a una estrategia de juego popular en la Francia del siglo XVIII. Se lanza
una moneda; el jugador apuesta 1 a que sale cara; si pierde, apuesta 2 a que sale cara en esa segunda tirada; si vuelve a
perder, apuesta 4 en la tercera tirada; as, si pierde la n primeras tiradas, apuesta 2
n
en la tirada (n+1)sima. Cuando
gane, el jugador recupera todas las apuestas anteriores y, adems, un beneficio igual a la primera apuesta. Un jugador
con infinita riqueza e infinito tiempo a su disposicin tiene garantizado ganar alguna vez, as que este se convirti en un
juego muy popular entre la gente que quera enriquecerse rpidamente. El problema para el jugador es que nadie posee
una infinita riqueza y el crecimiento exponencial de las apuestas arruina a cualquiera, incluso con una racha de mala
suerte relativamente pequea.
El concepto de martingala fue introducido por Paul Lvy en los aos 40, y gran parte del desarrollo original de la
teora fue hecho por Doob. Parte de la motivacin de este trabajo fue demostrar la imposibilidad de encontrar estrategias
de apuestas que siempre tengan xito. A pesar de que la definicin matemtica de martingala es del siglo XX, De Moi-
vre ya hizo uso de una martingala matemtica para resolver el problema de la ruina del jugador.
MTODO DE MONTECARLO
El Mtodo de Montecarlo es un mtodo usado en estadstica para generar nmeros aleatorios, as llamado por el
casino de Mnaco, ya que toma una ruleta como un generador simple de nmeros aleatorios.
La simulacin de Montecarlo fue creada para resolver integrales que no se pueden resolver por mtodos analti-
cos, usando nmeros aleatorios. La idea bsica del mtodo consiste en escribir la integral requerida como el valor espe-
rado de alguna funcin con respecto a alguna de distribucin de probabilidad, lo cual sugiere una solucin estadstica al
problema de integracin. El mtodo proporciona soluciones aproximadas a una gran cantidad de problemas matemti-
cos, posibilitando la realizacin de experimentos con muestreos estadsticos en un ordenador. Tambin tiene aplicacin
a la probabilidad geomtrica.
Una de las aplicaciones ms importantes del mtodo de Montecarlo tuvo lugar con el trabajo para fabricar la
bomba atmica durante la 2 guerra mundial, ya que haba que simular problemas probabilsticos de hidrodinmica con-
cernientes a la difusin de neutrones aleatorios en el material de fusin.
BIBLIOGRAFA
LIBROS
COOKE, ROGER, The History of Mathematics. A Brief Course, John Wiley & Sons Inc, 1997
DE GROOT, MORRIS H., Probabilidad y Estadstica, AddisonWesley Iberoamericana, 1988
GNEDENKO, BORIS, Theory of Probability, Gordon & Breach Science Publications, 1997
GRIMMETT, G.R./STIRZAKER D.R., Probability and Random Processes, Oxford University Press, 1992
KATZ, VICTOR, A History of Mathematics. An Introduction, AddisonWesley, 1998
TODHUNTER, ISAAC, History of the Theory of Probability, Chelsea Publishing Company, 1965
INTERNET
The MacTutor History of Mathematics archive:
www-groups.dcs.st-and-ac-uk/~history
Figures from the History of Probability and Statistics:
www.economics.soton.ac.uk/staff/aldrich/Figures.htm
Earliest Known Uses of Some of the Words of Mathematics:
members.aol.com/jeff570/mathworld.html
A short History of Probability and Statistics
www.leidenuniv.nl/fsw/verduin/stathist/stathist.htm
History of Science: Origins of Modern Probability Theory
www.mala.bc.ca/~johnstoi/darwin/sect4.htm
PROBABILIDAD Y JUEGOS DE AZAR
Resultados de dados y problema del reparto de apuestas
Fermat y Pascal (1654) combinatoria; tringulo aritmtico
Pascal existencia de Dios; teora de la decisin
Huygens (1655) esperanza matemtica
Paradoja de San Petersburgo (1713) esperanza moral
PROBABILIDAD Y DEMOGRAFA
Graunt (1662) estabilidad de las medias
Halley (1693) mediana
TEOREMAS BSICOS
Teorema de la suma Bayes
Teorema de la multiplicacin De Moivre: independencia
Teorema de Bayes Bayes y Laplace
TEOREMAS DEL LMITE
Ley de los Grandes Nmeros Jakob Bernoulli (~1700)
Observaciones necesarias para garantizar convergencia de fre-
cuencias observadas a frecuencia terica binomial
Teorema Central del Lmite De Moivre (1711)
De Moivre
2
1
!
+


m
m
m e B m ; Stirling 2 = B

) / 2 ( ) / 2 (
2 2
2
2
2 2
n t n t
e
n
e
n
X P t
n
X P

=
)
`

=
)
`

+ =

Grfica curva normal; varianza


TEORA DE MEDIDA DE ERRORES
Problemas de astronoma Brahe (media aritmtica); Daniel Ber-
noulli (mxima verosimilitud); Laplace; Gauss y Legendre (mtodo de
mnimos cuadrados)
Distribucin de Cauchy Poisson (1824): la media aritmtica no
siempre es mejor que una nica observacin
( )
< <
+
= x
x
x p ,
1
1
) (
2

LA PROBABILIDAD MODERNA
Variable aleatoria: Poisson (1832): discretas; Chebychev:
independientes; Liapunov: definicin general, funcin de distribucin
Ley de los Grandes Nmeros Generalizaciones: Poisson (1837),
Chebyshev (1867), Borel (1909), Cantelli (Ley Fuerte 1917),
Kolmogorov (1930), Khinchine (estabilidad de sumas de vv.aa.
1935), Glivenko (convergencia de funciones de distribucin 1933)
Teorema Central del Lmite Generalizaciones: Laplace (1809);
Poisson (1837), Bessel (1838), Chebychev (1887), Markov (1898),
Liapunov (1900), Lindeberg (condicin necesaria para la
convergencia a la normal de suma de vv.aa. 1922) Feller (condicin
suficiente 1942)
INTERPRETACIONES DE LA PROBABILIDAD
Interpretacin clsica Bernoulli: equiprobabilidad
Interpretacin frecuentista Bernoulli: observaciones mltiples
Interpretacin subjetiva De Finetti (1937): grado de creencia
Interpretacin axiomtica Kolmogorov (~1930): teora de la
medida + independencia
APLICACIONES
Probabilidad geomtrica
Control de calidad
Procesos estocsticos problemas que varan en el tiempo
Martingalas estrategias de juego
Mtodo de Montecarlo generacin de nmeros aleatorios

También podría gustarte