Está en la página 1de 32

HISTORIA DE LA

PROBABILIDAD

NDICE GENERAL:
1.CONTEXTO HISTRICO Y PRECURSORES. 3
Pacioli, Cardano y Tartaglia.. 3

2.NACIMIENTO Y EVOLUCIN DE LA TEORA DE LA


PROBABILIDAD....5
El problema del caballero de Mer. Nacimiento de la probabilidad..5
Primeras definiciones y teoremas bsicos7
La ley de los Grandes Nmeros10
El Teorema Central del Lmite.....11
Problemas importantes de la historia..12

3.LA TEORA MODERNA DE LA PROBABILIDAD15


La probabilidad en el siglo XIX15
Perfeccionamiento de la ley de los Grandes Nmeros y el TCL...16
Escuelas del siglo XX17
Kolmogorov y la axiomatizacin de la probabilidad.....18

TRATAMIENTO Y COMENTARIO DE TEXTO ORIGINAL.20

BIBLIOGRAFA.....28

1.CONTEXTO HISTRICO Y PRECURSORES


La Edad media termina histricamente en el ao1453 con la cada de
Constantinopla por parte de los otomanes, dando paso a la etapa conocida como
Renacimiento, la cual se destac por la actividad mercantil, industrial, artstica,
arquitectnica, intelectual y cientfica, entre otras. En esta poca surge una nueva
relacin del hombre con la naturaleza, que va unida a una concepcin ideal y realista de la
ciencia. La matemtica se va a convertir en la principal ayuda de un arte y una sociedad que
se preocupan incesantemente en fundamentar racionalmente su ideal de belleza.
A partir de esta etapa con el avance en las matemticas y la filosofa, se empieza a
dar una explicacin coherente a muchos fenmenos que no seguan un patrn
determinstico, sino aleatorio. Es el caso de todos los fenmenos relativos a la
probabilidad de los sucesos, concretados en este tiempo fundamentalmente en los
juegos de azar.
En este periodo del Renacimiento es cuando empiezan a surgir de manera ms seria
inquietudes entorno a contabilizar el nmero de posibles resultados de un dado lanzado
varias veces, o problemas ms prcticos sobre cmo repartir las ganancias de los
jugadores cuando el juego se interrumpe antes de finalizar. Como vemos estas
inquietudes surgan ms como intentos de resolver problemas cotidianos con el fin de
ser justos en las apuestas y repartos o incluso de conocer las respuestas para obtener
ventajas y en consecuencia mayores ganancias respecto a otros jugadores y mucho
menos de inquietudes matemticas verdaderas. De hecho la idea de modelizar el azar
mediante las matemticas an no estaba plenamente presente en los intelectuales de la
poca.
Pacioli, Cardano y Tartaglia:
Uno de los primeros problemas dedicados a contabilizar el nmero de posibles
resultados al lanzar un dado varias veces podemos encontrarlo an en la Edad Media, en
el poema De Vetula de Richard de Fournival (1200-1250) donde afirma correctamente
que si se lanzan tres dados hay 216 combinaciones posibles y calcula acertadamente
los diferentes valores para la suma de los tres dados. Aunque ahora puede parecer una
cuestin trivial, en aquella poca no lo era, y otros autores se equivocaron al intentar
resolverla, generalmente porque no tenan en cuenta las posibles permutaciones de una
misma combinacin.
Pero el problema ms importante relativo a los juegos de azar era el conocido como
problema del reparto de apuestas que distribua las ganancias entre jugadores cuando
la partida se interrumpa antes de finalizar. Este problema fue abordado por Luca
Pacioli (1445-1517) quien en 1487 propuso estos dos problemas particulares: un juego
en el que el premio es de 22 ducados que consiste en alcanzar 60 puntos se interrumpe
cuando un equipo lleva 50 puntos y el otro 30; y tres arqueros que compiten por un
premio de 6 ducados lanzan flechas hasta que uno de ellos haga 6 dianas, siendo
interrumpidos cuando el primero de ellos lleva 4 dianas, el segundo 3 y el tercero 2.
Cmo deben repartirse los premios entre los contendientes? Pacioli propuso que el
premio debera ser repartido en funcin de las victorias obtenidas anteriormente: as, el
premio del primer problema se divida en 605/8 ducados para el primer equipo y en

603/8 para el segundo; para el problema de los arqueros, el premio se divida en la


proporcin 4/9, 3/9 y 2/9. Como ms tarde se pondra de manifiesto, esta solucin
obtenida por Pacioli es incorrecta.
Fue Girolamo Cardano (1501-1576) quien escribi la primera obra importante
relacionada con el clculo de probabilidades en los juegos de azar. Fue en 1565 y se
llamaba Libro de los juegos de azar. Adems Cardano se haba ocupado anteriormente
del problema del reparto de apuestas y en 1539 lleg a la conclusin de que la solucin
de Pacioli era incorrecta porque al considerar tan slo el nmero de juegos ganados por
cada equipo, no contaba cuntos juegos deban ganar para hacerse con el premio.
Cardano propuso como solucin del problema que si n es el nmero de juegos totales y
a y b los juegos ganados por cada equipo, el premio deba repartirse de la siguiente
manera:
[1+2++(n-b)]: [1+2+(n-a)].
Esta solucin es, en general, incorrecta y slo da resultados vlidos en casos
particulares.
Niccolo Tartaglia (14991557), tambin intent resolver este problema y en 1556
public un libro en el que descartaba la solucin dada por Pacioli y daba su propio
solucin: si un equipo ha ganado a puntos y el otro b, se juega a n puntos y el premio
total es P, las ganancias deberan repartirse de la forma:
(P/2)P[(a-b)/n]
siendo la cantidad mayor para el
equipo que tenga ms victorias. Sin embargo, Tartaglia fue consciente de que su
solucin no era la correcta y en su libro dejaba claro que era buena para impartir justicia
y equilibrio a un reparto, pero no era exacta desde el punto de vista matemtico.
Adems de estos tres nombres importantes, entre los precursores de la probabilidad
destac tambin un hombre mucho ms conocido en otros campos de las matemticas y
la fsica como fue Galileo Galilei, que durante su vida tambin resolvi problemas
sobre dados, hasta tal punto que escribi un libro llamado Sobre la puntuacin en
tiradas de dados. Sin embargo, la mayor aportacin de Galileo a los inicios de la
probabilidad fue la invencin de su teora de la medida de errores. Clasific los errores
en dos tipos: sistemticos y aleatorios, clasificacin que se mantiene an en la
actualidad y estableci cuidadosamente las propiedades de los errores aleatorios. Con
esto contribuy sin saberlo a la creacin de ramas fundamentales de la estadstica y la
probabilidad posterior.

2.NACIMIENTO Y EVOLUCIN DE LA TEORIA


DE LA PROBABILIDAD
El problema del Caballero de Mer: Nacimiento de la probabilidad
Cierto da del ao 1654, Blaise Pascal (1623 - 1662) matemtico francs, haca un
viaje en compaa de un jugador ms o menos profesional conocido como el caballero
de Mer, quien era una persona apasionada por todo lo relacionado con el juego de los
dados y las cartas, siendo adems un hombre noble e ilustrado.
Este caballero crea que haba encontrado una "falsedad" en los nmeros al analizar
el juego de los dados, observando que el comportamiento de los dados era diferente
cuando se utilizaba un dado que cuando se empleaban dos dados. La "falsedad" parta
simplemente de una comparacin errnea entre las probabilidades de sacar un seis con
un solo dado o de sacar un seis con dos dados. Para el caballero deba existir una
relacin proporcional entre el nmero de jugadas necesarias para conseguir el efecto
deseado en uno y otro caso. El problema estaba en que el citado caballero no tuvo en
cuenta que en el segundo caso estaba analizando una probabilidad compuesta en donde
las distintas probabilidades se deben calcular multiplicativamente.
Este y otros problemas planteados por el caballero a Pascal sobre cuestiones
relacionadas con diferentes juegos de azar, dieron origen a una correspondencia entre el
propio Pascal y algunos de sus amigos matemticos, sobre todo con Pierre de Fermat
(1601-1665) de Toulouse, abogado de profesin, pero gran amante de las matemticas.
Esta correspondencia constituye el origen de la teoria moderna de la probabilidad.
En una carta de Pascal a Fermat, en la que narraba la ancdota anteriormente
mencionada, conclua que "el caballero de Mer tiene mucho talento, pero no es
gemetra; sto es, como sabis un gran defecto" (carta del 29 de julio de 1654).
Otro de los problemas famosos planteados por el caballero a Pascal fue resuelto por
ste y Fermat tras el carteo de manera independiente, llegando ambos a la misma
solucin : En una partida de dados intervienen dos jugadores y apuestan 32 doblones de
oro cada uno, eligiendo un nmero diferente, gana el juego el primero que obtenga tres
veces el nmero que eligi. Despus de un rato de juego, el nmero elegido por el
primer apostador ha salido dos veces mientras el otro jugador slo una vez ha acertado,
en este instante la partida debe suspenderse. Cmo dividir los 64 doblones de oro
apostados? en qu proporcin ha de ser compensado cada jugador?.
En la correspondencia que sigui a este problema, tanto Pascal como Fermat
estuvieron de acuerdo en que el primer jugador tiene derecho a 48 doblones de oro.
Veamos tambin el ltimo de los problemas histricos ( al ser su solucin parte del
inicio de la probabilidad actual) que propuso Mer y resolvieron Pascal y Fermat:
El juego consista en lanzar 24 veces un par de dados y el problema era decidir si es lo
mismo apostar a favor o en contra de la aparicin de por lo menos un seis doble.
Solucin:
A= {No sacar un seis doble en una tirada de dos dados} , P(A)=35/36
P(A y A y A24 veces.y A)= (35 / 36) 24
Este nmero vale 0508596121 y por tanto la probabilidad del suceso
contrario ser 1- P(A y A.24 vecesy A)= 1- 0508596121 = 0491
5

Luego es ms probable obtener una vez un seis doble en 24 tiradas que


obtenerlo al menos una vez. En cambio para 25 tiradas cambian las cosas
pues 1- (35 / 36) 25 = 0505
Pascal y Fermat resolvieron este problema y otros muchos y fueron los que
empezaron a formalizar la teora de las probabilidades, probando el desacuerdo con el
caballero de Mer, este se deba a que era errneo el clculo que haba efectuado, ya que
se equivoc en considerar equiprobables sucesos que no lo eran, y slo cuando
los casos posibles son equiprobables tiene sentido aplicar la definicin dada por Mer
de probabilidad. Sin embargo, Pascal err al intentar extender algunos de los resultados
de los problemas del caballero al caso en el que hubiera tres o ms jugadores.
Ni Pascal ni Fermat expusieron sus resultados por escrito y fue el fsico-matemtico
holands Christian Huygens (1629-1695) quien en 1657 public un breve tratado
titulado De Ratiocinnis in ludo aleae (sobre los razonamientos relativos a los juegos
de dados) inspirado en la correspondencia sostenida entre los dos creadores de la teora
de la probabilidad. Adems Huygens extendi algunos resultados de Pascal y aclar
varios problemas para tres o ms jugadores.
En 1665, Pascal publicaba Tratado sobre el tringulo aritmtico, la ms importante
contribucin realizada hasta la fecha en el mbito de la combinatoria. El libro se basa en
la construccin y propiedades combinatorias del posteriormente llamado tringulo de
Pascal, que es de la siguiente forma:
Fila /Columna 0
0
1
2
3
4
5
6
7
8

1
1
1
1
1
1
1
1
1

1
2
3
4
5
6
7
8

1
3
6
10
15
21
28

1
4 1
10 5 1
20 15 6 1
35 35 21 7
56 70 56 28

1
8

Con esta construccin Pascal demostr que el valor de la k-sima entrada de la


n
n-sima columna era el nmero combinatorio y enunci algunas propiedades
k
importantes del tringulo como que cada elemento es la suma de todos los elementos de
la columna anterior hasta la fila anterior o como que la suma de todos los elementos de
la fila n-sima es 2 n .
Las aportaciones de Pascal se extienden a muchos campos como el de la filosofa e
incluso al de la teologa, intentando argumentar la existencia de Dios en trminos
probabilsticas y gananciales ( probabilsticamente es mejor creer que no creer, es decir,
es mejor actuar como si existiera, por si acaso existe).

Primeras definiciones y teoremas bsicos:


El primero en dar la definicin clsica de probabilidad fue Jacob Bernoulli (1654
1705), matemtico suizo que trabaj en la universidad de Basilea en 1687, en su
obraArs conjectandi (El arte de la conjetura) que fue publicada algunos aos despus
de la muerte del autor. En esta obra encontramos entre otras cosas la importante
proposicin conocida como el Teorema de Bernoulli mediante el cual la teora de la
probabilidad fue elevada por primera vez del nivel elemental de conjunto de soluciones
de problemas particulares a un resultado de importancia general. Bernoulli siempre
detac la importancia de que los fenmenos aleatorios dejaran de enfocarse como casos
particulares y se intentara ver los conceptos generales que habas detrs de ellos, slo
as se avanzara y profundizara en el entendimiento de esta materia.
Ms adelante, el matemtico francs exiliado en Inglaterra Abraham De Moivre
(16671754) acept la definicin dada por Bernoulli y la reformul en trminos ms
modernos para la poca: una fraccin en la que el numerador es igual al nmero de
apariciones del suceso y el denominador es igual al nmero total de casos en los que es
suceso pueda o no pueda ocurrir. Tal fraccin expresa la probabilidad de que ocurra el
suceso.
La definicin clsica de la probabilidad, en su forma actual, est basada en el
concepto de equiprobabilidad de los resultados, basado a su vez en la simetra. Se
supone que un experimento se puede descomponer en n sucesos equiprobables y
mutuamente excluyentes B1 ,., Bn llamados sucesos bsicos o elementales. As, la
probabilidad de suceso A es el nmero del intervalo [0,1] que expresa el cociente entre
los m sucesos elementales que componen A y el nmero total n de posibles sucesos
elementales. La traba fundamental que encuentra esta interpretacin de la probabilidad
es la dificultad de descomponer un suceso en sucesos elementales equiprobables; lo que
es fcil para problemas sencillos ( cartas, dados, etc), pero es de gran dificultad en
problemas ms complicados.
Adems otro de los descubrimientos importantes de Bernoulli fue el saber obtener la
probabilidad de ocurrencia de un suceso sin necesidad de contar los casos favorables
(bien por omisin de datos o bien por la imposibilidad de contarlos). Para ello invent la
probabilidad a posteriori, es decir: mediante la observacin mltiple de los resultados
de pruebas similares De esta manera, introdujo el concepto de probabilidad
estadstica: asignar como probabilidad de un suceso el resultado que se obtendra si el
proceso se repitiera en condiciones similares un nmero grande de veces. Sin embargo,
estas condiciones no eran muy concretas y con ellas no se poda dar lugar a una
definicin seria y rigurosa de todos los conceptos q manejaba Bernoulli. En primer
lugar, se habla de un nmero grande de veces, pero no se da ninguna indicacin sobre
cul es ese nmero o lo suficientemente grande que debe ser, no se especifica tampoco
que significa condiciones similares y tampoco se establece cul es el error admitido
respecto al resultado terico.
Precisamente, fueron la necesidad de precisar con exactitud qu se entiende por un
nmero grande de repeticiones y de calcular el error del resultado obtenido respecto
del resultado terico, lo que llevaron a Jacob Bernoulli a idear, en su forma ms
intuitiva y bsica, la Ley de los Grandes Nmeros.

A continuacin expondremos los tres teoremas ms importantes de la probabilidad


clsica. Estos teoremas los idearon Bernoulli (Teorema de la suma, formalizado por
Bayes) , De Moivre (Teorema de la multiplicacin) y Bayes (Teorema de la
probabilidad condicionada), aunque todos los conceptos que se manejan en estos
teoremas aparecen ya de forma implcita y muy frecuente en los diferentes trabajos de
Pascal, Fermat y Huygens.
-Teorema de la Suma:
Pascal dio a entender implcitamente que saba cmo calcular los casos favorables
de un suceso A si conoca los casos favorables de unos Aj disjuntos cuya unin es A (es
decir, si los Aj son una particin de A). Jacob Bernoulli tambin fue consciente de ello,
y fue ms lejos al darse cuenta de que la probabilidad de la unin no es la suma de las
probabilidades si los sucesos no son disjuntos, aunque no supo dar la razn.
No fue ninguno de ellos quien formul finalmente el teorema de la suma de la
probabilidades, sino el reverendo ingls Thomas Bayes (17021761), cuyo trabajo fue
ledo pstumamente, en 1763. En esta obra, Bayes da la primera definicin rigurosa y
explcita de sucesos disjuntos y enunci la frmula ahora conocida:
P(A B) = P (A) + P(B) P(AB)
-Teorema de la Multiplicacin:
Al igual que el teorema anterior, el teorema de la multiplicacin de probabilidades
era conocido por casi todos los matemticos anteriores a travs de resultados
particulares. No obstante, fue Abraham De Moivre el primero que lo enunci
rigurosamente. De Moivre fue un hugonote francs que debido a su religin se ausent
de Francia y vivi como refugiado en Inglaterra. All public su obra The doctrine of
chances (Doctrina de las Probabilidades) en 1711. De Moivre present el importante
concepto de independencia de sucesos aleatorios; as, escribi: Diremos que dos
sucesos son independientes, si el primero de ellos no tiene ninguna relacin con el otro
y procedi a definir los sucesos dependientes: Dos sucesos son dependientes si estn
ligados el uno al otro y la probabilidad de ocurrencia de uno de ellos influye en la
probabilidad de ocurrencia del otro. Una vez hecho esto, De Moivre lo aplic al
clculo de probabilidades: la probabilidad de ocurrencia de dos sucesos dependientes
es igual a la probabilidad de ocurrencia de uno de ellos dividida por la probabilidad de
que el otro ocurra si el primero ya ha ocurrido. Esta regla puede generalizarse para
varios sucesos . El caso de varios sucesos lo describa as: Se necesita elegir uno de
ellos como el primero, otro como el segundo, y as. Luego, la ocurrencia del primero
debe considerarse independiente de todas las dems; el segundo debe considerarse con
la condicin de que el primero ha ocurrido: el tercero con la condicin de que tanto el
primero como el segundo han ocurrido, y as. De aqu, la probabilidad de las
ocurrencias de todos los sucesos es igual al producto de todas las probabilidades Esto
es:
P( A1 A2 ..... An ) = P( A1 ) P( A2 | A1 ).P( An | A1 .... An 1 )
La obra de De Moivre cont con tres ediciones, lo que da una idea del gran inters
que despert esta materia en aquella poca. En las dos ltimas ediciones de la obra el
autor tambin da las primeras indicaciones acerca de la distribucin normal de las
8

probabilidades, que ms tarde desarrollara un papel sumamente importante en el


desarrollo la teora de la probabilidad.
-Teorema de Bayes:
El trabajo de De Moivre fue seguido y difundido en la mayora de los crculos
cientficos importantes de Europa y fue el britnico Thomas Bayes, probablemente
alumno de De Moivre en Londres, quien extendi el trabajo del francs y expres la
probabilidad condicional en funcin de la probabilidad de la interseccin:
P(A/B)= [P(B/A) P(A)] / P(B)
Adems, el teorema que lleva su nombre no es slo suyo, ya que Bayes no estaba
en condiciones de formular con probabilidades totales. Fue PierreSimon Laplace
(17491827) quien mejor y desarroll la mayor parte del teorema de Bayes en su
Thorie analytique des probabilits (Experiencia en la Filosofa de la Teora de la
Probabilidad) en 1812.
Sea A un suceso que ocurre en conjuncin con uno y slo uno de los n sucesos
disjuntos B1 .....Bn . Si se sabe que el suceso A ha ocurrido, cul es la probabilidad de
que el suceso B j tambin? Laplace respondi de la siguiente manera: La probabilidad
de existencia de una de esas causas es igual a una fraccin con un numerador igual a la
probabilidad del suceso que se sigue de esta causa y un denominador que es la suma de
las probabilidades relativas a todas las posibles causas. Si estas diferentes causas a
priori no son equiprobables, entonces en lugar de tomar la probabilidad del suceso que
sigue a cada causa, se toma el producto de esta probabilidad por tantas veces la
probabilidad de la causa. Esta frmula se escribe en notacin ms actual de la siguiente
manera:

P( Bi | A ) =

P( Bi ) P( A | Bi )

P( A | B ) P( B )
i =1

Aparte de esta revisin importantsima del teorema de Bayes, Laplace incluye en su


obra una exposicin sistemtica muy completa de la teora matemtica de los juegos de
azar con aplicaciones a una gran variedad de cuestiones cientficas y prcticas. En su
libro citado anteriormente dedica una extensa introduccin escrita para los lectores no
matemticos a explicar sus puntos de vista generales sobre todas las cuestiones y
apreciaciones de los resultados alcanzados con la ayuda de la teora de la probabilidad.
El estudio de esta introduccin es muy famoso y se recomienda a todos los interesados
en la historia de la ciencia.

La ley de los Grandes Nmeros:

Jacob Bernoulli descubri que las frecuencias observadas se acercaban al verdadero


valor previo de su probabilidad al hacer crecer el nmero de repeticiones del
experimento. Pero l quera encontrar una prueba cientfica que no slo probara que al
aumentar el nmero de observaciones de la muestra se poda estimar la probabilidad
autntica con el grado de precisin deseado en cada ocasin, sino que permitiera
calcular explcitamente cuntas observaciones eran necesarias para garantizar esa
precisin de que el resultado queda dentro de un intervalo predeterminado alrededor de
la verdadera solucin.
El experimento que consiste repetir una prueba con la misma probabilidad de xito
un nmero grande de veces recibi el nombre de experimento de Bernoulli y, ms
adelante, tras la creacin del concepto de variable aleatoria, la variable que contabiliza
el nmero de xitos en N pruebas se llam Bernoulli o binomial.
Bernoulli era consciente de que, en situaciones reales y cotidianas, la certeza
absoluta, es decir, la probabilidad 1, es imposible de alcanzar. Por eso introdujo la idea
de la certeza moral: para que un resultado fuese moralmente cierto, deba tener una
probabilidad no menor que 0.999, mientras que un resultado con probabilidad no mayor
que 0.001 se considerara moralmente imposible. Fue para determinar la certeza
moral de un suceso para lo que Bernoulli formul su teorema, la ley de los Grandes
Nmeros.
Para tener una idea intuitiva de este concepto, Bernoulli propuso el siguiente
ejemplo: una urna con 30.000 bolas blancas y 20.000 negras, aunque el observador no
lo sabe, pues lo que quiere es determinar la proporcin entre bolas blancas y negras,
sacando una de cada vez, anotando el resultado (xito si es blanca y fracaso si es negra)
y volvindola a introducir en la urna. Sea N el nmero de observaciones, X el nmero
de xitos y p = r/(r+s) la probabilidad de xito en cada prueba, siendo r el nmero de
bolas blancas y s el de bolas negras. El teorema de Bernoulli afirma que dada cualquier
pequea fraccin (que su descubridor siempre escriba en la forma 1/(r+s)) y dado
cualquier nmero entero positivo grande c, se puede hallar un nmero N = N(c) tal que
la probabilidad de que X/N difiera de p no ms de es mayor que c veces la
probabilidad de que X/N difiera de p ms de . Veamos todo esto con notacin
matemtica:

X
X
P p > c P p >

N
N

O en notacin ms actual:

X
1
> 0 c Z + N tal que P p > <
c + 1
N

10

Bernoulli tom como ejemplo para aclarar este problema c=1.000 y obtuvo como
resultado que eran necesarias 25.550 observaciones. La intuicin le deca que no hacan
falta tantas y, por ello, lo intent con otros valores de c. Desilusionado por sentir que
haba fracasado en su intento de cuantificar la certeza moral, Bernoulli no incluy en su
libro las aplicaciones prometidas.
El que s lo hizo fue su sobrino Niklaus Bernoulli(16871759), que aplic el
resultado de su to a registros de 14.000 nacimientos y lleg a la inesperada conclusin
de que la frecuencia de nacimientos de nios es mayor que la de nias, en la proporcin
de 18:17. Los resultados tanto de Bernoulli como de su sobrino fueron confirmados
aos despus por Laplace.
De esta manera, gracias a Bernoulli, se introdujo en la teora de la probabilidad la
ley de los Grandes Nmeros, uno de los conceptos ms importantes en calculo de
probabilidades, muestreos, etc y con amplias aplicaciones en muchos campos de la
estadstica y de las matemticas y la ciencia en general. Esta ley adems ser objeto de
conversaciones entre matemticos en los siglos venideros, estando sujeta a constantes
estudios, mejoras y ampliaciones hasta prcticamente nuestros das.

El Teorema central del Lmite:

A raz del descubrimiento de la Ley de los Grandes Nmeros, se plante el


problema de estimar la suma de un subconjunto de elementos de una expresin de
carcter binomial. La dificultad era calcular una probabilidad que Bernoulli ya haba
dejado indicada y demostrada y era la probabilidad de que el nmero de xitos de un
suceso de probabilidad p y n pruebas estuviera entre A y B.
m
Segn Bernoulli esta probabilidad era: p k (1 p ) m k y la dificultad que
A< k < B k
m
m!
entraaba esta operacin era el clculo del nmero combinatorio =
k k!(m k )!
Jacob consigui realizar ciertas estimaciones de dudosa precisin, pero que al no
manejar nmeros muy grandes fueron suficientes para demostrar sus teoremas.
Posteriormente, De Moivre intent ser algo ms preciso y demostr que para B
m! B e

m+

1
2

. Con el fin de determinar el valor de esa constante,


1
1
1
1
construy la siguiente expresin logartmica: ln B= 1 +

+
......
12 360 1260 1680
y concluy segn sus clculos que B era igual a 25074. Este resultado pareca
convincente, pero De Moivre no qued satisfecho al no poder vincularlo con ninguna
constante matemtica conocida. Por ese motivo pidi consejo y ayuda a su buen amigo
James Stirling (1692-1770) quien demostr que B= 2 .
Tras la obtencin de este importante dato, De Moivre calcul una tabla m! y obtuvo
un resultado que dice lo siguente:
constante

2
n
n

P X = + t P X = e ( 2t / n ) =
2
2

11

2
2n

e ( 2t

/ n)

De Moivre dibuj la grfica de esta curva, introduciendo el importantsimo concepto


de distribucin normal y demostr que esta curva es simtrica en torno al mximo y
1
que los puntos de inflexin estn a distancia n de este mximo. Por tanto , aqu
2
est el Teorema Central del Lmite que se conoce como el hecho de que el promedio de
una muestra aleatoria independiente convenientemente normalizada sea
aproximadamente normal.
Ahora De Moivre ya estaba en condiciones de resolver el problema planteado por
Bernoulli en la Ley de los Grandes Nmeros:

P X = 2 + t =

2
2n

( 2t
e

/ n)

dt

Para finalizar, De Moivre encontr que n era la unidad cuya distancia del centro
debe ser medida. As, la precisin de una estimacin de la probabilidad aumenta igual
que la raz cuadrada del nmero de experimentos; en otras palabras, De Moivre acababa
de descubrir la importancia de la varianza.
De Moivre repiti el experimento de Bernoulli y obtuvo que bastaban 6.498
observaciones. Aunque mejor el mtodo, no lleg a reconocer la importancia del
decubrimiento de la curva de la normal y no pudo aplicar su resultado a otros
problemas.

Problemas importantes de la historia:

La ruina del jugador:

El problema consiste en lo siguiente: los jugadores A y B tienen a y b monedas,


respectivamente. Despus de cada juego, el ganador le quita una moneda al perdedor.
La probabilidad de ganar de A es p la de B es q = 1p. Cul es la probabilidad p A de
que el jugador A arruine totalmente al jugador B?
Primeramente digamos que este problema de la ruina del jugador tuvo un papel
importantsimo en el desarrollo de la teora de la probabilidad, pues era bastante
complejo para la poca y exigi la creacin de nuevos mtodos para su resolucin;
Adems fue el inicio de toda la matemtica relativa a los procesos estocsticos y parte
de la teora de la decisin y los juegos.
Este problema fue propuesto por primera vez por Huygens en uno de sus libros, y lo
acompa de una solucin que aos despus Bernoulli critic argumentando que
restringa la posibilidad de encontrar una regla general para el resolver el problema.
Otros matemticos como De Moivre, Laplace o Nicols Bernoulli tambin
trabajaron en este problema, demostrando que eran capaces de trabajar con operaciones
y sucesos probabilsticas muy avanzados para la poca y que conocan la aplicacin de
multitud de teoremas incluso antes de ser formulados formalmente.
Los primeros que dieron solucin a este problema fueron De Moivre y Nicols
Bernoulli, prcticamente a la vez, entorno a 1710, y de manera independiente.
12

De Moivre hall la siguiente solucin:

p
1
q
p A = a +b
q
1
p

p
1
q
p B = a +b
p
1
q

Nicols Bernoulli incluy adems el nmero esperado ( utilizando el concepto de


esperanza) de pruebas o juegos necesarios para que un jugador sea arruinado por el otro.
E(N ) =

b p A a pB
pq

La paradoja de San Petersburgo:

Se propone un juego de azar en el que pagas una apuesta inicial fija. Consiste en el
lanzamiento de una moneda repetidamente hasta que aparece la primera cara. Una vez
aparece, ganas una moneda si la cara aparece en el primer lanzamiento, dos monedas si
aparece en el segundo, 4 monedas si aparece en el tercero, 8 en el cuarto, etc., doblando
el premio en cada lanzamiento adicional. As, ganaras 2k1 monedas en k lanzamientos.
Cunto estaras dispuesto a pagar para jugar a este juego?
La probabilidad de que la primera cara aparezca en el lanzamiento k es de:

La probabilidad de que ganes ms de 210 monedas es menor que una entre mil. La
probabilidad de que ganes ms de 1 es menor que una entre cien. A pesar de ello el
valor esperado del premio es infinito!
Para calcularlo:

Esta suma diverge a infinito. As, de acuerdo a la teora tradicional del valor
esperado, no importa cuanto pagues por entrar en el juego, porque saldrs ganando a
largo plazo (imagina pagar 1 billn cada vez, para ganar la mayor parte de las veces
slo un par de monedas). Su idea consiste en que las raras ocasiones en las que ganes

13

una cantidad elevada pagarn con creces los cientos de trillones que habrs tenido que
pagar para jugar.
Este juego fue propuesto en 1713 por Nicols Bernoulli y se conoce con este
nombre porque San Petersburgo fue la ciudad donde Nicols y si hermano Daniel
discutieron sobre este problema. De esta forma se puso de manifiesto que la opcin
aparentemente ms razonable no siempre es la ms correcta desde el punto de vista
matemtico.

14

3.LA TEORA MODERNA DE LA PROBABILIDAD


La teora de la probabilidad en el siglo XIX:

A partir, fundamentalmente, de Laplace las dos disciplinas ms importantes dentro


de la teora de la probabilidad, que eran el clculo de probabilidades y la estadstica se
fusionaron de manera que el clculo de probabilidades se convirti en el andamiaje
matemtico de la estadstica. Toda la base matemtica que permiti desarrollar la teora
de probabilidades est extrada del anlisis combinatorio, una disciplina iniciada por
Leibniz y Jacob Bernoulli. Posteriormente con el paso del tiempo fue introduciendo la
teora de lmites disminuyendo el peso que tena el anlisis combinatorio.
Esta fue slo la primera de las modernizaciones que sufrira la probabilidad el el
siglo XIX. Otra de las ms importantes fue la que llev a cabo el matemtico alemn
Karl Friedrich Gauss (1777-1855), que desarroll la teora de errores conjuntamente
con Bessel y Laplace, llegando a establecer el mtodo de mnimos cuadrados como el
procedimiento ms elemental para resolver los problemas de la teora de errores. Gauss
y Laplace, independientemente aplicaron conceptos probabilsticos al anlisis de los
errores de medida de las observaciones fsicas y astronmicas. De hecho, cientficos
consagrados de la poca como Maxwell, Boltzmann y Gibbs aplicaron la probabilidad
en su obra "Mecnica Estadstica". La teora de los errores constituye la primera rama
de la estadstica que puede constituirse como una estructuracin terico-matemtica.
Resaltemos ahora uno de los resultados importantes en teora de errores de Gauss
(tambin hallado de manera independiente por A.Legendre(1752-1833)) que
demostraba que, bajo ciertas condiciones generales, la funcin de densidad de los
errores de medida tiene la forma:

() =

2 2

e h

Otras contribuciones importantes a la teora de errores fueron las de Simeon Denis


Poisson (1781-1840) que descubri que la media aritmtica no es siempre mejor que
una nica observacin, A.Cauchy(1789-1857) y ms tarde de matemticos rusos como
P.Chebyshev(1821-1894).
Al margen de la teora, el francs Poisson aport otras cosas destacadas a la teora
de la probabilidad, como la distribucin que lleva su nombre y que es aplicable a
fenmenos poco comunes y extraos. En 1837 publica su trabajo En 1837 publica su
trabajo en Recherches sur la Probabilit des Jugements. Poisson originalmente estudi
Medicina, en 1789 se dedic al campo matemtico en la Escuela Politcnica. Fue muy
amigo de Laplace y de Lagrange. Public alrededor de 400 artculos en matemtica y
estadstica. Pese al xito de las aplicaciones se oyeron voces de inconformidad a la
definicin clsica de probabilidades, que exiga "a priori" saber que todos los eventos
eran igualmente posibles. Adems, en ciertos casos era imposible aplicar la definicin
clsica de la probabilidad. Pese a los avances de Poisson, esto no se resolvera hasta el
siglo XX.

15

Sin embargo lo que s hizo Poisson, fue introducir de alguna manera el concepto de
variable aleatoria, no como lo entendemos actualmente, sino esbozando sus primeros
pasos como un conjunto de b1 , b2 ,..., bn cada uno con su probabilidad p1 , p 2 ,...., p n .
Posteriormente, Chebyshev asumi que esos conjuntos de los que hablaba Poisson eran
independientes e introdujo el trmino variable aleatoria que an tiene validez en la
actualidad y fue A.Liapunov (1857-1918) quien especific que estas variables no seran
siempre independientes y que esa dependencia estaba sujeta a ciertas condiciones.
Adems Liapunov dio una definicin de distribucin casi exacta a la actual:
P (a < < b ) = F (b ) F ( a )
Perfeccionamiento de la Ley de los Grandes Nmeros y el TCL:

La ley de los Grandes Nmeros propuesta aos atrs por Jacob Bernoulli fue
generalizada por primera vez en 1837 por Poisson, que adems la bautiz con este
nombre. El francs consider el siguiente experimento: Sea una sucesin de n pruebas
independientes, en cada una de las cuales un suceso B puede ocurrir con probabilidad
p k con k = 1,,n. Si n es el nmero de ocasiones en las que sucede B en n pruebas,

p + p 2 + .... + p n
P n 1
< n
0

n
Posteriormente, en 1843 Chebyshev critic el teorema de Poisson y enunci su
propia versin. No obstante, era muy similar a sta y ninguna de las dos superaban
cualitativamente la idea original de Jacob Bernoulli. No fue hasta 1867, poca en la que
Chebyshev empez a trabajar con variables aleatorias, cuando se produjo ese avance en
las investigaciones.
Ya en 1909, mile Borel (1871-1956) se dio cuenta de que el trabajo de Bernoulli
llevaba a una afirmacin ms importante que simplemente la ley de los Grandes
Nmeros para p = 05 y el matemtico italiano Francesco Cantelli (1875-1966)
descubri lo que se denomina ley Fuerte de los Grandes Nmeros aadiendo el hecho


de que para cualquier valor de p: P L n = p = 1 . A lo largo del siglo XX otros
n n

matemticos como Kolmogorov y Khinchine trabajaron tambin aportando detalles y


generalizaciones de este problema.
entonces tenemos que:

> 0

Hablemos ahora del perfeccionamiento del Teorema Central del Lmite. Los
esfuerzos realizados por lograr una generalizacin del teorema planteado por De Moivre
fueron arduos y complicados y, aunque Laplace ya aport estudios nuevos alrededor de
1809, matemticos de renombre como Poisson o Bessel intentaron dar sus propias
versiones de un teorema local del lmite y erraron.
No sera hasta el ao 1887, cuando Chebyshev demostr un teorema acerca de la
acotacin de la suma de una variable aleatoria con esperanza 0. Para demostrar esto,
invent el Mtodo de los momentos, pieza fundamental de la teora estadstica actual.
A.Markov (1856-1922), discpulo de Chebyshev, se dio cuenta posteriormente de
algunos errores de su maestro y revis la frmula. Esta es la versin del teorema de
Chebyshev que revis Markov en 1898:

16

Sea S n la sucesin de las sumas c1 + c 2 + .... + c n y n (x) la funcin de distribucin

de cn . Si k se cumple que x k d n ( x)

Sn
< b
P a <
Var ( S n )

1
2

e x

/2

1
2

x k e x

/2

dx , entonces a, b

dx .

En 1900, Liapunov sigui perfeccionando el teorema y demostr que si las variables


aleatorias tenan momento de orden tres finito, las funciones de distribucin de S n
convergan a una distribucin normal. Adems esta demostracin no necesitaba el
Mtodo de momentos ideado por Chebyshev para ser resuelta.
El matemtico finlands Lindeberg fue ms all que Liapunov en 1922, al no pedir
la existencia de ningn momento salvo el de orden dos. Asi vio que la distribucin de
una suma de variables aleatorias, centradas en sus esperanzas y normadas por la raz
cuadrada de la suma de sus varianzas converge a una distribucin normal estndar si se
1
( x a k ) 2 dF ( x) = 0 . Ms tarde en 1942, William
cumple t > 0 L
x

a
>
B

k
n
n x B 1 k n
Feller se dio cuenta de que la condicin de Lindeberg era necesaria adems de
suficiente, resultado al que tambin lleg de manera independiente Paul Levy
(1886-1971).

Escuelas del siglo XX :

Durante la ltima parte del siglo XIX y ya sobre todo en el siglo XX, tuvo lugar la
creacin de diferentes escuelas y tendencias dedicadas al estudio de la matemtica en el
campo de la peora de la probabilidad en particular. Las ms importantes fueron:
-La escuela rusa:
Los matemticos rusos dominaron todas las reas relativas al clculo de
probabilidades y a la estadstica durante la segunda mitad del siglo XIX y ya en el siglo
XX formaron una escuela dirigida principalmente por Andrei N.Kolmogorov (19031987) y Khinchine. Los precursores de esta escuela de conocimiento fueron
Chebyshev, Markov y Liapunov entre otros, pero fue Kolmogorov el mximo
exponente de este movimiento.
Kolmogorov naci en Tambor. Su madre muri en el parto y su padre era un
cualificado agrnomo y estadstico. Realiz su primer trabajo evaluando los
estudios sobre probabilidades efectuados entre los siglos XV y XVI, apoyndose en los
trabajos de Bayes. En 1924 comenz su inters en la teora de la probabilidad, la cual lo
consagr. En 1927 haba completado sus investigaciones sobre suficiencia y
condiciones necesarias de la ley dbil de los grandes nmeros, comenzada por J.
Bernoulli. En 1930 se hace eco de la ley Fuerte de los Grandes Nmeros de Cantelli, y
trabaja para mejorarla y generalizarla. El ao anterior haba publicado "La Teora
General de la Medida y el Clculo de Probabilidades". En 1950 complet uno de los
trabajos ms importantes en Estadstica "Estimadores Insesgados". Kolmogorov dio
solucin a una parte del sexto problema de Hilbert, en el que se peda un fundamento
17

axiomtico de la teora de probabilidades, utilizando la medida de Lebesgue. Este fue el


comienzo del aporte ms importante que Kolmogorov hizo a la teora del clculo de
probabilidades, o al menos por el que ms se le conoce y del que hablaremos
posteriormente: la axiomatizacin de la probabilidad.
-La escuela estadounidense:
Los principales exponentes de la escuela estadounidense especializada en la rama de
la probabilidad son Feller y Doob, aunque el iniciador de este movimiento fue Nortber
Wiener (1894-1964) quien desarroll una medida de las probabilidades para conjuntos
de trayectorias que no son diferenciables en ningn punto, asociando una probabilidad a
cada conjunto de trayectorias. Construy as una probabilidad que permita describir el
fenmeno en trminos matemticos en lo que se refera a la trayectoria y posicin de las
partculas a travs del tiempo. Aport ejemplos de cmo aplicar el estudio de las
probabilidades al desarrollo y progresos de la ciencia.
Por otra parte William Feller se hizo conocido por sus numerosos estudios acerca
del Teorema Central del Limite y por su impecable demostracin de que la condicin de
Lindeberg era necesaria adems de suficiente.
-La escuela francesa:
Esta escuela se form con Meyer y su grupo de Estrasburgo y tambin con Nevev y
Fortret de Pars, aunque sin duda resalta por encima de todos la figura de Paul Levy.
Los estudios ms importantes referidos a este movimiento se llevaron a cabo en la
universidad de Pars, en la que por ejemplo un grupo de matemticos encabezados por
Laurent Schuwartz generalizaron el concepto de diferenciacin utilizando la teora de
distribuciones.Esta aportacin fue de vital importancia, ya que en la actualidad no es
posible dar explicaciones rigurosas de probabilidad sin utilizar estos conceptos. La
innovacin y mtodos de la escuela francesa influy de manera decisiva en las dos
escuelas anteriores.

Kolmogorov y la axiomatizacin de la probabilidad:

Alrededor de 1909, Borel ya consider la importancia de la teora general de la


medida para la construccin de ciertos pilares y fundamentos de la teora de la
probabilidad, pero no fue hasta el ao 1933 cuando Kolmogorov se propuso construir
una teora de la probabilidad totalmente rigurosa basada en axiomas fundamentales.
La construccin axiomtica de la teora de la probabilidad procede de las
propiedades fundamentales de la probabilidad observadas en los ejemplos que ilustran
las definiciones clsica y frecuentista. As, la definicin axiomtica las incluye como
casos particulares y supera las carencias de ambas.
De esta manera, la probabilidad pudo desarrollarse como un teora completamente
lgica al mismo tiempo que sigui permitiendo resolver los problemas aplicados de la
ciencias modernas y la tecnologa.
La definicin axiomtica da una equivalencia entre los conceptos de la teora de la
medida y los de la teora de la probabilidad. Se toma un conjunto de medida 1, ,
cuyos elementos son sucesos elementales y se considera una lgebra A, un
subconjunto de que satisface que incluye a y a , que es cerrado por

18

complementacin y por uniones numerables. Luego se define una funcin P que asigna
a un suceso un nmero entre 0 y 1 (su medida). As, la terna (, A, P) se convierte en
un espacio de probabilidades. No obstante, la teora de la probabilidad y la de la medida
permanecen perfectamente diferenciadas, ya que la segunda carece de algo necesario en
la primera; la independencia de variables aleatorias.
Los axiomas de Kolmogorov que definen la probabilidad son los siguientes:
1. Para cada suceso aleatorio B hay asociado un nmero nonegativo P(B) que se llama
su probabilidad.
2. P()=1
3. Si los sucesos B1 , B2 ,...., Bn son mutuamente excluyentes dos a dos, entonces,
P ( B1 + B2 + .... + Bn ) = P( B1 ) + P( B2 ) + .... + P ( Bn )
Del hecho de que = y el axioma 3 se deduce que P() = P() P() ,
y de esto se deduce la siguiente serie de resultados destacados:
P() = 0
B , P( B c )= 1 P(B)
B, 0 P(B) 1

B C P(B) P(C)
P ( B C ) = P ( B ) + P (C ) P ( B C )
n

P( B1 .... Bn ) P( B j )
j =1

Vemos que de los tres axiomas fundamentales de Kolmogorov se deducen la


mayora de las propiedades fundamentales de la probabilidad que conocemos y
manejamos hoy en da. Adems estos axiomas tienen la ventaja de que son consistentes,
ya que existen objetos reales que los satisfacen y, por lo tanto, concretan la matemtica
en el nuestra vida.

19

TRATAMIENTO Y
COMENTARIO DE
UN
TEXTO ORIGINAL

20

LA PROBABILIDAD EN LAPLACE
1. Introduccin:

El texto comentado a continuacin


es un fragmento de la obra Essai
philosophique sur les probabilits del
matemtico Pierre Simon Laplace
(1749-1827).
Este francs fue conocido por su
curiosidad universal que le llev a
indagar en casi todas las reas del
conocimiento, logrando sus ms
exitosos resultados tanto en mecnica
celeste como en la teora de las
probabilidades, de la que trata este
ensayo.
Gracias a sus trabajos, la teora
anterior sobre los juegos de azar se
convirti en la rama del anlisis
conocido con el nombre de clculo o
teora de las probabilidades, que
incorpor a su dominio temas
pertenecientes a diferentes campos
como astronoma, demografa y
filosofa.
Este libro es el desarrollo de unas
clases dadas en 1795 en las Escuelas
Normales de Pars y se propone situar
al alcance de los no matemticos los principios y resultados generales de la teora de la
probabilidad.
En la imagen podemos observar la portada original del libro del que, a continuacin
pasaremos a comentar algunos fragmentos.

2. Metodologa

La parte seleccionada corresponde a la introduccin del libro, en la que Laplace


presenta los principios y fundamentos de la probabilidad y el cmo y el por qu se
interesa por esta rama de las matemticas.
El texto original se sita en la columna de la izquierda y la traduccin simultnea a
la derecha para facilitar la lectura. Antes de cada fragmento e intercaladamente se irn
haciendo comentarios acerca del contenido y el trasfondo del texto.

21

3. Traduccin y comentario del texto seleccionado

-Justificacin de la Laplace sobre por qu escribe el Essai philosophique sur les


probabilits:
En este primer fragmento, Pierre Simon Laplace realiza una breve explicacin de
cmo se le ocurri la idea de hacer un ensayo para hablar acerca de la probabilidad.
Explica que ha publicado otra obra ( Theorie analytique des Probabilits) en la que
expone un amplio curso de probabilidad, pero que en este libro no se servir de
resultados matemticos sino que intentar acercarnos la probabilidad aplicndola a los
problemas de la vida.
Laplace muestra, sorprendentemente y desde el principio, una concepcin
probabilstica del entendimiento frente a su ya conocido determinismo, que quedar
totalmente plasmada en los prximos prrafos.

Este Ensayo filosfico del desarrollo de


una leccin que di en 1795 sobre las
probabilidades en las Escuelas Normales,
de las que fui designado profesor y que
apareci en el Journal de las sesiones de
dichas escuelas. Poco despus he publicado
sobre este mismo tema una obra que lleva
por titulo Thorie analytique des
Probabilits. Lo que aqu voy a hacer es
exponer, sin el auxilio del anlisis, los
principios y resultados generales de esta
teora, aplicndolos a los problemas ms
importantes de la vida, la mayor parte de
los cuales no son sino problemas de
probabilidad. Se ver, no sin inters, que
aun cuando los principios eternos de la
razn, la justicia y la humanidad, slo se
consideren las probabilidades favorables
que constantemente les acompaan, tiene
una gran ventaja el seguirlos y graves
inconvenientes en apartarse de ellos por la
razn de que dichas probabilidades, lo
mismo que las que resultan agraciadas en
las loteras, acaban siempre por prevalecer
en medio de las oscilaciones del azar. Me
gustara que las reflexiones diseminadas por
este Ensayo fuesen merecedoras de la
atencin de los filsofos y lograran dirigirla
hacia un objeto tan digno de sus desvelos.

22

- Determinismo e inters por la probabilidad en Laplace:

Entre estas lneas se encuentra quizs una de las ms clebres frases de Laplace:
Una inteligencia que, en un momento determinado, conociera todas la fuerzas que
animan la naturaleza, as como la situacin respectiva de los seres que la componen, si
adems fuera lo suficientemente amplia como para someter a anlisis tales datos, podra
abarcar en una sola frmula los movimientos de los cuerpos ms grandes del universo y
los del tomo ms ligero; nada le resultara incierto y tanto el futuro como el pasado
estaran presentes a sus ojos.
Este bellsimo pasaje muestra el claro carcter determinista de Laplace, que
extrapola a todos los fenmenos naturales el determinismo de la mecnica clsica. Por
tanto la pregunta que nos hacemos es: cmo un cientfico de la poca ilustrada con
marcadas tendencias deterministas se interesa por una rama tan antideterminista y
aleatoria como la probabilidad? La respuesta podemos encontrarla justo a continuacin,
en el siguiente prrafo:
El espritu humano ofrece, en la perfeccin que ha sabido dar a la astronoma, un
dbil esbozo de esta inteligencia. Sus descubrimientos en mecnica y geometra le han
puesto en condiciones de abarcar en las mismas expresiones analticas los estados
pasados y futuros del sistema del mundoTodos los esfuerzos por buscar la verdad
tienden a aproximarlo continuamente a la inteligencia que acabamos de imaginar, pero
de la que siempre permanecer infinitamente alejado.
He aqu, por tanto, la razn que lleva a Laplace a interesarse tan profundamente por
la probabilidad. Y es que l, al lado de una firme concepcin determinista acerca de la
naturaleza humana, conocida por todos los que le rodeaban y por nosotros en la
actualidad, mantuvo la conviccin de que la posibilidad del hombre de alcanzar la
certeza absoluta est completamente cerrada, y que lo ms que puede aspirar a alcanzar
es el conocimiento meramente probable. Este firme pensamiento es el que le lleva a
emprender sus estudios sobre probabilidad.

23

De la Probabilidad
Todos los acontecimientos, incluso aquellos
que por su insignificancia parecen no
atenerse a las grandes leyes de la
naturaleza, no son sino una secuencia tan
necesaria como las revoluciones del sol. Al
ignorar los lazos que los unen al sistema
total del universo, se los ha hecho depender
de causas finales o del azar, segn que
ocurrieran o se sucedieran con regularidad
o sin orden aparente, pero estas causas
imaginarias han ido siendo descartadas a
medida que se han ido ampliando las
fronteras de nuestro conocimiento, y
desaparecen por completo ante la sana
filosofa que no ve en ellas ms que una
expresin de nuestra ignorancia de las
verdaderas causas.
Los acontecimientos actuales mantienen
con los que les preceden una relacin
basada en el principio evidente de que una
cosa no puede comenzar a existir sin una
causa que la produzca. Este axioma,
conocido con el nombre de principio de
razn suficiente, se extiende incluso a las
acciones ms indiferentes. La voluntad ms
libre no puede producirlas sin un motivo
determinante, pues si, siendo absolutamente
iguales todas las circunstancias de dos
situaciones, actuara en una y dejara de
hacerlo en la otra, su eleccin sera un
efecto sin causa y ella sera entonces, como
dice Leibniz, el azar ciego de los epicreos.
La opinin contraria es una ilusin del
espritu que, perdiendo de vista las fugaces
razones de la eleccin de la voluntad en las
cosas indiferentes, se persuade de que ella
se ha determinado por s misma, y sin estar
motivada por nada.
As pues, hemos de considerar el estado
actual del universo como el efecto de su
estado anterior y como la causa del que ha
de seguirle. Una inteligencia que, en un
momento determinado, conociera todas la
fuerzas que animan la naturaleza, as como
la situacin respectiva de los seres que la
componen,
si
adems
fuera
lo
suficientemente amplia como para someter
a anlisis tales datos, podra abarcar en una
sola frmula los movimientos de los
cuerpos ms grandes del universo y los del
tomo ms ligero; nada le resultara incierto
y tanto el futuro como el pasado estaran
presentes a sus ojos. El espritu humano
ofrece, en la perfeccin que ha sabido dar a

24

la astronoma, un dbil esbozo de esta


inteligencia. Sus descubrimientos en
mecnica y geometra le han puesto en
condiciones de abarcar en las mismas
expresiones analticas los estados pasados y
futuros del sistema del mundo. Aplicando el
mismo mtodo a algunos otros objetos de
su conocimiento, ha logrado reducir a leyes
generales los fenmenos observados y a
prever aquellos otros que deben producirse
en ciertas circunstancias. Todos los
esfuerzos por buscar la verdad tienden a
aproximarlo continuamente a la inteligencia
que acabamos de imaginar, pero de la que
siempre permanecer infinitamente alejado.
Esta tendencia, propia de la especie
humana, es la que la hace superior a los
animales, y sus progresos en este mbito, lo
que distingue a las naciones y los siglos y
cimenta su verdadera gloria.

- Definicin de probabilidad:
En el siguiente fragmento del texto es donde tenemos una clara formulacin de la
definicin de probabilidad:
La teora del azar consiste en () determinar el nmero de casos favorables al
acontecimiento cuya probabilidad de busca. La proporcin entre este nmero y el de
todos los casos posibles es la medida de esta probabilidad, que no es, pues, ms que una
fraccin cuyo numerador es el nmero de casos favorables y cuyo denominador el de
todos los posibles
Esta definicin ha sido fundamental para el desarrollo de la probabilidad durante
ms de dos siglos, hasta que en la primera mitad del siglo XX, Kolmogorov extendi el
concepto introduciendo la probabilidad axiomtica.
La vigencia de este y otros conceptos formulados por Laplace dan una idea de la
universalidad de los estudios realizados por el francs y su importancia a lo largo de la
historia.

25

La probabilidad es relativa en parte a


esta ignorancia y en parte a nuestros
conocimientos. Sabemos que de tres o ms
acontecimientos slo debe ocurrir uno, pero
nada induce a creer que ocurrir uno de
ellos ms bien que los otros. En este estado
de indecisin nos resulta imposible
pronunciarnos con certeza sobre su
acaecimiento. Sin embargo, es probable que
uno de estos acontecimientos, tomado
arbitrariamente, no acaezca, pues vemos
varios casos iguales de posibles que
excluyen su acaecimiento, mientras que
slo uno lo favorece.
La teora del azar consiste en reducir
todos los acontecimientos del mismo tipo a
un cierto nmero de casos igualmente
posibles, es decir, tales que estemos igual
de indecisos respecto a su existencia, y en
determinar el nmero de casos favorables al
acontecimiento cuya probabilidad se busca.
La proporcin entre este nmero y el de
todos los casos posibles es la medida de
esta probabilidad, que no es, pues, ms que
una fraccin cuyo numerador es el nmero
de casos favorables y cuyo denominador el
de todos los posibles.

- Crtica a la astrologa y elogio a las ideas ilustradas:


Por ltimo, en estos prrafos Laplace critica la manera de pensar de la poca, sus
fuentes de conocimiento y la educacin. Pone el ejemplo de la astrologa, contra la que
a lo largo de toda su vida arremete duramente, y critica que tanto sta como otras
enseanzas son inculcadas desde la infancia en base nicamente a creencias universales
arraigadas entre la poblacin y sin ningn fundamento cientfico. Tambin cree que con
la llegada de las nuevas ideas ilustradas eso va a cambiar y comenta que la tarea de
educar al pueblo debe reservarse a gente instruida, imparcial y crtica con la realidad
que les rodea.
Una vez aclarado este punto pasa a enumerar los principios generales del clculo de
probabilidades, ya conocidos por todos nosotros.

La propagacin de estos errores que, en


tiempos de ignorancia, han cubierto la faz
de la tierra, se debe a la influencia de la
opinin de aquellos que la muchedumbre
considera ms preparados y en quienes
suele depositar su confianza en lo que se
refiere a los asuntos ms importantes de la
vida. La astrologa nos ofrece un buen
ejemplo. Estos errores, inculcados en la
infancia, adoptados sin examen y sin otra
base que la creencia universal, se han
mantenido durante mucho tiempo, hasta
que por fin el progreso de las ciencias los
ha erradicado del espritu de los hombres
ilustrados, cuya opinin los ha hecho
desaparecer despus del pueblo mismo
gracias al poder de la imitacin y de la
costumbre que con tanta generosidad los
haba difundido. Este poder, el resorte ms
potente del mundo moral, establece y
preserva en toda una nacin ideas
enteramente contrarias a las que, con igual
dominio, mantiene en otro sitio. Qu
tolerancia no habr que tener hacia las
opiniones distintas de las nuestras, cuando
esta diferencia no depende generalmente de
otra cosa que los diferentes puntos de vista
en que las circunstancias nos han colocado!
Enseemos a los que no consideramos
suficientemente instruidos, pero no sin
antes examinar rigurosamente nuestras
propias opiniones y sopesar con
imparcialidad
sus
probabilidades
respectivas.

27

BIBLIOGRAFA
HISTORIA DE LA PROBABILIDAD:
LIBROS:

-De Groot, Morris H., Probabilidad y estadstica, Addison-Wesley Iberoam. 1988


-Cooke, Roger, The History of Mathematics.A brief course. John Wiley & Sons,1997
-Cramer, Elementos de la Teora de probabilidades y algunas de sus aplicaciones
(traduccin de Anselmo Calleja), Aguilar 1960
-Todhunter, Isaac, History of the theory of probability, Chelsea, 1965
-Gnedenko, Boris, Theory of probability. Gordon & Breach science publications,1997
-Gillispie, Dictionary of scientific biography, Charles Scribner's Sons, 1981

INTERNET:

- http://www-groups.dcs.st-and.ac.uk/-history/ (McTutor history of mathematics)


- http://www.arrakis.es/~mcj/prb019.htm (Solucin del problema del c.de Mer)
- http://www.sectormatematica.cl/biografias.htm (Breves apuntes biogrficos)
- http://kogi.udea.edu.co/revista/16/16-111.pdf#search=%22historia%20de%20la%20probabilidad%22
(Ponencia breve acerca de la probabilidad)
- http://www.monografias.com/trabajos/renacim/renacim.shtml ( texto sobre el
renacimiento, usado para conocer la poca y contexto histrico)

TRATAMIENTO DE TEXTO ORIGINAL:


-Laplace, Pierre-Simon, Ensayo filosfico sobre las probabilidades, traduccin de
Pilar Castillo, Alianza editorial, 1985
- http://www.google.es/books?hl=es (Bsqueda de libros de google)
http://www.google.es/books?vid=OCLC01450686&id=kquzFVmtQ04C&pg=PA1&lpg
=PA1&dq=essai+laplace#PPP3,M1 (direccin exacta del libro)

29

30

31

32

También podría gustarte