Está en la página 1de 32

HISTORIA DE LA PROBABILIDAD

NDICE GENERAL:
1.CONTEXTO HISTRICO Y PRECURSORES. 3
Pacioli, Cardano y Tartaglia.. 3

2.NACIMIENTO Y EVOLUCIN DE LA TEORA DE LA PROBABILIDAD....5


El problema del caballero de Mer. Nacimiento de la probabilidad..5 Primeras definiciones y teoremas bsicos7 La ley de los Grandes Nmeros10 El Teorema Central del Lmite.....11 Problemas importantes de la historia..12

3.LA TEORA MODERNA DE LA PROBABILIDAD15


La probabilidad en el siglo XIX15 Perfeccionamiento de la ley de los Grandes Nmeros y el TCL...16 Escuelas del siglo XX17 Kolmogorov y la axiomatizacin de la probabilidad.....18

TRATAMIENTO Y COMENTARIO DE TEXTO ORIGINAL.20

BIBLIOGRAFA.....28

1.CONTEXTO HISTRICO Y PRECURSORES


La Edad media termina histricamente en el ao1453 con la cada de Constantinopla por parte de los otomanes, dando paso a la etapa conocida como Renacimiento, la cual se destac por la actividad mercantil, industrial, artstica, arquitectnica, intelectual y cientfica, entre otras. En esta poca surge una nueva relacin del hombre con la naturaleza, que va unida a una concepcin ideal y realista de la ciencia. La matemtica se va a convertir en la principal ayuda de un arte y una sociedad que se preocupan incesantemente en fundamentar racionalmente su ideal de belleza. A partir de esta etapa con el avance en las matemticas y la filosofa, se empieza a dar una explicacin coherente a muchos fenmenos que no seguan un patrn determinstico, sino aleatorio. Es el caso de todos los fenmenos relativos a la probabilidad de los sucesos, concretados en este tiempo fundamentalmente en los juegos de azar. En este periodo del Renacimiento es cuando empiezan a surgir de manera ms seria inquietudes entorno a contabilizar el nmero de posibles resultados de un dado lanzado varias veces, o problemas ms prcticos sobre cmo repartir las ganancias de los jugadores cuando el juego se interrumpe antes de finalizar. Como vemos estas inquietudes surgan ms como intentos de resolver problemas cotidianos con el fin de ser justos en las apuestas y repartos o incluso de conocer las respuestas para obtener ventajas y en consecuencia mayores ganancias respecto a otros jugadores y mucho menos de inquietudes matemticas verdaderas. De hecho la idea de modelizar el azar mediante las matemticas an no estaba plenamente presente en los intelectuales de la poca. Pacioli, Cardano y Tartaglia: Uno de los primeros problemas dedicados a contabilizar el nmero de posibles resultados al lanzar un dado varias veces podemos encontrarlo an en la Edad Media, en el poema De Vetula de Richard de Fournival (1200-1250) donde afirma correctamente que si se lanzan tres dados hay 216 combinaciones posibles y calcula acertadamente los diferentes valores para la suma de los tres dados. Aunque ahora puede parecer una cuestin trivial, en aquella poca no lo era, y otros autores se equivocaron al intentar resolverla, generalmente porque no tenan en cuenta las posibles permutaciones de una misma combinacin. Pero el problema ms importante relativo a los juegos de azar era el conocido como problema del reparto de apuestas que distribua las ganancias entre jugadores cuando la partida se interrumpa antes de finalizar. Este problema fue abordado por Luca Pacioli (1445-1517) quien en 1487 propuso estos dos problemas particulares: un juego en el que el premio es de 22 ducados que consiste en alcanzar 60 puntos se interrumpe cuando un equipo lleva 50 puntos y el otro 30; y tres arqueros que compiten por un premio de 6 ducados lanzan flechas hasta que uno de ellos haga 6 dianas, siendo interrumpidos cuando el primero de ellos lleva 4 dianas, el segundo 3 y el tercero 2. Cmo deben repartirse los premios entre los contendientes? Pacioli propuso que el premio debera ser repartido en funcin de las victorias obtenidas anteriormente: as, el premio del primer problema se divida en 605/8 ducados para el primer equipo y en

603/8 para el segundo; para el problema de los arqueros, el premio se divida en la proporcin 4/9, 3/9 y 2/9. Como ms tarde se pondra de manifiesto, esta solucin obtenida por Pacioli es incorrecta. Fue Girolamo Cardano (1501-1576) quien escribi la primera obra importante relacionada con el clculo de probabilidades en los juegos de azar. Fue en 1565 y se llamaba Libro de los juegos de azar. Adems Cardano se haba ocupado anteriormente del problema del reparto de apuestas y en 1539 lleg a la conclusin de que la solucin de Pacioli era incorrecta porque al considerar tan slo el nmero de juegos ganados por cada equipo, no contaba cuntos juegos deban ganar para hacerse con el premio. Cardano propuso como solucin del problema que si n es el nmero de juegos totales y a y b los juegos ganados por cada equipo, el premio deba repartirse de la siguiente manera: [1+2++(n-b)]: [1+2+(n-a)]. Esta solucin es, en general, incorrecta y slo da resultados vlidos en casos particulares. Niccolo Tartaglia (14991557), tambin intent resolver este problema y en 1556 public un libro en el que descartaba la solucin dada por Pacioli y daba su propio solucin: si un equipo ha ganado a puntos y el otro b, se juega a n puntos y el premio total es P, las ganancias deberan repartirse de la forma: (P/2)P[(a-b)/n] siendo la cantidad mayor para el equipo que tenga ms victorias. Sin embargo, Tartaglia fue consciente de que su solucin no era la correcta y en su libro dejaba claro que era buena para impartir justicia y equilibrio a un reparto, pero no era exacta desde el punto de vista matemtico. Adems de estos tres nombres importantes, entre los precursores de la probabilidad destac tambin un hombre mucho ms conocido en otros campos de las matemticas y la fsica como fue Galileo Galilei, que durante su vida tambin resolvi problemas sobre dados, hasta tal punto que escribi un libro llamado Sobre la puntuacin en tiradas de dados. Sin embargo, la mayor aportacin de Galileo a los inicios de la probabilidad fue la invencin de su teora de la medida de errores. Clasific los errores en dos tipos: sistemticos y aleatorios, clasificacin que se mantiene an en la actualidad y estableci cuidadosamente las propiedades de los errores aleatorios. Con esto contribuy sin saberlo a la creacin de ramas fundamentales de la estadstica y la probabilidad posterior.

2.NACIMIENTO Y EVOLUCIN DE LA TEORIA DE LA PROBABILIDAD


El problema del Caballero de Mer: Nacimiento de la probabilidad Cierto da del ao 1654, Blaise Pascal (1623 - 1662) matemtico francs, haca un viaje en compaa de un jugador ms o menos profesional conocido como el caballero de Mer, quien era una persona apasionada por todo lo relacionado con el juego de los dados y las cartas, siendo adems un hombre noble e ilustrado. Este caballero crea que haba encontrado una "falsedad" en los nmeros al analizar el juego de los dados, observando que el comportamiento de los dados era diferente cuando se utilizaba un dado que cuando se empleaban dos dados. La "falsedad" parta simplemente de una comparacin errnea entre las probabilidades de sacar un seis con un solo dado o de sacar un seis con dos dados. Para el caballero deba existir una relacin proporcional entre el nmero de jugadas necesarias para conseguir el efecto deseado en uno y otro caso. El problema estaba en que el citado caballero no tuvo en cuenta que en el segundo caso estaba analizando una probabilidad compuesta en donde las distintas probabilidades se deben calcular multiplicativamente. Este y otros problemas planteados por el caballero a Pascal sobre cuestiones relacionadas con diferentes juegos de azar, dieron origen a una correspondencia entre el propio Pascal y algunos de sus amigos matemticos, sobre todo con Pierre de Fermat (1601-1665) de Toulouse, abogado de profesin, pero gran amante de las matemticas. Esta correspondencia constituye el origen de la teoria moderna de la probabilidad. En una carta de Pascal a Fermat, en la que narraba la ancdota anteriormente mencionada, conclua que "el caballero de Mer tiene mucho talento, pero no es gemetra; sto es, como sabis un gran defecto" (carta del 29 de julio de 1654). Otro de los problemas famosos planteados por el caballero a Pascal fue resuelto por ste y Fermat tras el carteo de manera independiente, llegando ambos a la misma solucin : En una partida de dados intervienen dos jugadores y apuestan 32 doblones de oro cada uno, eligiendo un nmero diferente, gana el juego el primero que obtenga tres veces el nmero que eligi. Despus de un rato de juego, el nmero elegido por el primer apostador ha salido dos veces mientras el otro jugador slo una vez ha acertado, en este instante la partida debe suspenderse. Cmo dividir los 64 doblones de oro apostados? en qu proporcin ha de ser compensado cada jugador?. En la correspondencia que sigui a este problema, tanto Pascal como Fermat estuvieron de acuerdo en que el primer jugador tiene derecho a 48 doblones de oro. Veamos tambin el ltimo de los problemas histricos ( al ser su solucin parte del inicio de la probabilidad actual) que propuso Mer y resolvieron Pascal y Fermat: El juego consista en lanzar 24 veces un par de dados y el problema era decidir si es lo mismo apostar a favor o en contra de la aparicin de por lo menos un seis doble. Solucin: A= {No sacar un seis doble en una tirada de dos dados} , P(A)=35/36 P(A y A y A24 veces.y A)= (35 / 36) 24 Este nmero vale 0508596121 y por tanto la probabilidad del suceso contrario ser 1- P(A y A.24 vecesy A)= 1- 0508596121 = 0491 5

Luego es ms probable obtener una vez un seis doble en 24 tiradas que obtenerlo al menos una vez. En cambio para 25 tiradas cambian las cosas pues 1- (35 / 36) 25 = 0505 Pascal y Fermat resolvieron este problema y otros muchos y fueron los que empezaron a formalizar la teora de las probabilidades, probando el desacuerdo con el caballero de Mer, este se deba a que era errneo el clculo que haba efectuado, ya que se equivoc en considerar equiprobables sucesos que no lo eran, y slo cuando los casos posibles son equiprobables tiene sentido aplicar la definicin dada por Mer de probabilidad. Sin embargo, Pascal err al intentar extender algunos de los resultados de los problemas del caballero al caso en el que hubiera tres o ms jugadores. Ni Pascal ni Fermat expusieron sus resultados por escrito y fue el fsico-matemtico holands Christian Huygens (1629-1695) quien en 1657 public un breve tratado titulado De Ratiocinnis in ludo aleae (sobre los razonamientos relativos a los juegos de dados) inspirado en la correspondencia sostenida entre los dos creadores de la teora de la probabilidad. Adems Huygens extendi algunos resultados de Pascal y aclar varios problemas para tres o ms jugadores. En 1665, Pascal publicaba Tratado sobre el tringulo aritmtico, la ms importante contribucin realizada hasta la fecha en el mbito de la combinatoria. El libro se basa en la construccin y propiedades combinatorias del posteriormente llamado tringulo de Pascal, que es de la siguiente forma: Fila /Columna 0 0 1 2 3 4 5 6 7 8 1 1 1 1 1 1 1 1 1 1 1 2 3 4 5 6 7 8 2 3 4 5 6 7 8

1 3 6 10 15 21 28

1 4 1 10 5 1 20 15 6 1 35 35 21 7 56 70 56 28

1 8

Con esta construccin Pascal demostr que el valor de la k-sima entrada de la n n-sima columna era el nmero combinatorio k y enunci algunas propiedades importantes del tringulo como que cada elemento es la suma de todos los elementos de la columna anterior hasta la fila anterior o como que la suma de todos los elementos de la fila n-sima es 2 n . Las aportaciones de Pascal se extienden a muchos campos como el de la filosofa e incluso al de la teologa, intentando argumentar la existencia de Dios en trminos probabilsticas y gananciales ( probabilsticamente es mejor creer que no creer, es decir, es mejor actuar como si existiera, por si acaso existe).

Primeras definiciones y teoremas bsicos: El primero en dar la definicin clsica de probabilidad fue Jacob Bernoulli (1654 1705), matemtico suizo que trabaj en la universidad de Basilea en 1687, en su obraArs conjectandi (El arte de la conjetura) que fue publicada algunos aos despus de la muerte del autor. En esta obra encontramos entre otras cosas la importante proposicin conocida como el Teorema de Bernoulli mediante el cual la teora de la probabilidad fue elevada por primera vez del nivel elemental de conjunto de soluciones de problemas particulares a un resultado de importancia general. Bernoulli siempre detac la importancia de que los fenmenos aleatorios dejaran de enfocarse como casos particulares y se intentara ver los conceptos generales que habas detrs de ellos, slo as se avanzara y profundizara en el entendimiento de esta materia. Ms adelante, el matemtico francs exiliado en Inglaterra Abraham De Moivre (16671754) acept la definicin dada por Bernoulli y la reformul en trminos ms modernos para la poca: una fraccin en la que el numerador es igual al nmero de apariciones del suceso y el denominador es igual al nmero total de casos en los que es suceso pueda o no pueda ocurrir. Tal fraccin expresa la probabilidad de que ocurra el suceso. La definicin clsica de la probabilidad, en su forma actual, est basada en el concepto de equiprobabilidad de los resultados, basado a su vez en la simetra. Se supone que un experimento se puede descomponer en n sucesos equiprobables y mutuamente excluyentes B1 ,., Bn llamados sucesos bsicos o elementales. As, la probabilidad de suceso A es el nmero del intervalo [0,1] que expresa el cociente entre los m sucesos elementales que componen A y el nmero total n de posibles sucesos elementales. La traba fundamental que encuentra esta interpretacin de la probabilidad es la dificultad de descomponer un suceso en sucesos elementales equiprobables; lo que es fcil para problemas sencillos ( cartas, dados, etc), pero es de gran dificultad en problemas ms complicados. Adems otro de los descubrimientos importantes de Bernoulli fue el saber obtener la probabilidad de ocurrencia de un suceso sin necesidad de contar los casos favorables (bien por omisin de datos o bien por la imposibilidad de contarlos). Para ello invent la probabilidad a posteriori, es decir: mediante la observacin mltiple de los resultados de pruebas similares De esta manera, introdujo el concepto de probabilidad estadstica: asignar como probabilidad de un suceso el resultado que se obtendra si el proceso se repitiera en condiciones similares un nmero grande de veces. Sin embargo, estas condiciones no eran muy concretas y con ellas no se poda dar lugar a una definicin seria y rigurosa de todos los conceptos q manejaba Bernoulli. En primer lugar, se habla de un nmero grande de veces, pero no se da ninguna indicacin sobre cul es ese nmero o lo suficientemente grande que debe ser, no se especifica tampoco que significa condiciones similares y tampoco se establece cul es el error admitido respecto al resultado terico. Precisamente, fueron la necesidad de precisar con exactitud qu se entiende por un nmero grande de repeticiones y de calcular el error del resultado obtenido respecto del resultado terico, lo que llevaron a Jacob Bernoulli a idear, en su forma ms intuitiva y bsica, la Ley de los Grandes Nmeros.

A continuacin expondremos los tres teoremas ms importantes de la probabilidad clsica. Estos teoremas los idearon Bernoulli (Teorema de la suma, formalizado por Bayes) , De Moivre (Teorema de la multiplicacin) y Bayes (Teorema de la probabilidad condicionada), aunque todos los conceptos que se manejan en estos teoremas aparecen ya de forma implcita y muy frecuente en los diferentes trabajos de Pascal, Fermat y Huygens. -Teorema de la Suma: Pascal dio a entender implcitamente que saba cmo calcular los casos favorables de un suceso A si conoca los casos favorables de unos Aj disjuntos cuya unin es A (es decir, si los Aj son una particin de A). Jacob Bernoulli tambin fue consciente de ello, y fue ms lejos al darse cuenta de que la probabilidad de la unin no es la suma de las probabilidades si los sucesos no son disjuntos, aunque no supo dar la razn. No fue ninguno de ellos quien formul finalmente el teorema de la suma de la probabilidades, sino el reverendo ingls Thomas Bayes (17021761), cuyo trabajo fue ledo pstumamente, en 1763. En esta obra, Bayes da la primera definicin rigurosa y explcita de sucesos disjuntos y enunci la frmula ahora conocida: P(A B) = P (A) + P(B) P(AB) -Teorema de la Multiplicacin: Al igual que el teorema anterior, el teorema de la multiplicacin de probabilidades era conocido por casi todos los matemticos anteriores a travs de resultados particulares. No obstante, fue Abraham De Moivre el primero que lo enunci rigurosamente. De Moivre fue un hugonote francs que debido a su religin se ausent de Francia y vivi como refugiado en Inglaterra. All public su obra The doctrine of chances (Doctrina de las Probabilidades) en 1711. De Moivre present el importante concepto de independencia de sucesos aleatorios; as, escribi: Diremos que dos sucesos son independientes, si el primero de ellos no tiene ninguna relacin con el otro y procedi a definir los sucesos dependientes: Dos sucesos son dependientes si estn ligados el uno al otro y la probabilidad de ocurrencia de uno de ellos influye en la probabilidad de ocurrencia del otro. Una vez hecho esto, De Moivre lo aplic al clculo de probabilidades: la probabilidad de ocurrencia de dos sucesos dependientes es igual a la probabilidad de ocurrencia de uno de ellos dividida por la probabilidad de que el otro ocurra si el primero ya ha ocurrido. Esta regla puede generalizarse para varios sucesos . El caso de varios sucesos lo describa as: Se necesita elegir uno de ellos como el primero, otro como el segundo, y as. Luego, la ocurrencia del primero debe considerarse independiente de todas las dems; el segundo debe considerarse con la condicin de que el primero ha ocurrido: el tercero con la condicin de que tanto el primero como el segundo han ocurrido, y as. De aqu, la probabilidad de las ocurrencias de todos los sucesos es igual al producto de todas las probabilidades Esto es: P( A1 A2 ..... An ) = P( A1 ) P( A2 | A1 ).P( An | A1 .... An 1 ) La obra de De Moivre cont con tres ediciones, lo que da una idea del gran inters que despert esta materia en aquella poca. En las dos ltimas ediciones de la obra el autor tambin da las primeras indicaciones acerca de la distribucin normal de las 8

probabilidades, que ms tarde desarrollara un papel sumamente importante en el desarrollo la teora de la probabilidad. -Teorema de Bayes: El trabajo de De Moivre fue seguido y difundido en la mayora de los crculos cientficos importantes de Europa y fue el britnico Thomas Bayes, probablemente alumno de De Moivre en Londres, quien extendi el trabajo del francs y expres la probabilidad condicional en funcin de la probabilidad de la interseccin: P(A/B)= [P(B/A) P(A)] / P(B) Adems, el teorema que lleva su nombre no es slo suyo, ya que Bayes no estaba en condiciones de formular con probabilidades totales. Fue PierreSimon Laplace (17491827) quien mejor y desarroll la mayor parte del teorema de Bayes en su Thorie analytique des probabilits (Experiencia en la Filosofa de la Teora de la Probabilidad) en 1812. Sea A un suceso que ocurre en conjuncin con uno y slo uno de los n sucesos disjuntos B1 .....Bn . Si se sabe que el suceso A ha ocurrido, cul es la probabilidad de que el suceso B j tambin? Laplace respondi de la siguiente manera: La probabilidad de existencia de una de esas causas es igual a una fraccin con un numerador igual a la probabilidad del suceso que se sigue de esta causa y un denominador que es la suma de las probabilidades relativas a todas las posibles causas. Si estas diferentes causas a priori no son equiprobables, entonces en lugar de tomar la probabilidad del suceso que sigue a cada causa, se toma el producto de esta probabilidad por tantas veces la probabilidad de la causa. Esta frmula se escribe en notacin ms actual de la siguiente manera:

P( Bi | A ) =

P( Bi ) P( A | Bi )

P( A | B ) P( B )
i =1 i i

Aparte de esta revisin importantsima del teorema de Bayes, Laplace incluye en su obra una exposicin sistemtica muy completa de la teora matemtica de los juegos de azar con aplicaciones a una gran variedad de cuestiones cientficas y prcticas. En su libro citado anteriormente dedica una extensa introduccin escrita para los lectores no matemticos a explicar sus puntos de vista generales sobre todas las cuestiones y apreciaciones de los resultados alcanzados con la ayuda de la teora de la probabilidad. El estudio de esta introduccin es muy famoso y se recomienda a todos los interesados en la historia de la ciencia.

La ley de los Grandes Nmeros:

Jacob Bernoulli descubri que las frecuencias observadas se acercaban al verdadero valor previo de su probabilidad al hacer crecer el nmero de repeticiones del experimento. Pero l quera encontrar una prueba cientfica que no slo probara que al aumentar el nmero de observaciones de la muestra se poda estimar la probabilidad autntica con el grado de precisin deseado en cada ocasin, sino que permitiera calcular explcitamente cuntas observaciones eran necesarias para garantizar esa precisin de que el resultado queda dentro de un intervalo predeterminado alrededor de la verdadera solucin. El experimento que consiste repetir una prueba con la misma probabilidad de xito un nmero grande de veces recibi el nombre de experimento de Bernoulli y, ms adelante, tras la creacin del concepto de variable aleatoria, la variable que contabiliza el nmero de xitos en N pruebas se llam Bernoulli o binomial. Bernoulli era consciente de que, en situaciones reales y cotidianas, la certeza absoluta, es decir, la probabilidad 1, es imposible de alcanzar. Por eso introdujo la idea de la certeza moral: para que un resultado fuese moralmente cierto, deba tener una probabilidad no menor que 0.999, mientras que un resultado con probabilidad no mayor que 0.001 se considerara moralmente imposible. Fue para determinar la certeza moral de un suceso para lo que Bernoulli formul su teorema, la ley de los Grandes Nmeros. Para tener una idea intuitiva de este concepto, Bernoulli propuso el siguiente ejemplo: una urna con 30.000 bolas blancas y 20.000 negras, aunque el observador no lo sabe, pues lo que quiere es determinar la proporcin entre bolas blancas y negras, sacando una de cada vez, anotando el resultado (xito si es blanca y fracaso si es negra) y volvindola a introducir en la urna. Sea N el nmero de observaciones, X el nmero de xitos y p = r/(r+s) la probabilidad de xito en cada prueba, siendo r el nmero de bolas blancas y s el de bolas negras. El teorema de Bernoulli afirma que dada cualquier pequea fraccin (que su descubridor siempre escriba en la forma 1/(r+s)) y dado cualquier nmero entero positivo grande c, se puede hallar un nmero N = N(c) tal que la probabilidad de que X/N difiera de p no ms de es mayor que c veces la probabilidad de que X/N difiera de p ms de . Veamos todo esto con notacin matemtica:

X X P p > c P p > N N

O en notacin ms actual:

X 1 > 0 c Z + N tal que P p > < N c +1

10

Bernoulli tom como ejemplo para aclarar este problema c=1.000 y obtuvo como resultado que eran necesarias 25.550 observaciones. La intuicin le deca que no hacan falta tantas y, por ello, lo intent con otros valores de c. Desilusionado por sentir que haba fracasado en su intento de cuantificar la certeza moral, Bernoulli no incluy en su libro las aplicaciones prometidas. El que s lo hizo fue su sobrino Niklaus Bernoulli(16871759), que aplic el resultado de su to a registros de 14.000 nacimientos y lleg a la inesperada conclusin de que la frecuencia de nacimientos de nios es mayor que la de nias, en la proporcin de 18:17. Los resultados tanto de Bernoulli como de su sobrino fueron confirmados aos despus por Laplace. De esta manera, gracias a Bernoulli, se introdujo en la teora de la probabilidad la ley de los Grandes Nmeros, uno de los conceptos ms importantes en calculo de probabilidades, muestreos, etc y con amplias aplicaciones en muchos campos de la estadstica y de las matemticas y la ciencia en general. Esta ley adems ser objeto de conversaciones entre matemticos en los siglos venideros, estando sujeta a constantes estudios, mejoras y ampliaciones hasta prcticamente nuestros das.

El Teorema central del Lmite:

A raz del descubrimiento de la Ley de los Grandes Nmeros, se plante el problema de estimar la suma de un subconjunto de elementos de una expresin de carcter binomial. La dificultad era calcular una probabilidad que Bernoulli ya haba dejado indicada y demostrada y era la probabilidad de que el nmero de xitos de un suceso de probabilidad p y n pruebas estuviera entre A y B. m k mk Segn Bernoulli esta probabilidad era: y la dificultad que k p (1 p ) A< k < B m m! entraaba esta operacin era el clculo del nmero combinatorio k = k!(m k )! Jacob consigui realizar ciertas estimaciones de dudosa precisin, pero que al no manejar nmeros muy grandes fueron suficientes para demostrar sus teoremas. Posteriormente, De Moivre intent ser algo ms preciso y demostr que para B . Con el fin de determinar el valor de esa constante, 1 1 1 1 construy la siguiente expresin logartmica: ln B= 1 + + ...... 12 360 1260 1680 y concluy segn sus clculos que B era igual a 25074. Este resultado pareca convincente, pero De Moivre no qued satisfecho al no poder vincularlo con ninguna constante matemtica conocida. Por ese motivo pidi consejo y ayuda a su buen amigo James Stirling (1692-1770) quien demostr que B= 2 . Tras la obtencin de este importante dato, De Moivre calcul una tabla m! y obtuvo un resultado que dice lo siguente: constante
2 n n P X = + t P X = e ( 2t / n ) = 2 2

m! B e

m+

1 2

2 2n

e ( 2t

/ n)

11

De Moivre dibuj la grfica de esta curva, introduciendo el importantsimo concepto de distribucin normal y demostr que esta curva es simtrica en torno al mximo y 1 que los puntos de inflexin estn a distancia n de este mximo. Por tanto , aqu 2 est el Teorema Central del Lmite que se conoce como el hecho de que el promedio de una muestra aleatoria independiente convenientemente normalizada sea aproximadamente normal. Ahora De Moivre ya estaba en condiciones de resolver el problema planteado por Bernoulli en la Ley de los Grandes Nmeros:

n X = + t = P 2

2 2n

( 2t e 0

/ n)

dt

Para finalizar, De Moivre encontr que n era la unidad cuya distancia del centro debe ser medida. As, la precisin de una estimacin de la probabilidad aumenta igual que la raz cuadrada del nmero de experimentos; en otras palabras, De Moivre acababa de descubrir la importancia de la varianza. De Moivre repiti el experimento de Bernoulli y obtuvo que bastaban 6.498 observaciones. Aunque mejor el mtodo, no lleg a reconocer la importancia del decubrimiento de la curva de la normal y no pudo aplicar su resultado a otros problemas.

Problemas importantes de la historia:

La ruina del jugador:

El problema consiste en lo siguiente: los jugadores A y B tienen a y b monedas, respectivamente. Despus de cada juego, el ganador le quita una moneda al perdedor. La probabilidad de ganar de A es p la de B es q = 1p. Cul es la probabilidad p A de que el jugador A arruine totalmente al jugador B? Primeramente digamos que este problema de la ruina del jugador tuvo un papel importantsimo en el desarrollo de la teora de la probabilidad, pues era bastante complejo para la poca y exigi la creacin de nuevos mtodos para su resolucin; Adems fue el inicio de toda la matemtica relativa a los procesos estocsticos y parte de la teora de la decisin y los juegos. Este problema fue propuesto por primera vez por Huygens en uno de sus libros, y lo acompa de una solucin que aos despus Bernoulli critic argumentando que restringa la posibilidad de encontrar una regla general para el resolver el problema. Otros matemticos como De Moivre, Laplace o Nicols Bernoulli tambin trabajaron en este problema, demostrando que eran capaces de trabajar con operaciones y sucesos probabilsticas muy avanzados para la poca y que conocan la aplicacin de multitud de teoremas incluso antes de ser formulados formalmente. Los primeros que dieron solucin a este problema fueron De Moivre y Nicols Bernoulli, prcticamente a la vez, entorno a 1710, y de manera independiente. 12

De Moivre hall la siguiente solucin:

p q 1 pA = a +b q p 1

p q 1 pB = a +b p q 1

Nicols Bernoulli incluy adems el nmero esperado ( utilizando el concepto de esperanza) de pruebas o juegos necesarios para que un jugador sea arruinado por el otro.
E(N ) = b p A a pB pq

La paradoja de San Petersburgo:

Se propone un juego de azar en el que pagas una apuesta inicial fija. Consiste en el lanzamiento de una moneda repetidamente hasta que aparece la primera cara. Una vez aparece, ganas una moneda si la cara aparece en el primer lanzamiento, dos monedas si aparece en el segundo, 4 monedas si aparece en el tercero, 8 en el cuarto, etc., doblando el premio en cada lanzamiento adicional. As, ganaras 2k1 monedas en k lanzamientos. Cunto estaras dispuesto a pagar para jugar a este juego? La probabilidad de que la primera cara aparezca en el lanzamiento k es de:

La probabilidad de que ganes ms de 210 monedas es menor que una entre mil. La probabilidad de que ganes ms de 1 es menor que una entre cien. A pesar de ello el valor esperado del premio es infinito! Para calcularlo:

Esta suma diverge a infinito. As, de acuerdo a la teora tradicional del valor esperado, no importa cuanto pagues por entrar en el juego, porque saldrs ganando a largo plazo (imagina pagar 1 billn cada vez, para ganar la mayor parte de las veces slo un par de monedas). Su idea consiste en que las raras ocasiones en las que ganes

13

una cantidad elevada pagarn con creces los cientos de trillones que habrs tenido que pagar para jugar. Este juego fue propuesto en 1713 por Nicols Bernoulli y se conoce con este nombre porque San Petersburgo fue la ciudad donde Nicols y si hermano Daniel discutieron sobre este problema. De esta forma se puso de manifiesto que la opcin aparentemente ms razonable no siempre es la ms correcta desde el punto de vista matemtico.

14

3.LA TEORA MODERNA DE LA PROBABILIDAD


La teora de la probabilidad en el siglo XIX:

A partir, fundamentalmente, de Laplace las dos disciplinas ms importantes dentro de la teora de la probabilidad, que eran el clculo de probabilidades y la estadstica se fusionaron de manera que el clculo de probabilidades se convirti en el andamiaje matemtico de la estadstica. Toda la base matemtica que permiti desarrollar la teora de probabilidades est extrada del anlisis combinatorio, una disciplina iniciada por Leibniz y Jacob Bernoulli. Posteriormente con el paso del tiempo fue introduciendo la teora de lmites disminuyendo el peso que tena el anlisis combinatorio. Esta fue slo la primera de las modernizaciones que sufrira la probabilidad el el siglo XIX. Otra de las ms importantes fue la que llev a cabo el matemtico alemn Karl Friedrich Gauss (1777-1855), que desarroll la teora de errores conjuntamente con Bessel y Laplace, llegando a establecer el mtodo de mnimos cuadrados como el procedimiento ms elemental para resolver los problemas de la teora de errores. Gauss y Laplace, independientemente aplicaron conceptos probabilsticos al anlisis de los errores de medida de las observaciones fsicas y astronmicas. De hecho, cientficos consagrados de la poca como Maxwell, Boltzmann y Gibbs aplicaron la probabilidad en su obra "Mecnica Estadstica". La teora de los errores constituye la primera rama de la estadstica que puede constituirse como una estructuracin terico-matemtica. Resaltemos ahora uno de los resultados importantes en teora de errores de Gauss (tambin hallado de manera independiente por A.Legendre(1752-1833)) que demostraba que, bajo ciertas condiciones generales, la funcin de densidad de los errores de medida tiene la forma:

() =

e h

2 2

Otras contribuciones importantes a la teora de errores fueron las de Simeon Denis Poisson (1781-1840) que descubri que la media aritmtica no es siempre mejor que una nica observacin, A.Cauchy(1789-1857) y ms tarde de matemticos rusos como P.Chebyshev(1821-1894). Al margen de la teora, el francs Poisson aport otras cosas destacadas a la teora de la probabilidad, como la distribucin que lleva su nombre y que es aplicable a fenmenos poco comunes y extraos. En 1837 publica su trabajo En 1837 publica su trabajo en Recherches sur la Probabilit des Jugements. Poisson originalmente estudi Medicina, en 1789 se dedic al campo matemtico en la Escuela Politcnica. Fue muy amigo de Laplace y de Lagrange. Public alrededor de 400 artculos en matemtica y estadstica. Pese al xito de las aplicaciones se oyeron voces de inconformidad a la definicin clsica de probabilidades, que exiga "a priori" saber que todos los eventos eran igualmente posibles. Adems, en ciertos casos era imposible aplicar la definicin clsica de la probabilidad. Pese a los avances de Poisson, esto no se resolvera hasta el siglo XX.

15

Sin embargo lo que s hizo Poisson, fue introducir de alguna manera el concepto de variable aleatoria, no como lo entendemos actualmente, sino esbozando sus primeros pasos como un conjunto de b1 , b2 ,..., bn cada uno con su probabilidad p1 , p 2 ,...., p n . Posteriormente, Chebyshev asumi que esos conjuntos de los que hablaba Poisson eran independientes e introdujo el trmino variable aleatoria que an tiene validez en la actualidad y fue A.Liapunov (1857-1918) quien especific que estas variables no seran siempre independientes y que esa dependencia estaba sujeta a ciertas condiciones. Adems Liapunov dio una definicin de distribucin casi exacta a la actual: P (a < < b ) = F (b ) F ( a )
Perfeccionamiento de la Ley de los Grandes Nmeros y el TCL:

La ley de los Grandes Nmeros propuesta aos atrs por Jacob Bernoulli fue generalizada por primera vez en 1837 por Poisson, que adems la bautiz con este nombre. El francs consider el siguiente experimento: Sea una sucesin de n pruebas independientes, en cada una de las cuales un suceso B puede ocurrir con probabilidad p k con k = 1,,n. Si n es el nmero de ocasiones en las que sucede B en n pruebas, p + p 2 + .... + p n P n 1 < n 0 n n Posteriormente, en 1843 Chebyshev critic el teorema de Poisson y enunci su propia versin. No obstante, era muy similar a sta y ninguna de las dos superaban cualitativamente la idea original de Jacob Bernoulli. No fue hasta 1867, poca en la que Chebyshev empez a trabajar con variables aleatorias, cuando se produjo ese avance en las investigaciones. Ya en 1909, mile Borel (1871-1956) se dio cuenta de que el trabajo de Bernoulli llevaba a una afirmacin ms importante que simplemente la ley de los Grandes Nmeros para p = 05 y el matemtico italiano Francesco Cantelli (1875-1966) descubri lo que se denomina ley Fuerte de los Grandes Nmeros aadiendo el hecho de que para cualquier valor de p: P L n = p = 1 . A lo largo del siglo XX otros n n matemticos como Kolmogorov y Khinchine trabajaron tambin aportando detalles y generalizaciones de este problema. entonces tenemos que:

> 0

Hablemos ahora del perfeccionamiento del Teorema Central del Lmite. Los esfuerzos realizados por lograr una generalizacin del teorema planteado por De Moivre fueron arduos y complicados y, aunque Laplace ya aport estudios nuevos alrededor de 1809, matemticos de renombre como Poisson o Bessel intentaron dar sus propias versiones de un teorema local del lmite y erraron. No sera hasta el ao 1887, cuando Chebyshev demostr un teorema acerca de la acotacin de la suma de una variable aleatoria con esperanza 0. Para demostrar esto, invent el Mtodo de los momentos, pieza fundamental de la teora estadstica actual. A.Markov (1856-1922), discpulo de Chebyshev, se dio cuenta posteriormente de algunos errores de su maestro y revis la frmula. Esta es la versin del teorema de Chebyshev que revis Markov en 1898:

16

Sea S n la sucesin de las sumas c1 + c 2 + .... + c n y n ( x) la funcin de distribucin de cn . Si k se cumple que x k d n ( x)


1 2

x k e x

/2

dx , entonces a, b

Sn < b P a < Var ( S n )

1 2

e x
a

/2

dx .

En 1900, Liapunov sigui perfeccionando el teorema y demostr que si las variables aleatorias tenan momento de orden tres finito, las funciones de distribucin de S n convergan a una distribucin normal. Adems esta demostracin no necesitaba el Mtodo de momentos ideado por Chebyshev para ser resuelta. El matemtico finlands Lindeberg fue ms all que Liapunov en 1922, al no pedir la existencia de ningn momento salvo el de orden dos. Asi vio que la distribucin de una suma de variables aleatorias, centradas en sus esperanzas y normadas por la raz cuadrada de la suma de sus varianzas converge a una distribucin normal estndar si se 1 ( x a k ) 2 dF ( x) = 0 . Ms tarde en 1942, William cumple t > 0 L x a > B k n n x B 1 k n Feller se dio cuenta de que la condicin de Lindeberg era necesaria adems de suficiente, resultado al que tambin lleg de manera independiente Paul Levy (1886-1971).

Escuelas del siglo XX :

Durante la ltima parte del siglo XIX y ya sobre todo en el siglo XX, tuvo lugar la creacin de diferentes escuelas y tendencias dedicadas al estudio de la matemtica en el campo de la peora de la probabilidad en particular. Las ms importantes fueron: -La escuela rusa: Los matemticos rusos dominaron todas las reas relativas al clculo de probabilidades y a la estadstica durante la segunda mitad del siglo XIX y ya en el siglo XX formaron una escuela dirigida principalmente por Andrei N.Kolmogorov (19031987) y Khinchine. Los precursores de esta escuela de conocimiento fueron Chebyshev, Markov y Liapunov entre otros, pero fue Kolmogorov el mximo exponente de este movimiento. Kolmogorov naci en Tambor. Su madre muri en el parto y su padre era un cualificado agrnomo y estadstico. Realiz su primer trabajo evaluando los estudios sobre probabilidades efectuados entre los siglos XV y XVI, apoyndose en los trabajos de Bayes. En 1924 comenz su inters en la teora de la probabilidad, la cual lo consagr. En 1927 haba completado sus investigaciones sobre suficiencia y condiciones necesarias de la ley dbil de los grandes nmeros, comenzada por J. Bernoulli. En 1930 se hace eco de la ley Fuerte de los Grandes Nmeros de Cantelli, y trabaja para mejorarla y generalizarla. El ao anterior haba publicado "La Teora General de la Medida y el Clculo de Probabilidades". En 1950 complet uno de los trabajos ms importantes en Estadstica "Estimadores Insesgados". Kolmogorov dio solucin a una parte del sexto problema de Hilbert, en el que se peda un fundamento 17

axiomtico de la teora de probabilidades, utilizando la medida de Lebesgue. Este fue el comienzo del aporte ms importante que Kolmogorov hizo a la teora del clculo de probabilidades, o al menos por el que ms se le conoce y del que hablaremos posteriormente: la axiomatizacin de la probabilidad. -La escuela estadounidense: Los principales exponentes de la escuela estadounidense especializada en la rama de la probabilidad son Feller y Doob, aunque el iniciador de este movimiento fue Nortber Wiener (1894-1964) quien desarroll una medida de las probabilidades para conjuntos de trayectorias que no son diferenciables en ningn punto, asociando una probabilidad a cada conjunto de trayectorias. Construy as una probabilidad que permita describir el fenmeno en trminos matemticos en lo que se refera a la trayectoria y posicin de las partculas a travs del tiempo. Aport ejemplos de cmo aplicar el estudio de las probabilidades al desarrollo y progresos de la ciencia. Por otra parte William Feller se hizo conocido por sus numerosos estudios acerca del Teorema Central del Limite y por su impecable demostracin de que la condicin de Lindeberg era necesaria adems de suficiente. -La escuela francesa: Esta escuela se form con Meyer y su grupo de Estrasburgo y tambin con Nevev y Fortret de Pars, aunque sin duda resalta por encima de todos la figura de Paul Levy. Los estudios ms importantes referidos a este movimiento se llevaron a cabo en la universidad de Pars, en la que por ejemplo un grupo de matemticos encabezados por Laurent Schuwartz generalizaron el concepto de diferenciacin utilizando la teora de distribuciones.Esta aportacin fue de vital importancia, ya que en la actualidad no es posible dar explicaciones rigurosas de probabilidad sin utilizar estos conceptos. La innovacin y mtodos de la escuela francesa influy de manera decisiva en las dos escuelas anteriores.

Kolmogorov y la axiomatizacin de la probabilidad:

Alrededor de 1909, Borel ya consider la importancia de la teora general de la medida para la construccin de ciertos pilares y fundamentos de la teora de la probabilidad, pero no fue hasta el ao 1933 cuando Kolmogorov se propuso construir una teora de la probabilidad totalmente rigurosa basada en axiomas fundamentales. La construccin axiomtica de la teora de la probabilidad procede de las propiedades fundamentales de la probabilidad observadas en los ejemplos que ilustran las definiciones clsica y frecuentista. As, la definicin axiomtica las incluye como casos particulares y supera las carencias de ambas. De esta manera, la probabilidad pudo desarrollarse como un teora completamente lgica al mismo tiempo que sigui permitiendo resolver los problemas aplicados de la ciencias modernas y la tecnologa. La definicin axiomtica da una equivalencia entre los conceptos de la teora de la medida y los de la teora de la probabilidad. Se toma un conjunto de medida 1, , cuyos elementos son sucesos elementales y se considera una lgebra A, un subconjunto de que satisface que incluye a y a , que es cerrado por

18

complementacin y por uniones numerables. Luego se define una funcin P que asigna a un suceso un nmero entre 0 y 1 (su medida). As, la terna (, A, P) se convierte en un espacio de probabilidades. No obstante, la teora de la probabilidad y la de la medida permanecen perfectamente diferenciadas, ya que la segunda carece de algo necesario en la primera; la independencia de variables aleatorias. Los axiomas de Kolmogorov que definen la probabilidad son los siguientes: 1. Para cada suceso aleatorio B hay asociado un nmero nonegativo P(B) que se llama su probabilidad. 2. P()=1 3. Si los sucesos B1 , B2 ,...., Bn son mutuamente excluyentes dos a dos, entonces, P ( B1 + B2 + .... + Bn ) = P( B1 ) + P( B2 ) + .... + P ( Bn ) Del hecho de que = y el axioma 3 se deduce que P() = P() P() , y de esto se deduce la siguiente serie de resultados destacados: P() = 0
B , P( B c )= 1 P(B)
B, 0 P(B) 1

B C P(B) P(C)
P ( B C ) = P ( B ) + P (C ) P ( B C )

P( B1 .... Bn ) P( B j )
j =1

Vemos que de los tres axiomas fundamentales de Kolmogorov se deducen la mayora de las propiedades fundamentales de la probabilidad que conocemos y manejamos hoy en da. Adems estos axiomas tienen la ventaja de que son consistentes, ya que existen objetos reales que los satisfacen y, por lo tanto, concretan la matemtica en el nuestra vida.

19

TRATAMIENTO Y COMENTARIO DE UN TEXTO ORIGINAL

20

LA PROBABILIDAD EN LAPLACE
1. Introduccin:

El texto comentado a continuacin es un fragmento de la obra Essai philosophique sur les probabilits del matemtico Pierre Simon Laplace (1749-1827). Este francs fue conocido por su curiosidad universal que le llev a indagar en casi todas las reas del conocimiento, logrando sus ms exitosos resultados tanto en mecnica celeste como en la teora de las probabilidades, de la que trata este ensayo. Gracias a sus trabajos, la teora anterior sobre los juegos de azar se convirti en la rama del anlisis conocido con el nombre de clculo o teora de las probabilidades, que incorpor a su dominio temas pertenecientes a diferentes campos como astronoma, demografa y filosofa. Este libro es el desarrollo de unas clases dadas en 1795 en las Escuelas Normales de Pars y se propone situar al alcance de los no matemticos los principios y resultados generales de la teora de la probabilidad. En la imagen podemos observar la portada original del libro del que, a continuacin pasaremos a comentar algunos fragmentos.

2. Metodologa

La parte seleccionada corresponde a la introduccin del libro, en la que Laplace presenta los principios y fundamentos de la probabilidad y el cmo y el por qu se interesa por esta rama de las matemticas. El texto original se sita en la columna de la izquierda y la traduccin simultnea a la derecha para facilitar la lectura. Antes de cada fragmento e intercaladamente se irn haciendo comentarios acerca del contenido y el trasfondo del texto.

21

3. Traduccin y comentario del texto seleccionado

-Justificacin de la Laplace sobre por qu escribe el Essai philosophique sur les probabilits: En este primer fragmento, Pierre Simon Laplace realiza una breve explicacin de cmo se le ocurri la idea de hacer un ensayo para hablar acerca de la probabilidad. Explica que ha publicado otra obra ( Theorie analytique des Probabilits) en la que expone un amplio curso de probabilidad, pero que en este libro no se servir de resultados matemticos sino que intentar acercarnos la probabilidad aplicndola a los problemas de la vida. Laplace muestra, sorprendentemente y desde el principio, una concepcin probabilstica del entendimiento frente a su ya conocido determinismo, que quedar totalmente plasmada en los prximos prrafos.

Este Ensayo filosfico del desarrollo de una leccin que di en 1795 sobre las probabilidades en las Escuelas Normales, de las que fui designado profesor y que apareci en el Journal de las sesiones de dichas escuelas. Poco despus he publicado sobre este mismo tema una obra que lleva por titulo Thorie analytique des Probabilits. Lo que aqu voy a hacer es exponer, sin el auxilio del anlisis, los principios y resultados generales de esta teora, aplicndolos a los problemas ms importantes de la vida, la mayor parte de los cuales no son sino problemas de probabilidad. Se ver, no sin inters, que aun cuando los principios eternos de la razn, la justicia y la humanidad, slo se consideren las probabilidades favorables que constantemente les acompaan, tiene una gran ventaja el seguirlos y graves inconvenientes en apartarse de ellos por la razn de que dichas probabilidades, lo mismo que las que resultan agraciadas en las loteras, acaban siempre por prevalecer en medio de las oscilaciones del azar. Me gustara que las reflexiones diseminadas por este Ensayo fuesen merecedoras de la atencin de los filsofos y lograran dirigirla hacia un objeto tan digno de sus desvelos.

22

- Determinismo e inters por la probabilidad en Laplace:

Entre estas lneas se encuentra quizs una de las ms clebres frases de Laplace: Una inteligencia que, en un momento determinado, conociera todas la fuerzas que animan la naturaleza, as como la situacin respectiva de los seres que la componen, si adems fuera lo suficientemente amplia como para someter a anlisis tales datos, podra abarcar en una sola frmula los movimientos de los cuerpos ms grandes del universo y los del tomo ms ligero; nada le resultara incierto y tanto el futuro como el pasado estaran presentes a sus ojos. Este bellsimo pasaje muestra el claro carcter determinista de Laplace, que extrapola a todos los fenmenos naturales el determinismo de la mecnica clsica. Por tanto la pregunta que nos hacemos es: cmo un cientfico de la poca ilustrada con marcadas tendencias deterministas se interesa por una rama tan antideterminista y aleatoria como la probabilidad? La respuesta podemos encontrarla justo a continuacin, en el siguiente prrafo: El espritu humano ofrece, en la perfeccin que ha sabido dar a la astronoma, un dbil esbozo de esta inteligencia. Sus descubrimientos en mecnica y geometra le han puesto en condiciones de abarcar en las mismas expresiones analticas los estados pasados y futuros del sistema del mundoTodos los esfuerzos por buscar la verdad tienden a aproximarlo continuamente a la inteligencia que acabamos de imaginar, pero de la que siempre permanecer infinitamente alejado. He aqu, por tanto, la razn que lleva a Laplace a interesarse tan profundamente por la probabilidad. Y es que l, al lado de una firme concepcin determinista acerca de la naturaleza humana, conocida por todos los que le rodeaban y por nosotros en la actualidad, mantuvo la conviccin de que la posibilidad del hombre de alcanzar la certeza absoluta est completamente cerrada, y que lo ms que puede aspirar a alcanzar es el conocimiento meramente probable. Este firme pensamiento es el que le lleva a emprender sus estudios sobre probabilidad.

23

De la Probabilidad Todos los acontecimientos, incluso aquellos que por su insignificancia parecen no atenerse a las grandes leyes de la naturaleza, no son sino una secuencia tan necesaria como las revoluciones del sol. Al ignorar los lazos que los unen al sistema total del universo, se los ha hecho depender de causas finales o del azar, segn que ocurrieran o se sucedieran con regularidad o sin orden aparente, pero estas causas imaginarias han ido siendo descartadas a medida que se han ido ampliando las fronteras de nuestro conocimiento, y desaparecen por completo ante la sana filosofa que no ve en ellas ms que una expresin de nuestra ignorancia de las verdaderas causas. Los acontecimientos actuales mantienen con los que les preceden una relacin basada en el principio evidente de que una cosa no puede comenzar a existir sin una causa que la produzca. Este axioma, conocido con el nombre de principio de razn suficiente, se extiende incluso a las acciones ms indiferentes. La voluntad ms libre no puede producirlas sin un motivo determinante, pues si, siendo absolutamente iguales todas las circunstancias de dos situaciones, actuara en una y dejara de hacerlo en la otra, su eleccin sera un efecto sin causa y ella sera entonces, como dice Leibniz, el azar ciego de los epicreos. La opinin contraria es una ilusin del espritu que, perdiendo de vista las fugaces razones de la eleccin de la voluntad en las cosas indiferentes, se persuade de que ella se ha determinado por s misma, y sin estar motivada por nada. As pues, hemos de considerar el estado actual del universo como el efecto de su estado anterior y como la causa del que ha de seguirle. Una inteligencia que, en un momento determinado, conociera todas la fuerzas que animan la naturaleza, as como la situacin respectiva de los seres que la componen, si adems fuera lo suficientemente amplia como para someter a anlisis tales datos, podra abarcar en una sola frmula los movimientos de los cuerpos ms grandes del universo y los del tomo ms ligero; nada le resultara incierto y tanto el futuro como el pasado estaran presentes a sus ojos. El espritu humano ofrece, en la perfeccin que ha sabido dar a

24

la astronoma, un dbil esbozo de esta inteligencia. Sus descubrimientos en mecnica y geometra le han puesto en condiciones de abarcar en las mismas expresiones analticas los estados pasados y futuros del sistema del mundo. Aplicando el mismo mtodo a algunos otros objetos de su conocimiento, ha logrado reducir a leyes generales los fenmenos observados y a prever aquellos otros que deben producirse en ciertas circunstancias. Todos los esfuerzos por buscar la verdad tienden a aproximarlo continuamente a la inteligencia que acabamos de imaginar, pero de la que siempre permanecer infinitamente alejado. Esta tendencia, propia de la especie humana, es la que la hace superior a los animales, y sus progresos en este mbito, lo que distingue a las naciones y los siglos y cimenta su verdadera gloria.

- Definicin de probabilidad: En el siguiente fragmento del texto es donde tenemos una clara formulacin de la definicin de probabilidad: La teora del azar consiste en () determinar el nmero de casos favorables al acontecimiento cuya probabilidad de busca. La proporcin entre este nmero y el de todos los casos posibles es la medida de esta probabilidad, que no es, pues, ms que una fraccin cuyo numerador es el nmero de casos favorables y cuyo denominador el de todos los posibles Esta definicin ha sido fundamental para el desarrollo de la probabilidad durante ms de dos siglos, hasta que en la primera mitad del siglo XX, Kolmogorov extendi el concepto introduciendo la probabilidad axiomtica. La vigencia de este y otros conceptos formulados por Laplace dan una idea de la universalidad de los estudios realizados por el francs y su importancia a lo largo de la historia.

25

La probabilidad es relativa en parte a esta ignorancia y en parte a nuestros conocimientos. Sabemos que de tres o ms acontecimientos slo debe ocurrir uno, pero nada induce a creer que ocurrir uno de ellos ms bien que los otros. En este estado de indecisin nos resulta imposible pronunciarnos con certeza sobre su acaecimiento. Sin embargo, es probable que uno de estos acontecimientos, tomado arbitrariamente, no acaezca, pues vemos varios casos iguales de posibles que excluyen su acaecimiento, mientras que slo uno lo favorece. La teora del azar consiste en reducir todos los acontecimientos del mismo tipo a un cierto nmero de casos igualmente posibles, es decir, tales que estemos igual de indecisos respecto a su existencia, y en determinar el nmero de casos favorables al acontecimiento cuya probabilidad se busca. La proporcin entre este nmero y el de todos los casos posibles es la medida de esta probabilidad, que no es, pues, ms que una fraccin cuyo numerador es el nmero de casos favorables y cuyo denominador el de todos los posibles.

- Crtica a la astrologa y elogio a las ideas ilustradas: Por ltimo, en estos prrafos Laplace critica la manera de pensar de la poca, sus fuentes de conocimiento y la educacin. Pone el ejemplo de la astrologa, contra la que a lo largo de toda su vida arremete duramente, y critica que tanto sta como otras enseanzas son inculcadas desde la infancia en base nicamente a creencias universales arraigadas entre la poblacin y sin ningn fundamento cientfico. Tambin cree que con la llegada de las nuevas ideas ilustradas eso va a cambiar y comenta que la tarea de educar al pueblo debe reservarse a gente instruida, imparcial y crtica con la realidad que les rodea. Una vez aclarado este punto pasa a enumerar los principios generales del clculo de probabilidades, ya conocidos por todos nosotros.

La propagacin de estos errores que, en tiempos de ignorancia, han cubierto la faz de la tierra, se debe a la influencia de la opinin de aquellos que la muchedumbre considera ms preparados y en quienes suele depositar su confianza en lo que se refiere a los asuntos ms importantes de la vida. La astrologa nos ofrece un buen ejemplo. Estos errores, inculcados en la infancia, adoptados sin examen y sin otra base que la creencia universal, se han mantenido durante mucho tiempo, hasta que por fin el progreso de las ciencias los ha erradicado del espritu de los hombres ilustrados, cuya opinin los ha hecho desaparecer despus del pueblo mismo gracias al poder de la imitacin y de la costumbre que con tanta generosidad los haba difundido. Este poder, el resorte ms potente del mundo moral, establece y preserva en toda una nacin ideas enteramente contrarias a las que, con igual dominio, mantiene en otro sitio. Qu tolerancia no habr que tener hacia las opiniones distintas de las nuestras, cuando esta diferencia no depende generalmente de otra cosa que los diferentes puntos de vista en que las circunstancias nos han colocado! Enseemos a los que no consideramos suficientemente instruidos, pero no sin antes examinar rigurosamente nuestras propias opiniones y sopesar con imparcialidad sus probabilidades respectivas.

27

BIBLIOGRAFA
HISTORIA DE LA PROBABILIDAD:
LIBROS:

-De Groot, Morris H., Probabilidad y estadstica, Addison-Wesley Iberoam. 1988 -Cooke, Roger, The History of Mathematics.A brief course. John Wiley & Sons,1997 -Cramer, Elementos de la Teora de probabilidades y algunas de sus aplicaciones (traduccin de Anselmo Calleja), Aguilar 1960 -Todhunter, Isaac, History of the theory of probability, Chelsea, 1965 -Gnedenko, Boris, Theory of probability. Gordon & Breach science publications,1997 -Gillispie, Dictionary of scientific biography, Charles Scribner's Sons, 1981

INTERNET:

- http://www-groups.dcs.st-and.ac.uk/-history/ (McTutor history of mathematics) - http://www.arrakis.es/~mcj/prb019.htm (Solucin del problema del c.de Mer) - http://www.sectormatematica.cl/biografias.htm (Breves apuntes biogrficos) - http://kogi.udea.edu.co/revista/16/16-111.pdf#search=%22historia%20de%20la%20probabilidad%22 (Ponencia breve acerca de la probabilidad) - http://www.monografias.com/trabajos/renacim/renacim.shtml ( texto sobre el renacimiento, usado para conocer la poca y contexto histrico)

TRATAMIENTO DE TEXTO ORIGINAL:


-Laplace, Pierre-Simon, Ensayo filosfico sobre las probabilidades, traduccin de Pilar Castillo, Alianza editorial, 1985 - http://www.google.es/books?hl=es (Bsqueda de libros de google) http://www.google.es/books?vid=OCLC01450686&id=kquzFVmtQ04C&pg=PA1&lpg =PA1&dq=essai+laplace#PPP3,M1 (direccin exacta del libro)

29

30

31

32

También podría gustarte