Está en la página 1de 10

SECCION 09

Mary Luciano
100217929
INTRODUCCION A LA TEORIA DE PROBABILIDAD.

Historia de la Probabilidad

La historia de la probabilidad abarca, principalmente, el periodo entre la escritura del


primer tratado que hace referencia a la misma (1553), hasta finales del siglo XX.

Aunque el concepto de probabilidad viene de hace miles de años, en realidad la historia


de la probabilidad es bastante más breve. Sobre todo, si tenemos en cuenta los
avances en materia de teoría de la probabilidad. Unos avances que no comenzaron a
ser tangibles hasta que se realizó la primera escritura por parte Gerolamo Cardano.

Habitualmente se concede a Pierre Fermat (1601-1665) y Blaise Pascal (1623-1662), el


título de padres de la teoría de la probabilidad. Sin embargo, existen evidencias
históricas que nos inclinan a pensar que el primero en poner por escrito el concepto fue
Gerolamo Cardano (1501-1576).

Por alguna extraña razón, que aún se desconoce, su obra titulada «Liber de ludo
aleae» que significa algo así como «Un libro sobre los juegos de dados» no fue
publicada hasta el año 1663. Cuando, en realidad, la obra fue escrita en 1553.

Teniendo en cuenta que las publicaciones de Fermat y Pascal se realizaron hacia el


año 1654, es comprensible que la historia les haya reconocido el hallazgo. Es en este
punto, donde podemos decir que documentalmente comienza la historia de la
probabilidad.

Historia de la probabilidad a partir del siglo XVIII

Tras las sucesivas publicaciones de Pierre Fermat (1654), Blaise Pascal (1654) y
Gerolamo Cardano (1663) se sucedieron numerosas obras por parte de intelectuales
que han llegado a ser muy relevantes en la disciplina.

A principios del siglo XVIII, motivado por la notoriedad que adquirieron los juegos de
azar, se publicó un documento titulado «Ars Conjectandi» de Jacob Bernouilli. Una obra
publicada a título póstumo, ya que en realidad fue escrita hacia 1690. Tras la muerte de
Bernoulli, Abraham de Moivre cogió el testigo, y sentó las bases del Teorema Central
del Límite (1733), convirtiéndose así en uno de los referentes de la teoría de la
probabilidad. Un Teorema, todo sea dicho, que sería demostrado por Laplace años
más tarde.

Tras Moivre, Thomas Bayes (1702-1761) y Joseph Lagrange (1736-1813) realizaron


contribuciones muy importantes al campo de la probabilidad.

Con todo, sería Pierre-Simon Laplace (1749-1827) quién impulsaría definitivamente al


campo de la probabilidad. Su obra «Théorie analytique des probabilites», traducida
como «Teoría analítica de probabilidades» y publicada en 1812 constituyó gran parte
de la base sobre la que emerge la teoría de la probabilidad. En ella definía por vez
primera el concepto de probabilidad y dedujo el método de mínimos cuadrados
ordinarios (MCO) desarrollado antes por Carl Friedrich Gauss (1777-1855) cuando era
estudiante.

En esa misma línea, con permiso de Gauss, le corresponde a Laplace la demostración


y aplicación de la distribución normal en la teoría de la probabilidad. Gauss, sin lugar a
dudas, realiza un aporte tremendo con la distribución normal. Sin embargo, se le debe
a Laplace la aplicación en términos probabilísticos.

Con su fallecimiento, la teoría de la probabilidad siguió creciendo. Eso sí, con


dificultades. Dificultades que provenían, principalmente, de matemáticos. Consideraban
que la teoría de la probabilidad carecía de una teoría robusta y precisa para ser
aceptada como parte de las matemáticas.

Las aportaciones de Kolmogorov en el siglo XX

Motivado por las críticas que recibía el campo de la probabilidad, Andréi Kolmogorov
(1903-1987) decidió armarse de valor para cambiar el rumbo de la historia. Hacia 1933
el matemático ruso publicaría una obra titulada «Los fundamentos de la Teoría de la
Probabilidad». En ella expuso la axiomática que lleva su nombre y le valió para ser
reconocido como una eminencia de la probabilidad.

Simultáneamente, aunque de publicación más tardía, Émilie Borel (1871-1956) ofreció


su aportación a la teoría de la probabilidad con su libro «Probabilité et Certitude»
publicado en 1950.

Sin duda, Kolmogorov y Borel ofrecieron un marco más preciso que el resto en cuanto
a la exposición de la teoría probabilística.

Además de los dos anteriores, destacan las aportaciones, durante todo el siglo XX, de
intelectuales como Paul Lévy (1919-1971), Norbert Wiener (1894-1964) o Maurice
Fréchet (1878-1973). Para terminar, diremos que existen otros muchos que podríamos
incluir en la historia de la probabilidad, pero estos son los más influyentes.
Personajes

FERMAT PIERRE

Matemático francés nacido el 17 de agosto de 1601 en Beaumont


de Lomagne.
En 1632 conoce a Carcavi siendo ambos consejeros del
Parlamento en Toulouse y se hicieron amigos.
Fermat envió muchos de sus trabajos a Carcavi después que éste
se mudó a París como bibliotecario real en 1636. En 1650 Fermat
envió a Carcavi un tratado titulado: Novus secundarum et ulterioris
radicum in analyticis usus. Este trabajo contiene el primer método conocido de
eliminación y Fermat quería publicarlo. Se les pidió a Pascal y a Carcavi que buscaran
un editor para el trabajo. Carcavi se acercó a Huygens, tratando de publicar no sólo
este trabajo sino también otros trabajos que Fermat le había enviado. Ni Carcavi ni
Pascal tuvieron éxito y los trabajos de Fermat nunca se publicaron. La amistad de
Carcavi con Fermat duró por muchos años.

BLAISE PASCAL
Filósofo, físico y matemático francés. Su madre falleció cuando él
contaba tres años, a raíz de lo cual su padre se trasladó a París con
su familia (1630). Fue un genio precoz a quien su padre inició muy
pronto en la geometría e introdujo en el círculo de Mersenne, la
Academia, a la que él mismo pertenecía. Allí Pascal se familiarizó
con las ideas de Girard Desargues y en 1640 redactó su Ensayo
sobre las cónicas, que contenía lo que hoy se conoce como teorema del hexágono de
Pascal.

En 1658, al parecer con el objeto de olvidarse de un dolor de muelas, Pascal elaboró


su estudio de la cicloide, que resultó un importante estímulo en el desarrollo del cálculo
diferencial.

Christiaan Huygens
Matemático, astrónomo y físico holandés. Hijo del poeta renacentista
Constantin Huygens, pronto demostró un gran talento para la mecánica
y las matemáticas. Estudió en la Universidad de Leiden y en el Colegio
de Breda.
Huygens adquirió una pronta reputación en círculos europeos por sus publicaciones de
matemáticas y por sus observaciones astronómicas, que pudo realizar gracias a los
adelantos que introdujo en la construcción de telescopios. Destacan, sobre todo, el
descubrimiento del mayor satélite de Saturno, Titán (1650), y la correcta descripción de
los anillos de Saturno, que llevó a cabo en 1659. Más tarde se trasladó a París, donde
permaneció desde 1666 a 1681, fecha de su regreso a La Haya. En 1666 fue miembro
fundador de la Academia Francesa de Ciencias.
.

Gregor Mendel
Biólogo austriaco. Su padre era veterano de las guerras napoleónicas y su madre, la
hija de un jardinero. Tras una infancia marcada por la pobreza y las penalidades, en
1843 Johann Gregor Mendel ingresó en el monasterio agustino de Königskloster,
cercano a Brünn, donde tomó el nombre de Gregor y fue ordenado
sacerdote en 1847. Residió en la abadía de Santo Tomás (Brünn) y,
para poder seguir la carrera docente, fue enviado a Viena, donde se
doctoró en matemáticas y ciencias (1851).
En 1854 Mendel se convirtió en profesor suplente de la Real
Escuela de Brünn, y en 1868 fue nombrado abad del monasterio, a
raíz de lo cual abandonó de forma definitiva la investigación
científica y se dedicó en exclusiva a las tareas propias de su
función.

Concepto
La Probabilidad

Es la capacidad de estimar o predecir un evento. Cuanto mayor sea la cantidad de


datos disponibles para calcular la probabilidad de un acontecimiento, más preciso será
el resultado calculado.

Interpretaciones
Interpretación clásica de la probabilidad: En algunas situaciones, la definición del
experimento asegura que todos los sucesos elementales tienen la misma probabilidad
de ocurrir. En este caso, se dice que el espacio muestral es equiprobable.
Si el espacio muestral es equiprobable y contiene k sucesos elementales,

Interpretación frecuentista de la probabilidad:

Ejemplo: Definimos el experimento de tirar una moneda una vez. Repetimos el


experimento un número n de veces y calculamos las frecuencias relativas de cada
suceso elemental.
En el ejemplo, se ve que las frecuencias relativas se acercan a un límite cuando se
repite el experimento muchas de veces. El valor límite de la frecuencia es la
probabilidad del suceso.

Interpretación subjetiva de la probabilidad: Se han visto anteriormente dos ideas


para definir probabilidades: frecuencias relativas y espacios equiprobables.

Existe otro enfoque completamente distinto que define la probabilidad como una
medida subjetiva de incertidumbre sobre la aparición de un suceso.

• Así nuestras probabilidades para algún suceso pueden ser distintas, ya que
tenemos diferentes cantidades de información.

¿Cuál es la probabilidad de las interpretaciones de la probabilidad salgan en el


examen de junio?

• En este caso, se pueden definir probabilidades para experimentos


irrepetibles.

Importancia de la toma de decisiones


¿Por qué es importante la posibilidad? Sin la posibilidad no podríamos hacer
estimaciones. Nos limitaríamos a actuar a ciegas. Así, nuestras decisiones no se
basarían por posibilidades. Estas se sustentarían en simples corazonadas o en el azar,
que si bien es cierto que muchas personas deciden confiar en ellas para actuar, no
siempre es la forma más fiables de obtener buenos resultados, o por lo menos los
resultados que queremos. Así pues, podemos decir que la posibilidad nos ayuda en
nuestro día a día a orientar nuestras decisiones.

Que es una probabilidad.


La probabilidad asociada a un suceso o evento aleatorio es una medida del grado de
certidumbre de que dicho suceso pueda ocurrir.

Por qué se estudia la probabilidad.


Para poder predecir la frecuencia con que ocurren ciertos fenómenos.

Enfoques de la probabilidad: probabilidad clásica y concepto de


frecuencia relativa.
Probabilidad clásica: es la relación de casos favorables y casos posibles de ocurrir al
realizar un experimento.

Frecuencia relativa: es una medida estadística que se calcula como el cociente de la


frecuencia absoluta de algún valor de la población/muestra (fi) entre el total de valores
que componen la población/muestra (N).

Eventos o sucesos aleatorios.


Es un subconjunto de un espacio muestral, es decir, un conjunto de posibles resultados
que se pueden dar en un posible pero muy lejano experimento aleatorio.

Espacios muestrales.
Es el conjunto de todos los resultados posibles diferentes, de un determinado
experimento aleatorio.

Sucesos mutuamente excluyentes.


Si un evento sucede significa que el otro no puede ocurrir A∩B = Ø
Sucesos no mutuamente excluyentes.
Se consideran eventos mutuamente no excluyentes a todos aquellos sucesos que
tienen la capacidad de ocurrir de manera simultánea en una experimentación. La
ocurrencia de alguno de ellos no supone la no ocurrencia del otro.

Sucesos independientes. Sucesos dependientes.


• Sucesos Independientes: dos eventos son independientes cuando la
ocurrencia de un evento no depende de la ocurrencia del otro.
• Sucesos Dependientes: dos eventos son dependientes cuando la
ocurrencia de uno de ellos depende de la ocurrencia del otro.

Reglas básicas de la probabilidad: regla de la suma y regla de la


multiplicación.

Regla de la adición

La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia


de cualquier evento en particular es igual a la suma de las probabilidades individuales,
si es que los eventos son mutuamente excluyentes, es decir, que dos no pueden ocurrir
al mismo tiempo.

Regla de la multiplicación

La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más


eventos estadísticamente independientes es igual al producto de sus probabilidades
individuales.
Diagramas de árbol.
Un diagrama de árbol es una representación gráfica de los posibles resultados de un
experimento que tiene varios pasos. Nos permite calcular la probabilidad de que ocurra
un evento de una manera muy sencilla.

Teorema de Bayes.
Bayes nos ayuda para calcular probabilidades a posteriori de diversas causas, una vez
observado un evento A. Si tenemos varios eventos Bi incompatibles dos a dos y de tal
manera que: B1 U B2 U B3 U… U Bn = E

También podría gustarte