Está en la página 1de 7

PROBALIDADES Y ESTADÍSTICA

La Probabilidad y la Estadística se encargan del estudio del azar desde el punto de vista
de las matemáticas:

La Probabilidad propone modelos para los fenómenos aleatorios, es decir, los que se
pueden predecir con certeza, y estudia sus consecuencias lógicas.

La Estadística ofrece métodos y técnicas que permiten entender los datos a partir de
modelos.

De esta manera, el Cálculo de las Probabilidades es una teoría matemática y la


Estadística es una ciencia aplicada donde hay que dar un contenido concreto a la noción
de probabilidad.

Probabilidad

En este sentido, el cálculo científico de probabilidades puede ayudarnos a comprender lo


que en ocasiones la intuición nos indica de manera errónea. Un ejemplo típico es la
denominada "paradoja de los cumpleaños". Supongamos que estamos en un grupo de 23
personas. Los cálculos nos dicen que la probabilidad de que dos personas celebren el
mismo día su cumpleaños es del 50%, algo que a simple vista parece increíble (Paradoja
del Cumpleaños). No es de extrañar por tanto que la Teoría de Probabilidad se utilice en
campos tan diversos como la demografía, la medicina, las comunicaciones, la informática,
la economía y las finanzas.

Estadística

Cuando hablamos de estadística, se suele pensar en un conjunto de datos numéricos


presentada de forma ordenada y sistemática. Esta idea es debida a la influencia de
nuestro entorno, ya que hoy día es casi imposible que cualquier medio de comunicación,
periódico, radio, televisión, etc, no nos aborde diariamente con cualquier tipo de
información estadística.

Sólo cuando nos adentramos en un mundo más específico como es el campo de la


investigación de las Ciencias Sociales: Medicina, Biología, Psicología, ... empezamos a
percibir que la Estadística no sólo es algo más, sino que se convierte en la única
herramienta que, hoy por hoy, permite dar luz y obtener resultados, y por tanto beneficios,
en cualquier tipo de estudio, cuyos movimientos y relaciones, por su variabilidad
intrínseca, no puedan ser abordadas desde la perspectiva de las leyes determistas.

La Estadística se ocupa de los métodos y procedimientos para recoger, clasificar, resumir,


hallar regularidades y analizar los datos (Estadística Descriptiva), siempre y cuando la
variabilidad e incertidumbre sea una causa intrínseca de los mismos; así como de realizar
inferencias a partir de ellos, con la finalidad de ayudar a la toma de decisiones y en su
caso formular predicciones (Estadística Inferencial).

Historia de la Probabilidad

En cuanto al concepto en sí, la probabilidad y el azar siempre ha estado en la mente del


ser humano. Por ejemplo:
Sumerios y Asirios utilizaban un hueso extraído del talón de animales como ovejas,
ciervos o caballos, denominado astrágalo o talus, que tallaban para que pudieran caer en
cuatro posiciones distintas, por lo que son considerados como los precursores de los
dados.

En el caso de la civilización egipcia, algunas pinturas encontradas en las tumbas de los


faraones muestran tanto astrágalos como tableros para el registro de los resultados.

Por su parte, los juegos con dados se practicaron ininterrumpidamente desde los tiempos
del Imperio Romano hasta el Renacimiento, aunque no se conoce apenas las reglas con
las que jugaban. Uno de estos juegos, denominado "hazard", palabra que en inglés y
francés significa riesgo o peligro, fue introducido en Europa con la Tercera Cruzada. Las
raíces etimológicas del término provienen de la palabra árabe "al-azar", que significa
"dado". Posteriormente, en el "Purgatorio" de Dante el término aparece ya como "azar".

En la actualidad, ruletas, máquinas tragaperras, loterías, quinielas, nos indican que dicha
fascinación del hombre por el juego, continúa.

La historia de la probabilidad comienza en el siglo XVII cuando Pierre Fermat y Blaise


Pascal tratan de resolver algunos problemas relacionados con los juegos de azar. Aunque
algunos marcan sus inicios cuando Cardano (jugador donde los haya) escribió sobre 1520
El Libro de los Juegos de Azar (aunque no fué publicado hasta más de un siglo después,
sobre 1660) no es hasta dicha fecha que comienza a elaborarse una teoría aceptable
sobre los juegos.

Christian Huygens conoció la correspondencia entre Blaise Pascal y Pierre Fermat


suscitada por el caballero De Méré, se planteó el debate de determinar la probabilidad de
ganar una partida, y publicó (en 1657) el primer libro sobre probabilidad: De Ratiociniis in
Ludo Aleae, (Calculating in Games of Chance), un tratado sobre juegos de azar.Se
aceptaba como intuitivo el concepto de equiprobabilidad, se admitía que la probabilidad
de conseguir un acontecimiento fuese igual al cociente entre

Durante el siglo XVIII, debido muy particularmente a la popularidad de los juegos de azar,
el cálculo de probabilidades tuvo un notable desarrollo sobre la base de la anterior
definición de probabilidad. Destacan en 1713 el teorema de Bernoulli y la distribución
binomial, y en 1738 el primer caso particular estudiado por De Moivre » , del teorema
central del límite. En 1809 Gauss » inició el estudio de la teoría de errores y en 1810
Laplace, que había considerado anteriormente el tema, completó el desarrollo de esta
teoría. En 1812 Pierre Laplace » publicó Théorie analytique des probabilités en el que
expone un análisis matemático sobre los juegos de azar.

A mediados del siglo XIX, un fraile agustino austríaco, Gregor Mendel, inició el estudio de
la herencia, la genética, con sus interesantes experimentos sobre el cruce de plantas de
diferentes características. Su obra, La matemática de la Herencia, fue una de las primeras
aplicaciones importantes de la teoría de probabilidad a las ciencias naturales.

Desde los orígenes la principal dificultad para poder considerar la probabilidad como una
rama de la matemática fue la elaboración de una teoría suficientemente precisa como
para que fuese aceptada como una forma de matemática. A principios del siglo XX el
matemático ruso Andrei Kolmogorov » la definió de forma axiomática y estableció las
bases para la moderna teoría de la probabilidad que en la actualidad es parte de una
teoría más amplia como es la teoría de la medida.
Historia de la Combinatoria

El nacimiento y desarrollo de la combinatoria ha sido paralelo al desarrollo de otras ramas


de las Matemáticas, tales como el álgebra, teoría de números, y probabilidad.
Desde tiempos muy remotos ha habido problemas de combinatoria que han llamado la
atención de los matemáticos:

El problema de los cuadrados mágicos, que son matrices de números con la propiedad de
que la suma de los elementos de cualquier columna, fila o diagonal es el mismo número,
aparece en un viejo libro chino fechado 2200 a. C. Los cuadrados mágicos de orden 3
fueron estudiados con fines místicos.

Los coeficientes binominales, que son los coeficientes enteros del desarrollo de (a+b)
fueron conocidos en el siglo XII.

El triángulo de Pascal que es una disposición triangular de los coeficientes binominales


fue desarrollado en el siglo XIII.

Se puede considerar que en Occidente la combinatoria surge en el siglo XVII con los
trabajos de Blaise Pascal y de Pierre Fermat sobre la teoría de juegos de azar. Estos
trabajos, que formaron los fundamentos de la teoría de la probabilidad, contenían
asimismo los principios para determinar el número de combinaciones de elementos de un
conjunto finito, y así se estableció la tradicional conexión entre combinatoria y
probabilidad.

El término “combinatoria” tal y como lo usamos actualmente fue introducido por Wihem
Leibniz en su Dissertartio de Arte Combinatoria. De gran importancia para la
consolidación de la combinatoria fue el artículo de Ars Conjectandi (el arte de conjeturar)
de J.Bernouilli » ; este trabajo estaba dedicado a establecer las nociones básica de
probabilidad. Para esto fue necesario introducir también un buen número de nociones
básicas de combinatoria pues se usaron fuertemente como aplicaciones al cálculo de
probabilidades. Se puede decir que con los trabajos de Leibniz y Bernoulli se inicia el
establecimiento de la combinatoria como una nueva e independiente rama de las
matemáticas.

El matemático suizo Leonard Euler fue quien desarrolló a principios del siglo XVIII una
auténtica escuela de matemática combinatoria. En sus artículos sobre la partición y
descomposición de enteros positivos en sumandos, estableció las bases de uno de los
métodos fundamentales para el cálculo de configuraciones combinatorias, que es el
método de las funciones generadoras. También se le considera el padre de la teoría de
grafos por el planteamiento y solución de los problemas de los “Puentes de Konigsberg”
usando por primera vez conceptos y métodos de teoría de grafos. Los primeros
problemas de teoría de grafos surgieron de la búsqueda de solución a algunos problemas
cotidianos y también en el planteamiento de algunos acertijos matemáticos tales como el
problema de los Puentes de Konigsberg, la colocación de reinas en un tablero de ajedrez
con alguna restricción, problemas de transporte, el problema del viajero, etc.

En Inglaterra a finales del siglo XIX Arthur Cayley (motivado por le problema de calcular el
número de isómetros de hidrocarburos saturados) hizo importantes contribuciones a la
teoría de enumeración de grafos. Por este tiempo el matemático George Boole usó
métodos de combinatoria en conexión con el desarrollo de la lógica simbólica y con las
ideas y métodos que Henri Poincaré desarrolló en relación con problemas de topología.

Uno de los factores más importantes que han contribuido al gran desarrollo que ha tenido
la combinatoria desde 1920 es la teoría de grafos, la importancia de esta disciplina estriba
en el hecho de que los grafos pueden servir como modelos abstractos parar modelar una
gran variedad de relaciones entre objetos de un conjunto.

Más sobre las probabilidades

Las probabilidades constituyen una rama de las matemáticas que se ocupa de medir o
determinar cuantitativamente la posibilidad de que un suceso o experimento produzca un
determinado resultado. La probabilidad está basada en el estudio de la combinatoria y es
fundamento necesario de la estadística.

La creación de la probabilidad se atribuye a los matemáticos franceses del siglo XVII


Blaise Pascal y Pierre de Fermat, aunque algunos matemáticos anteriores, como
Gerolamo Cardano en el siglo XVI, habían aportado importantes contribuciones a su
desarrollo.

La probabilidad matemática comenzó como un intento de responder a varias preguntas


que surgían en los juegos de azar, por ejemplo saber cuántas veces se han de lanzar un
par de dados para que la probabilidad de que salga seis sea el 50 por ciento.

La probabilidad de un resultado se representa con un número entre 0 y 1, ambos


inclusive. La probabilidad 0 indica que el resultado no ocurrirá nunca, y la probabilidad 1
que el resultado ocurrirá siempre. Los problemas más sencillos estudian la probabilidad
de un suceso favorable en un experimento o acontecimiento con un número finito de
resultados, todos ellos con igual probabilidad de ocurrir.

Si un experimento tiene n posibles resultados, y f de ellos se consideran favorables, la


probabilidad de un suceso favorable es f/n . Por ejemplo, un dado no trucado se puede
lanzar de seis formas posibles, por tanto, la probabilidad de que salga un 5 ó un 6 es 2/6.

Problemas más complicados estudian acontecimientos en que los distintos resultados


tienen distintas probabilidades de ocurrir. Por ejemplo, encontrar la probabilidad de que
salga 5 ó 6 al lanzar un par de dados: los distintos resultados (2, 3,…12) tienen distintas
probabilidades. Algunos experimentos pueden incluso tener un número infinito de posibles
resultados, como la probabilidad de que una cuerda de circunferencia dibujada
aleatoriamente sea de longitud mayor que el radio.

Los problemas que estudian experimentos repetitivos relacionan la probabilidad y la


estadística. Algunos ejemplos: encontrar la probabilidad de obtener 5 veces un 3 y al
menos 4 veces un 6 al lanzar un dado, sin hacer trampas, 50 veces; si una persona lanza
una moneda al aire y da un paso hacia delante si sale cara y un paso hacia atrás si sale
cruz, calcular la probabilidad de que, después de 50 pasos, la persona esté a menos de
10 pasos del origen.

El uso más generalizado de la probabilidad es su utilización en el análisis estadístico. Por


ejemplo, la probabilidad de sacar 7 al lanzar dos dados es 1/6, lo que significa (se
interpreta como) que al lanzar dos dados aleatoriamente y sin hacer trampas, un gran
número de veces, alrededor de un sexto de los lanzamientos darán 7.
La probabilidad matemática se utiliza mucho en las ciencias físicas, biológicas y sociales,
así como en el comercio y la industria. Se aplica a muchas áreas tan dispares como la
genética, la mecánica cuántica y los seguros. También estudia problemas matemáticos
teóricos de gran importancia y dificultad y está bastante relacionada con la teoría del
análisis matemático, que se desarrolló a partir del cálculo.

Cálculo o medición de la probabilidad

La probabilidad mide la mayor o menor posibilidad de que se dé un determinado resultado


(suceso o evento) cuando se realiza un experimento aleatorio.

Para calcular la probabilidad de un evento se toma en cuenta todos los casos posibles de
ocurrencia del mismo; es decir, de cuántas formas puede ocurrir determinada situación.

Los casos favorables de ocurrencia de un evento serán los que cumplan con la condición
que estamos buscando.

La probabilidad toma valores entre 0 y 1 (o expresados en tanto por ciento, entre 0% y


100%):

El valor cero corresponde al suceso imposible; ejemplo: lanzamos un dado al aire y la


probabilidad de que salga el número 7 es cero.

El valor uno corresponde al suceso seguro, ejemplo: lanzamos un dado al aire y la


probabilidad de que salga cualquier número del 1 al 6 es igual a uno (100%).

El resto de sucesos tendrá probabilidades entre cero y uno: que será tanto mayor cuanto
más probable sea que dicho suceso tenga lugar.

Métodos de medición de Probabilidad

Uno de los métodos más utilizados es aplicando la Regla de Laplace: define la


probabilidad de un suceso como el cociente entre casos favorables y casos posibles.

Ejemplos:

a) Probabilidad de que al lanzar un dado salga el número 2: el caso favorable (f) es tan
sólo uno (que salga el dos), mientras que los casos posibles (n) son seis (puede salir
cualquier número del uno al seis).

Por lo tanto:

(o lo que es lo mismo, 16,6%)

b) Probabilidad de que al lanzar un dado salga un número par: en este caso los casos
favorables (f) son tres (que salga el dos, el cuatro o el seis), mientras que los casos
posibles (n) siguen siendo seis.
Por lo tanto:

(o lo que es lo mismo, 50%)

c) Probabilidad de que al lanzar un dado salga un número menor que 5: en este caso
tenemos cuatro casos favorables (f) (que salga el uno, el dos, el tres o el cuatro), frente a
los seis casos posibles.

Por lo tanto:

(o lo que es lo mismo, 66,6%)

d) Probabilidad de ganarse el premio mayor de una lotería en la que juegan 100.000


númerosnos: tan sólo un caso favorable (f), el número que jugamos, frente a los 100.000
casos posibles (n).

Por lo tanto:

(o lo que es lo mismo, 0,001%)

d) Probabilidad al lanzar una moneda, con un águila en una cara y un sol en la otra. Hay
dos casos posibles (n) de ocurrencia (o cae águila o cae sol) y sólo un caso favorable (f)
de que pueda caer águila (pues sólo hay un águila en la moneda).

Por lo tanto:

(o, lo que es lo mismo, 50 %)

Existe una probabilidad del 50% de obtener un águila al tirar una moneda.

e) Probabilidad de elegir tal o cual fruta. Si en una canasta hay 20 peras y 10 manzanas.
¿Qué fruta es más probable que saque al azar de la canasta?

Para este ejemplo tenemos que 30 es el total de frutas en la canasta; es decir los casos
posibles (n). Para calcular la probabilidad de sacar una manzana los casos favorables (f)
son 10 puesto que existen sólo 10 manzanas.

Por lo tanto:

(o, lo que es lo mismo, 33,3 %)

(o, lo que es lo mismo, 66,7 %)


Fíjate bien que 33,3% + 66,7% es igual al 100% porque siempre que saquemos algo de la
canasta es seguro que será una fruta.

Condiciones importantes

Para poder aplicar la Regla de Laplace el experimento aleatorio tiene que cumplir dos
requisitos:

a) El número de resultados posibles (sucesoso eventos) tiene que ser finito. Si hubiera
infinitos resultados, al aplicar la regla "casos favorables dividido por casos posibles" el
cociente siempre sería cero.
b) Todos los sucesos o eventos tienen que tener la misma probabilidad. Si al lanzar un
dado, algunas caras tuvieran mayor probabilidad de salir que otras, no podríamos aplicar
esta regla.

A la regla de Laplace también se le denomina "probabilidad a priori", ya que para aplicarla


hay que conocer antes de realizar el experimento cuales son los posibles resultados y
saber que todos tienen las mismas probabilidades.

Cuando se realiza un experimento aleatorio un número muy elevado de veces, las


probabilidades de los diversos posibles sucesos empiezan a converger hacia valores
determinados, que son sus respectivas probabilidades.

Ejemplo:

Si lanzo una vez una moneda al aire y sale "cara", quiere decir que el suceso "cara" ha
aparecido el 100% de las veces y el suceso "cruz" el 0%.
Si lanzo diez veces la moneda al aire, es posible que el suceso "cara" salga 7 veces y el
suceso "cruz" las 3 restantes. En este caso, la probabilidad del suceso "cara" ya no sería
del 100%, sino que se habría reducido al 70%.
Si repito este experimento un número elevado de veces, lo normal es que las
probabilidades de los sucesos "cara" y "cruz" se vayan aproximando al 50% cada una.
Este 50% será la probabilidad de estos sucesos según el modelo frecuentista.

También podría gustarte