Explora Libros electrónicos
Categorías
Explora Audiolibros
Categorías
Explora Revistas
Categorías
Explora Documentos
Categorías
La Probabilidad y la Estadística se encargan del estudio del azar desde el punto de vista
de las matemáticas:
La Probabilidad propone modelos para los fenómenos aleatorios, es decir, los que se
pueden predecir con certeza, y estudia sus consecuencias lógicas.
La Estadística ofrece métodos y técnicas que permiten entender los datos a partir de
modelos.
Probabilidad
Estadística
Historia de la Probabilidad
Por su parte, los juegos con dados se practicaron ininterrumpidamente desde los tiempos
del Imperio Romano hasta el Renacimiento, aunque no se conoce apenas las reglas con
las que jugaban. Uno de estos juegos, denominado "hazard", palabra que en inglés y
francés significa riesgo o peligro, fue introducido en Europa con la Tercera Cruzada. Las
raíces etimológicas del término provienen de la palabra árabe "al-azar", que significa
"dado". Posteriormente, en el "Purgatorio" de Dante el término aparece ya como "azar".
En la actualidad, ruletas, máquinas tragaperras, loterías, quinielas, nos indican que dicha
fascinación del hombre por el juego, continúa.
Durante el siglo XVIII, debido muy particularmente a la popularidad de los juegos de azar,
el cálculo de probabilidades tuvo un notable desarrollo sobre la base de la anterior
definición de probabilidad. Destacan en 1713 el teorema de Bernoulli y la distribución
binomial, y en 1738 el primer caso particular estudiado por De Moivre » , del teorema
central del límite. En 1809 Gauss » inició el estudio de la teoría de errores y en 1810
Laplace, que había considerado anteriormente el tema, completó el desarrollo de esta
teoría. En 1812 Pierre Laplace » publicó Théorie analytique des probabilités en el que
expone un análisis matemático sobre los juegos de azar.
A mediados del siglo XIX, un fraile agustino austríaco, Gregor Mendel, inició el estudio de
la herencia, la genética, con sus interesantes experimentos sobre el cruce de plantas de
diferentes características. Su obra, La matemática de la Herencia, fue una de las primeras
aplicaciones importantes de la teoría de probabilidad a las ciencias naturales.
Desde los orígenes la principal dificultad para poder considerar la probabilidad como una
rama de la matemática fue la elaboración de una teoría suficientemente precisa como
para que fuese aceptada como una forma de matemática. A principios del siglo XX el
matemático ruso Andrei Kolmogorov » la definió de forma axiomática y estableció las
bases para la moderna teoría de la probabilidad que en la actualidad es parte de una
teoría más amplia como es la teoría de la medida.
Historia de la Combinatoria
El problema de los cuadrados mágicos, que son matrices de números con la propiedad de
que la suma de los elementos de cualquier columna, fila o diagonal es el mismo número,
aparece en un viejo libro chino fechado 2200 a. C. Los cuadrados mágicos de orden 3
fueron estudiados con fines místicos.
Los coeficientes binominales, que son los coeficientes enteros del desarrollo de (a+b)
fueron conocidos en el siglo XII.
Se puede considerar que en Occidente la combinatoria surge en el siglo XVII con los
trabajos de Blaise Pascal y de Pierre Fermat sobre la teoría de juegos de azar. Estos
trabajos, que formaron los fundamentos de la teoría de la probabilidad, contenían
asimismo los principios para determinar el número de combinaciones de elementos de un
conjunto finito, y así se estableció la tradicional conexión entre combinatoria y
probabilidad.
El término “combinatoria” tal y como lo usamos actualmente fue introducido por Wihem
Leibniz en su Dissertartio de Arte Combinatoria. De gran importancia para la
consolidación de la combinatoria fue el artículo de Ars Conjectandi (el arte de conjeturar)
de J.Bernouilli » ; este trabajo estaba dedicado a establecer las nociones básica de
probabilidad. Para esto fue necesario introducir también un buen número de nociones
básicas de combinatoria pues se usaron fuertemente como aplicaciones al cálculo de
probabilidades. Se puede decir que con los trabajos de Leibniz y Bernoulli se inicia el
establecimiento de la combinatoria como una nueva e independiente rama de las
matemáticas.
El matemático suizo Leonard Euler fue quien desarrolló a principios del siglo XVIII una
auténtica escuela de matemática combinatoria. En sus artículos sobre la partición y
descomposición de enteros positivos en sumandos, estableció las bases de uno de los
métodos fundamentales para el cálculo de configuraciones combinatorias, que es el
método de las funciones generadoras. También se le considera el padre de la teoría de
grafos por el planteamiento y solución de los problemas de los “Puentes de Konigsberg”
usando por primera vez conceptos y métodos de teoría de grafos. Los primeros
problemas de teoría de grafos surgieron de la búsqueda de solución a algunos problemas
cotidianos y también en el planteamiento de algunos acertijos matemáticos tales como el
problema de los Puentes de Konigsberg, la colocación de reinas en un tablero de ajedrez
con alguna restricción, problemas de transporte, el problema del viajero, etc.
En Inglaterra a finales del siglo XIX Arthur Cayley (motivado por le problema de calcular el
número de isómetros de hidrocarburos saturados) hizo importantes contribuciones a la
teoría de enumeración de grafos. Por este tiempo el matemático George Boole usó
métodos de combinatoria en conexión con el desarrollo de la lógica simbólica y con las
ideas y métodos que Henri Poincaré desarrolló en relación con problemas de topología.
Uno de los factores más importantes que han contribuido al gran desarrollo que ha tenido
la combinatoria desde 1920 es la teoría de grafos, la importancia de esta disciplina estriba
en el hecho de que los grafos pueden servir como modelos abstractos parar modelar una
gran variedad de relaciones entre objetos de un conjunto.
Las probabilidades constituyen una rama de las matemáticas que se ocupa de medir o
determinar cuantitativamente la posibilidad de que un suceso o experimento produzca un
determinado resultado. La probabilidad está basada en el estudio de la combinatoria y es
fundamento necesario de la estadística.
Para calcular la probabilidad de un evento se toma en cuenta todos los casos posibles de
ocurrencia del mismo; es decir, de cuántas formas puede ocurrir determinada situación.
Los casos favorables de ocurrencia de un evento serán los que cumplan con la condición
que estamos buscando.
El resto de sucesos tendrá probabilidades entre cero y uno: que será tanto mayor cuanto
más probable sea que dicho suceso tenga lugar.
Ejemplos:
a) Probabilidad de que al lanzar un dado salga el número 2: el caso favorable (f) es tan
sólo uno (que salga el dos), mientras que los casos posibles (n) son seis (puede salir
cualquier número del uno al seis).
Por lo tanto:
b) Probabilidad de que al lanzar un dado salga un número par: en este caso los casos
favorables (f) son tres (que salga el dos, el cuatro o el seis), mientras que los casos
posibles (n) siguen siendo seis.
Por lo tanto:
c) Probabilidad de que al lanzar un dado salga un número menor que 5: en este caso
tenemos cuatro casos favorables (f) (que salga el uno, el dos, el tres o el cuatro), frente a
los seis casos posibles.
Por lo tanto:
Por lo tanto:
d) Probabilidad al lanzar una moneda, con un águila en una cara y un sol en la otra. Hay
dos casos posibles (n) de ocurrencia (o cae águila o cae sol) y sólo un caso favorable (f)
de que pueda caer águila (pues sólo hay un águila en la moneda).
Por lo tanto:
Existe una probabilidad del 50% de obtener un águila al tirar una moneda.
e) Probabilidad de elegir tal o cual fruta. Si en una canasta hay 20 peras y 10 manzanas.
¿Qué fruta es más probable que saque al azar de la canasta?
Para este ejemplo tenemos que 30 es el total de frutas en la canasta; es decir los casos
posibles (n). Para calcular la probabilidad de sacar una manzana los casos favorables (f)
son 10 puesto que existen sólo 10 manzanas.
Por lo tanto:
Condiciones importantes
Para poder aplicar la Regla de Laplace el experimento aleatorio tiene que cumplir dos
requisitos:
a) El número de resultados posibles (sucesoso eventos) tiene que ser finito. Si hubiera
infinitos resultados, al aplicar la regla "casos favorables dividido por casos posibles" el
cociente siempre sería cero.
b) Todos los sucesos o eventos tienen que tener la misma probabilidad. Si al lanzar un
dado, algunas caras tuvieran mayor probabilidad de salir que otras, no podríamos aplicar
esta regla.
Ejemplo:
Si lanzo una vez una moneda al aire y sale "cara", quiere decir que el suceso "cara" ha
aparecido el 100% de las veces y el suceso "cruz" el 0%.
Si lanzo diez veces la moneda al aire, es posible que el suceso "cara" salga 7 veces y el
suceso "cruz" las 3 restantes. En este caso, la probabilidad del suceso "cara" ya no sería
del 100%, sino que se habría reducido al 70%.
Si repito este experimento un número elevado de veces, lo normal es que las
probabilidades de los sucesos "cara" y "cruz" se vayan aproximando al 50% cada una.
Este 50% será la probabilidad de estos sucesos según el modelo frecuentista.