Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La teoría de la probabilidad es una rama de las matemáticas que estudia los fenómenos
aleatorios y estocásticos. Los fenómenos aleatorios se contraponen a los fenómenos deterministas,
los cuales son resultados únicos y/o previsibles de experimentos realizados bajo las mismas
condiciones determinadas, por ejemplo, si se calienta agua a 100 °C a nivel del mar se obtendrá
vapor. Los fenómenos aleatorios, por el contrario, son aquellos que se obtienen de experimentos
realizados, otra vez, bajo las mismas condiciones determinadas pero como resultado posible
poseen un conjunto de alternativas, por ejemplo, el lanzamiento de un dado o de una moneda.
La teoría de probabilidades se ocupa de asignar un cierto número a cada posible resultado que
pueda ocurrir en un experimento aleatorio, con el fin de cuantificar dichos resultados y saber si un
suceso es más probable que otro.
Muchos fenómenos naturales son aleatorios, pero existen algunos como el lanzamiento de un
dado, donde el fenómeno no se repite en las mismas condiciones, debido a que las características
del material hace que no exista una simetría del mismo, así las repeticiones no garantizan una
probabilidad definida. En los procesos reales que se modelizan mediante distribuciones de
probabilidad corresponden a modelos complejos donde no se conocen a priori todos los
parámetros que intervienen; ésta es una de las razones por las cuales la estadística, que busca
determinar estos parámetros, no se reduce inmediatamente a la teoría de la probabilidad en sí.
En 1933, el matemático soviético Andréi Kolmogórov propuso un sistema de axiomas para la teoría
de la probabilidad, basado en la teoría de conjuntos y en la teoría de la medida, desarrollada pocos
años antes por Lebesgue, Borel y Frechet entre otros.
Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la cual obedece a
la regla de cálculo de casos favorables sobre casos posibles, permitió la rigorización de muchos
argumentos ya utilizados, así como el estudio de problemas fuera de los marcos clásicos.
Actualmente, la teoría de la probabilidad encuentra aplicación en las más variadas ramas del
conocimiento, como puede ser la física (donde corresponde mencionar el desarrollo de las
difusiones y el movimiento Browniano), o la economía (donde destaca el modelo de Black-Scholes
para la valoración de activos financieros).
Definición de probabilidad
Historia
(1)
La moderna teoría matemática de la probabilidad tiene sus raíces en los intentos de analizar juegos
de azar por Gerolamo Cardano en el siglo xvi, y por Pierre de Fermat y Blaise Pascal en el siglo xvii
(por ejemplo el "problema de los puntos").4 Christiaan Huygens publicó un libro sobre el tema en
1657.5 En el siglo xix, lo que se considera la definición clásica de probabilidad fue completada por
Pierre Laplace.6
La primera axiomatización completa se debió a Andréi Kolmogórov (quien usó dicho enfoque por
ejemplo para deducir su "ley 0-1 para sucesos cola" y otros resultados relacionados con la
convergencia de sucesiones aleatorias). La definición axiomática de la probabilidad se basa en
resultados de la teoría de la medida y en formalizaciones de la idea de independencia
probabilística. En este enfoque se parte de un espacio de medida normalizada donde
es un conjunto llamado espacio de sucesos (según el tipo de problema puede ser un conjunto
finito, numerable o no-numerable), es una σ-álgebra de subconjuntos de y
es una medida normalizada (es decir, ). Los sucesos posibles se
consideran como subconjuntos S de eventos elementales posibles: y la
probabilidad de cada suceso viene dada por la medida de dicho conjunto:
La interpretación de esta probabilidad es la frecuencia promedio con la que aparece dicho suceso si
se considera una elección de muestras aleatorias sobre .
La definición anterior es complicada de representar matemáticamente ya que debiera ser
infinito. Otra manera de definir la probabilidad es de forma axiomática esto estableciendo las
relaciones o propiedades que existen entre los conceptos y operaciones que la componen.
La probabilidad es la característica de un evento, que hace que existan razones para creer que este
se realizará.
La probabilidad es un número (valor) que varia entre 0 y 1. Cuando el evento es imposible se dice
que su probabilidad es 0, si el evento es cierto y siempre tiene que ocurrir su probabilidad es 1.
Definición axiomática
Dentro del enfoque axiomático es posible demostrar que la ley débil de los grandes números
implica que se cumplirá que:
Definición moderna
Comienza con un conjunto infinito o contable llamado espacio muestral, que se relaciona con el
conjunto de todos los resultados posibles en sentido clásico, denotado por . Se supone entonces
que para cada elemento , se adjunta un valor intrínseco de "probabilidad" , que
satisface las siguientes propiedades:
1.
2.
Es decir, la función de probabilidad f(x) está entre cero y uno para cada valor de x en el espacio
muestral Ω, y la suma de f(x) sobre todos los valores x en el espacio muestral Ω es igual a 1. Un
event se define como cualquier subconjunto del espacio muestral . La probabilidad del suceso
se define como
La función que asigna un punto del espacio muestral al valor de "probabilidad" se denomina
«función de masa de probabilidad,» abreviada como «pmf». La definición moderna no intenta
responder cómo se obtienen las funciones de masa de probabilidad; en su lugar, construye una
teoría que asume su existencia.
Tratamiento
La mayoría de las introducciones a la teoría de la probabilidad tratan por separado las
distribuciones de probabilidad discretas y las distribuciones de probabilidad continuas. El
tratamiento de la probabilidad basado en la teoría de medidas abarca las discretas, las continuas,
una mezcla de ambas y más.
Motivación
Consideremos un experimento que puede producir una serie de resultados. El conjunto de todos
los resultados se denomina espacio muestral del experimento. El conjunto de potencias del
espacio muestral (o equivalentemente, el espacio de sucesos) se forma considerando todas las
colecciones diferentes de resultados posibles. Por ejemplo, lanzar un dado honesto produce uno de
seis resultados posibles. Una colección de resultados posibles corresponde a obtener un número
impar. Así, el subconjunto {1,3,5} es un elemento del conjunto de potencias del espacio muestral
de las tiradas de dados. Estas colecciones se denominan sucesos. En este caso, {1,3,5} es el suceso
de que el dado caiga en algún número impar. Si los resultados que realmente ocurren caen en un
evento dado, se dice que ese evento ha ocurrido.
La probabilidad es una forma de asignar a cada "suceso" un valor entre cero y uno, con el requisito
de que al suceso formado por todos los resultados posibles (en nuestro ejemplo, el suceso
{1,2,3,4,5,6}) se le asigne un valor de uno. Para calificar como una distribución de probabilidad, la
asignación de valores debe satisfacer el requisito de que si se observa una colección de sucesos
mutuamente excluyentes (sucesos que no contienen resultados comunes, por ejemplo, los sucesos
{1,6}, {3} y {2,4} son todos mutuamente excluyentes), la probabilidad de que ocurra cualquiera de
estos sucesos viene dada por la suma de las probabilidades de los sucesos.7
La probabilidad de que ocurra cualquiera de los sucesos {1,6}, {3}, o {2,4} es de 5/6. Esto es lo
mismo que decir que la probabilidad del suceso {1,2,3,4,6} es 5/6. Este suceso abarca la posibilidad
de que salga cualquier número excepto cinco. El suceso mutuamente excluyente {5} tiene una
probabilidad de 1/6, y el suceso {1,2,3,4,5,6} tiene una probabilidad de 1, es decir, certeza absoluta.
Cuando se hacen cálculos utilizando los resultados de un experimento, es necesario que todos esos
sucesos elementaless tengan un número asignado. Para ello se utiliza una variable aleatoria. Una
variable aleatoria es una función que asigna a cada suceso elemental del espacio muestral un
número real. Esta función suele denotarse con una letra mayúscula.8 En el caso de un dado, la
asignación de un número a ciertos sucesos elementales puede hacerse utilizando la función de
identidad. Esto no siempre funciona. Por ejemplo, al tirar una moneda los dos resultados posibles
son "cara" y "cruz". En este ejemplo, la variable aleatoria X podría asignar al resultado "cara" el
número "0" ( ) y al resultado "cruz" el número "1" ( ).
Variables aleatorias
Una variable aleatoria es una función medible
que da un valor numérico a cada suceso elemental .
Probabilidad discreta
Este tipo de probabilidad, es aquel que puede tomar solo ciertos valores diferentes que son el
resultado de la cuenta de alguna característica de interés. Más exactamente, un problema de
probabilidad discreta es un problema definido por un conjunto de variables aleatorias que solo
pueden tomar un conjunto finito o infinito numerable de valores diferentes:
donde:
Probabilidad continua
La distribución de probabilidad se puede definir para cualquier variable aleatoria X, ya sea de tipo
continuo o discreto, mediante la siguiente relación:
Para una variable aleatoria discreta esta función no es continua sino constante a tramos (siendo
continua por la derecha pero no por la izquierda). Para una variable aleatoria general la función de
distribución puede descomponerse en una parte continua y una parte discreta:
Teoría de la probabilidad
La teoría de la probabilidad moderna incluye temas de las siguientes áreas:
Véase también
Distribución de probabilidad
Epistemología bayesiana
Estadística
Interpretaciones de las probabilidades
Referencias
1. Inferir a partir de datos
2. Lógica cuántica y teoría de la probabilidad (https://plato.stanford.edu/entries/qt-quantlog/). The
Stanford Encyclopedia of Philosophy. 10 de agosto de 2021.
3. « "Los orígenes y el legado de los Grundbegriffe de Kolmogorov", por Glenn Shafer y Vladimir
Vovk» (http://www.probabilityandfinance.com/articles/04.pdf). Consultado el 12 de febrero de
2012.
4. LIGHTNER, JAMES E. (1991). «Una breve mirada a la historia de la probabilidad y la
estadística» (https://www.jstor.org/stable/27967334). The Mathematics Teacher 84 (8): 623-
630. ISSN 0025-5769 (https://portal.issn.org/resource/issn/0025-5769). JSTOR 27967334 (https://www.jstor.org/s
table/27967334). doi:10.5951/MT.84.8.0623 (https://dx.doi.org/10.5951%2FMT.84.8.0623).
5. Grinstead, Charles Miller; James Laurie Snell. «Introduction». Introducción a la probabilidad.
pp. vii.
6. Daston, Lorraine J. (1980). «Expectativa probabilística y racionalidad en la teoría clásica de la
probabilidad» (https://dx.doi.org/10.1016/0315-0860%2880%2990025-7). Historia Mathematica
7 (3): 234-260. doi:10.1016/0315-0860(80)90025-7 (https://dx.doi.org/10.1016%2F0315-0860%2880%2990025
-7).
7. Ross, Sheldon (2010). Un primer curso de probabilidad (https://books.google.com/books?id=Bc
1FAQAAIAAJ&pg=PA26) (8th edición). Pearson Prentice Hall. pp. 26-27. ISBN 978-0-13-603313-4.
Consultado el 28 de febrero de 2016.
8. Bain, Lee J.; Engelhardt, Max (1992). Introducción a la probabilidad y estadística matemática
(2ª edición). Belmont, California: Brooks/Cole. p. 53. ISBN 978-0-534-38020-5.
Bibliografía
P. Ibarrola, L. Pardo y V. Quesada (1997): Teoría de la Probabilidad, Ed. Síntesis, ISBN 84-
7738-516-5.
Spiegel, Murray. 1970. Estadística, McGraw-Hill, México.
Olav Kallenberg, Probabilistic Symmetries and Invariance Principles. Springer-Verlag, New
York (2005). 510 pp. ISBN 0-387-25115-4
Kallenberg, O., Foundations of Modern Probability, 2nd ed. Springer Series in Statistics.
(2002). 650 pp. ISBN 0-387-95313-2
Enlaces externos
Wikimedia Commons alberga una categoría multimedia sobre Teoría de la probabilidad.
Obtenido de «https://es.wikipedia.org/w/index.php?title=Teoría_de_la_probabilidad&oldid=157602468»