Está en la página 1de 11

Definición axiomática de probabilidad

La definición axiomática de Kolmogorov, como tal, no hace aportación a la


naturaleza del concepto de probabilidad, cuestión de gran interés para muchos
investigadores que, desde finales del siglo XIX, se han preocupado de analizar la
naturaleza e interpretación de la probabilidad en relación con la gran diversidad de
problemas a los que dicho concepto se aplica en el mundo real.

Los distintos puntos de vista, a veces totalmente opuestos en cuanto a la


interpretación y tipo de situaciones a los que debe aplicarse el concepto, han dado
lugar a diferentes definiciones formales de probabilidad, aunque todas ellas son
compatibles con la axiomática establecida por Kolmogorov

Definición clásica de probabilidad


Aunque existen contribuciones previas bastante significativas en Cálculo de
Probabilidades, la primera definición formal de probabilidad no aparece hasta 1812
en la obra “Théorie Analytique des Probabilités”, en la que Pierre Simón de
Laplace formaliza la hoy denominada definición clásica o regla de Laplace,
inherente en todas las primeras aplicaciones.

Esta definición está basada en el denominado principio de la razón insuficiente, o


principio de indiferencia, que establece que, en cualquier situación de
incertidumbre, las distintas alternativas deben considerarse equiprobables si no
hay razón para esperar una más que otra.

De esta forma, si se trabaja en un dominio finito de alternativas (experimentos con


espacio muestral finito), se define la probabilidad de un suceso como la razón
entre el número de alternativas favorables y posibles.

Inconvenientes y críticas:

 Las principales críticas a esta definición surgen por el hecho de involucrar el


propio concepto, al definir la probabilidad en un conjunto de alternativas
equiprobables.
 No es aplicable a situaciones reales que involucren un conjunto no finito de
posibles resultados, lo que limita de manera clara su alcance.
 Su aplicación conlleva el problema de especificar correctamente las
alternativas equiprobables del problema, lo que a veces puede crear
confusión.

Por ejemplo, si se quiere calcular la probabilidad de que al lanzar dos monedas


salgan dos caras, y se consideran como posibles alternativas las del conjunto

{dos caras, dos cruces, una cara y una cruz},

al aplicar esta definición obtendríamos que la probabilidad de salir dos caras es


1/3. Sin embargo, la solución es incorrecta, puesto que las tres alternativas
consideradas no son equiprobables.

De hecho, la tercera puede descomponerse en dos, y las alternativas


equiprobables son

{CC, XX, CX, XC},

donde cada una de ellas expresa el resultado de la primera moneda seguido del
resultado de la segunda. Por tanto, la probabilidad de salir dos caras es realmente
1/4.

A pesar de estos inconvenientes, la definición clásica ha sido y es de gran utilidad


para la resolución de gran cantidad de problemas de probabilidad elementales en
los que se satisfacen los requisitos para su aplicación.

Definición de frecuentista de probabilidad

La concepción frecuentista de probabilidad comenzó a desarrollarse a finales del


siglo XIX a raíz de las críticas realizadas a la definición clásica de Laplace.

Aunque ya en 1866 John Venn formalizo la idea de definir la probabilidad como


límite de frecuencias relativas, la definición frecuentista no fue formalmente
establecida hasta 1928 en la obra “Probability, Statistics and Truth”de Richard von
Mises.
La definición se basa en el concepto de frecuencia relativa de un suceso asociado
a un experimento aleatorio que puede repetirse indefinidamente bajo idénticas
condiciones.

Se define la frecuencia relativa de un suceso A en N repeticiones del experimento


como el cociente entre el número de veces que aparece dicho suceso, que
notaremos N A , y el número de repeticiones del experimento:

NA
f N ( A )=
N

La teoría frecuentista se apoya sobre una base empírica y, concretamente, en el


denominado principio de estabilidad o de regularidad de frecuencias, inherente en
todas las primeras aplicaciones, según el cual, si el número de repeticiones del
experimento bajo idénticas condiciones crece indefinidamente, las frecuencias
relativas de cualquier suceso tienden a estabilizarse.

Más específicamente, bajo la perspectiva frecuentista se asegura que la sucesión


de frecuencias relativas de cualquier suceso converge, y se define la probabilidad
del suceso como dicho límite:

P ( A )= lim f N (A )
N→∞

Es inmediato comprobar que esta definición es también coherente con la definición


axiomática de Kolmogorov.

En efecto, si Ω representa el espacio muestral asociado al experimento en


cuestión, entonces:

P(A) ≥ 0 (ya que f N (A) ≥ 0, ∀N ∈ N).

P(Ω) = 1 (ya que f N (Ω) = 1, ∀N ∈ N).

Si { Ai } i∈ N son incompatibles dos a dos, entonces P i∈∪N A i =i∑


( )∈N
P( A i) (si los

sucesos son incompatibles dos a dos, el número de apariciones del suceso unión
en N repeticiones del experimento es la suma del número de apariciones de cada
uno de ellos y, por tanto, su frecuencia relativa es la suma de las frecuencias
relativas).

Inconvenientes y críticas:

 Las principales críticas a esta definición se refieren a su irrelevancia en el


mundo real: ya que en la realidad no puede afirmarse la existencia de una
sucesión ilimitada de repeticiones idénticas de un experimento, nunca
puede asegurarse si verdaderamente existe el límite de las frecuencias
relativas de un suceso, cuánto vale dicho límite o si el valor asignado (la
probabilidad del suceso) es o no correcto.
 Otra de las críticas frecuentes se refiere a su alcance: aunque no cabe
duda de que esta definición cubre un gran número de situaciones prácticas,
no es aplicable a situaciones que no sean susceptibles de experimentación.

Sin embargo, su base empírica ha motivado una amplia aceptación de esta


definición en distintas ciencias experimentales que usan repetidamente los
métodos estadísticos clásicos cuyo desarrollo ha estado basado en la concepción
frecuentista de probabilidad.

Definición subjetiva de probabilidad

En contraposición con las interpretaciones previas, que consideran la probabilidad


como una propiedad objetiva de cada suceso, existe una gran parte de
probabilistas que entienden la probabilidad como un concepto subjetivo.

Específicamente, bajo la concepción subjetiva, la probabilidad de un suceso se


entiende como el grado de creencia que un determinado individuo posee sobre la
posibilidad de ocurrencia de dicho suceso.

Las primeras ideas subjetivas aparecen ya en el siglo XIX, pero el desarrollo


sistemático de esta teoría se debe esencialmente a probabilistas del siglo XX
como Frank Ramsey, Bruno de Finetti y Leonard Savage. Ellos formalizaron la
idea de medir los grados de creencia de un individuo de acuerdo con un sistema
de apuestas, probando que un comportamiento racional del individuo le conduce a
ordenar sus grados de creencia de forma coherente, determinando una función de
probabilidad consistente con la axiomática de Kolmogorov.

Inconvenientes y críticas:

 La principal crítica radica en la propia concepción de la probabilidad desde


este punto de vista; esto es, la falta de objetividad. Fundamentalmente, los
detractores de esta teoría se basan en que nunca opiniones y, por tanto,
probabilidades subjetivas, pueden servir de base para investigaciones
científicas.

Sin embargo, está claro que la probabilidad subjetiva extiende el campo de


aplicación del Cálculo de Probabilidades, permitiendo hablar de probabilidad en
situaciones no experimentales, en las que la definición frecuentista no es aplicable
(por ejemplo, probabilidad de que llueva mañana, probabilidad de que un
determinado equipo gane un partido de fútbol, etc.).

Finalmente, debemos indicar que esta concepción ha tenido una gran influencia en
las aplicaciones estadísticas, dando lugar a la denominada escuela bayesiana de
estadísticos que, a diferencia de los clásicos, asumen esta concepción, lo que les
permite desarrollar numerosas técnicas de inferencia de gran aplicación en
diversas áreas de conocimiento
Probabilidad condicionada
Como la probabilidad está ligada a nuestra ignorancia sobre los resultados de la
experiencia, el hecho de que ocurra un suceso puede cambiar la probabilidad de
los demás. El proceso de realizar la historia clínica, explorar y realizar pruebas
complementarias ilustra este principio.
La probabilidad de que ocurra el suceso A si ha ocurrido el suceso B se
denomina probabilidad condicionada y se define

Esta definición es consistente, es decir cumple los axiomas de probabilidad.


Cuando ocurre un suceso cambia el espacio muestral, por eso cambia la
probabilidad. A veces es más fácil calcular la probabilidad condicionada teniendo
en cuenta este cambio de espacio muestral.

Ejemplo:

Una urna contiene 10 bolas, de las cuales 3 son rojas, 5 verdes y 2 azules. Se
extraen al azar 3 bolas. Calcular la probabilidad de que la primera sea azul, y los
otros dos verdes.

Definimos A1= {la 1ª bola es azul}; A2= {la 2ª bola es verde}; A3 = {la 3ª bola es
verde}
p( A1) = 2/10 aplicando la definición clásica de probabilidad, puesto que hay 10
bolas y 2 son verdes.
p( A2| A1) = 5/9; si la primera bola extraída es azul, en la urna quedan 9 bolas, 5 de
ellas verdes.
p( A3 | A1 ∩  A2) = 4/8; si la primera bola extraída es azul y la segunda verde en la
urna quedan 8 bolas, 4 de ellas verdes.
p( A1 ∩  A2 ∩  A3 ) = 2/10 x 5/9 x 4/8 = 1/18
Eventos independientes

Dos eventos A y B son independientes si la ocurrencia de cualquiera de los dos no afecta


la probabilidad de la ocurrencia

P (A\B) = P (A) * P (B)

Ejemplo:

Se lanza una moneda 3 veces y se supone que los 8 resultados posibles son
igualmente probables.

{SSS, SSA, SAS, ASS, SAA, ASA, AAS, AAA}

Si A es el evento de que un sol ocurra en cada uno de los primeros lanzamientos


B es el evento de un águila ocurren en el tercer lanzamiento C es el evento que
exactamente dos cruces ocurran en tres lanzamientos. Demuestre que:

a) Los eventos A y B son independientes


b) Los eventos B y C son independientes

A= SSS, SSA

B= SSA, SAA, ASA, AAA

C= SAA, ASA, AAS, AAA

0.125=0.25*0.5

0.125=0.125

0.375=0.5*0.5

0.375=0.375

     Encuentre las probabilidades de obtener

a) Tres caras en 3 lanzamientos aleatorios de una moneda balanceada


b) Se obtienen 4 seises y después otro número en 5 lanzamientos aleatorios
de un dado balanceado

 
Resultados;

½*1/2*1/2*1/2= 1/8

P (A)= 1/8= 0.125

P (B)= 1/6 * 1/6 * 1/6 * 1/6= 0.00077*5/6=0.00064

Teorema de Bayes

El teorema de Bayes es un procedimiento para obtener probabilidades


condicionales (probabilidades de ocurrencia de acontecimientos condicionadas a
la ocurrencia de otros acontecimientos). La expresión del teorema de Bayes para
dos variables discretas es:

Para variables que toman más de dos valores, la expresión es:

El teorema de Bayes da respuesta a cuestiones de tipo causal, predictivas y de


diagnóstico. En las cuestiones causales queremos saber cuál es la probabilidad de
acontecimientos que son la consecuencia de otros acontecimientos. En las
cuestiones predictivas queremos saber cuál es la probabilidad de acontecimientos
dada información de la ocurrencia de los acontecimientos predictores. En las
cuestiones de tipo diagnóstico queremos saber cuál es la probabilidad del
acontecimiento (o acontecimientos) causales o predictivos dado que tenemos
información de las consecuencias. Para resumir, en las situaciones causales o
predictivas desconocemos las consecuencias y tenemos evidencia de las causas.
Por el contrario, en las situaciones de diagnóstico desconocemos las causas y
tenemos evidencia de las consecuencias.
Ejemplo:

Unos psicólogos especializados en el tratamiento de trastornos de personalidad


están interesados en diagnosticar el trastorno que afecta un paciente, en el que
observan un conjunto de síntomas que indican que el paciente podría sufrir el
trastorno A o el trastorno B. A demás saben que los porcentajes de individuos
afectados por los trastornos A, B o ningún trastorno son 10, 30 y 70. También
saben que el porcentaje de individuos afectados por el trastorno A y que muestran
el síntoma X es igual al 60%, el porcentaje de individuos que sufren el trastorno B
y muestran el síntoma X es el 30% y el porcentaje de individuos no afectados que
muestran los síntomas de trastorno es el 10%. Resumiendo, la información que
disponemos es:

Sustituyendo en el teorema de Bayes:

la probabilidad de que el individuo padezca el trastorno A es 0.27. Las


probabilidades de que esté afectado por el trastorno B o el C son:
La conclusión es que lo más probable es que el individuo padezca el trastorno B,
pero es un valor moderado y los psicólogos piensan que hay que obtener más
evidencia.

El teorema de Bayes es especialmente adecuado para actualizar las conclusiones


a medida que disponemos de nueva información. Pasado un tiempo observan que
el paciente muestra un nuevo síntoma (Y), y saben que presentan Y el 70% de los
individuos que sufren el trastorno A, el 20% de los individuos que sufren B y el
10% de los individuos que padecen el trastorno C. Para obtener las probabilidades
incorporando la nueva información hacemos que las probabilidades posteriores
pasen a ser las probabilidades previas:

Una vez hechos los cálculos la probabilidad de que el individuo esté afectado por
el trastorno A ha pasado de 0.27 a 0.62
Concepciones. (s. f.). http://www.ugr.es. Recuperado 13 de abril de 2021, de

http://www.ugr.es/~cdpye/CursoProbabilidad/pdf/P_T01_Concepciones.pdf

Probabilidad condicionada. (s. f.). http://www.hrc.es/. Recuperado 13 de abril de 2021, de

http://www.hrc.es/bioest/Probabilidad_15.html

2.5-Eventos Independientes. (s. f.). Http://Cidecame.Uaeh.Edu.Mx/. Recuperado 13 de abril

de 2021, de

http://cidecame.uaeh.edu.mx/lcc/mapa/PROYECTO/libro19/25eventos_independie

ntes.html

1 Introducción. (s. f.). https://www.uv.es/. Recuperado 13 de abril de 2021, de

https://www.uv.es/webgid/Descriptiva/1_introduccin7.html

También podría gustarte