Está en la página 1de 12

1.

Introducción a la teoría de la probabilidad


1.1. Enfoques de la probabilidad (clásico, frecuentista y subjetivo)
Enfoque frecuentista
Se entiende por probabilidad frecuentista que por cuantas más veces se repita el experimento, al
final las posibilidades de que ocurra cada uno de los sucesos será regular. Aunque cualquier
comportamiento sea aleatorio, por proceso empírico llegaremos a una regularidad. Es cuando se
lanza un dado y suponiendo cuantas veces cae el número que se seleccionó.

La estadística que estamos acostumbrados a utilizar es la estadística frecuentista, que es la que se


desarrolla a partir de los conceptos de probabilidad y que se centra en el cálculo de probabilidades
y los contrastes de hipótesis.

Utilizando la fórmula del límite cuando tiende a infinito de y nos da la probabilidad del

suceso o más gráficamente:


Por tanto, la forma de calcular la probabilidad es usar la frecuencia relativa, ya que si se trata
de un experimento aleatorio en el cual se repite muchas veces, la frecuencia relativa se
acercara mucho a la probabilidad del suceso .

Enfoque clásico
Los resultados de un experimento son igualmente viables, es decir, tienen teóricamente las
mismas posibilidades de ocurrir.
En este caso la probabilidad de ocurrencia de un evento será:
Número de resultados en los que se presenta el evento / número total de resultados posibles

Por ejemplo, la probabilidad de que en una baraja francesa de 52 cartas salga el cinco de trébol es
de 1/52.

Enfoque subjetivo
Se basan en las creencias e ideas en que se realiza la evaluación de las probabilidades y se define
como en aquella que un evento asigna el individuo basándose en la evidencia disponible (el
individuo asigna la probabilidad en base a su experiencia).

La probabilidad subjetiva puede tener forma de frecuencia relativa de ocurrencia anterior o


simplemente puede consistir en una conjetura inteligente N.

Para clarificar lo antes dicho un ejemplo muy común es el pronóstico del tiempo, muchos
individuos como nosotros realizamos una predicción personal de como seran las condiciones
climáticas para el día, basadas más en nuestra experiencia personal pero que muchas veces
sustentamos en experiencia de eventos pasados.

La asignación de probabilidad subjetiva se dan generalmente cuando los eventos ocurren solo 1
vez y a lo máximo unas cuantas veces más.
Sin embargo en las organizaciones a pesar de que es común tomar decisiones en base a la
probabilidad subjetiva la mayoría de las veces esta se respalda con datos futuros estadísticos.
Definición formal de Probabilidad
Los anteriores conceptos de lo que debería ser la probabilidad de un suceso, llevaron a Kolmogorov
a dar una definición axiomática de probabilidad. Es decir, a introducir rigor matemático en el
concepto de probabilidad, de forma que se pudiera desarrollar una teoría sólida sobre el concepto
definido.
Así, llamaremos probabilidad a una aplicación
P:A [0, 1]
tal que
 Axioma 1: Para todo suceso A de A sea P(A) 0.
 Axioma 2: Sea P(Ω) = 1

 Axioma 3: Para toda colección de sucesos incompatibles, {Ai} con Ai Aj = , debe


ser:

Obsérvese que esta definición no dice cómo asignar las probabilidades ni siquiera a los sucesos
elementales. Solo dice que cualquier asignación que hagamos debe verificar estos tres axiomas para
que pueda llamarse Probabilidad.
Toda probabilidad cumple una serie de propiedades, las cuales se obtienen como consecuencia de
los axiomas que debe de cumplir. A continuación vamos a.demostrar las más importantes:
1. P( ) = 0.
En efecto: Si consideramos la sucesión infinita

es

por lo que, por el axioma 3, deberá ser:

es decir,

P(A)=P(A) + P(Ai)
de donde se deduce que P(Ai)= P( ), para todo i=2,...., no debe sumar nada, es decir, debe
ser
P( ) = 0.
2. Se cumple la aditividad finita para sucesos incompatibles. Es decir,

si Ai Aj= ,i j
En efecto: Basta considerar la sucesión

y aplicar de nuevo el axioma 3 y luego la propiedad anterior, quedando

es decir, la propiedad deseada.


3. La probabilidad del complementario de un suceso A es
P (A') = 1 - P(A)
En efecto: Aplicando primero el axioma 2 y luego la aditividad finita acabada de demostrar,
será
P (A U A') = P(Ω) = 1
y
P(A) + P(A') = 1
de donde se obtiene la propiedad propuesta.
4. Si dos sucesos son tales que A B, entonces P(A) <P(B).
En efecto: B se puede poner de la forma
B=A (B - A)
con lo que, por la aditividad finita de la probabilidad, será
P(B) = P(A) + P(B - A)
La propiedad enunciada se tendrá ahora como consecuencia de ser P(B - A) > 0 por el axioma
1.
5. La probabilidad de todo suceso A es un número entre 0 y 1:
0 < P(A) < 1.
En efecto: De hecho, el que sea mayor que cero es una de las exigencias requeridas para
que sea probabilidad (axioma l).
El que sea menor que 1 se obtiene de la propiedad anterior observando que todo suceso A
está contenido en el suceso seguro, A Ω.
6. Si dos sucesos no son incompatibles, la probabilidad de su unión debe calcularse por la
siguiente regla:

P(A B) = P(A) + P(B) - P(A B).


En efecto: Los sucesos A y B se pueden escribir como unión de sucesos disjuntos de la forma,

A = (A B) (A B') , B = (A B) (A' B)

con lo que, por la propiedad de aditividad finita antes demostrada, será

P(A) = P (A B) + P (A B') y P(B) = P (A B) + P (A' B)


es decir,

P (A B') = P(A) - P(A B) y P (A' B) = P(B) - P (A B).


Como, por otro lado, A U B se puede expresar como unión disjunta de la forma

A U B = (A B) U (A B') U (A' B)
su probabilidad será

P(A U B) = P (A B) + P (A B') + P (A' B)


y, sustituyendo los valores antes calculados para los dos últimos sumandos,quedará

P(A U B) = P (A B) + P(A) - P (A B) + P(B) - P (A B)


o en definitiva,

P(A U B) = P(A) + P(B) - P (A B)


como queríamos demostrar.

1.2. Espacio muestral y espacio de eventos


Espacio muestral
En la teoría de probabilidades, el espacio muestral o espacio de muestreo (denotado E, S, Ω o U)
consiste en el conjunto de todos los posibles resultados de un experimento aleatorio junto con
una estructura sobre el mismo (ver más adelante).

Por ejemplo, si el experimento consiste en lanzar dos monedas, el espacio muestral es el conjunto
{(cara, cara), (cara, cruz), (cruz, cara) y (cruz, cruz)}. Un evento o suceso es cualquier subconjunto
del espacio muestral con estructura de σ-álgebra, llamándose a los sucesos que contengan un
único elemento sucesos elementales. En el ejemplo, el suceso "sacar cara en el primer
lanzamiento", o {(cara, cara), (cara, cruz)}, estaría formado por los sucesos elementales {(cara,
cara)} y {(cara, cruz)}.

Para algunos tipos de experimento puede haber dos o más espacios de muestreo posibles. Por
ejemplo, cuando se toma una carta de un mazo normal de 52 cartas, una posibilidad del espacio
de muestreo podría ser el número (del as al rey), mientras que otra posibilidad sería el palo
(diamantes, tréboles, corazones y picas). Una descripción completa de los resultados, sin embargo,
especificaría ambos valores, número y palo, y se podría construir un espacio de muestreo que
describiese cada carta individual como el producto cartesiano de los dos espacios de muestreo
descritos.

Los espacios de muestreo aparecen de forma natural en una aproximación elemental a la


probabilidad, pero son también importantes en espacios de probabilidad. Un espacio de
probabilidad (Ω, F, P) incorpora un espacio de muestreo de resultados, Ω, pero define un conjunto
de sucesos de interés, la σ-álgebra F, por la cual se define la medida de probabilidad P.

1.3. Definición axiomática de la probabilidad y propiedades básicas.


1.4. Cálculo de probabilidades en espacios muestrales finitos o infinito
numerables
Calculo en espacios finitos de probabilidad.
Sea el espacio muestral, que contiene n elementos {a1, a2, a3,.....,an}, si a cada uno de los
elementos de d le asignamos una probabilidad pi ≥ 0, entonces estamos transformando este
espacio muestral en un espacio finito de probabilidad; el que debe cumplir con las siguientes
características:

1) Las probabilidades asociadas a cada uno de los elementos de d deben ser mayores o
iguales a cero, ∑pi≥0.
2) La sumatoria de las probabilidades asociadas a cada uno de los elementos de d debe de
ser igual a 1.

En caso de que no se cumpla con las características antes mencionadas, entonces no se trata de
un espacio finito de probabilidad.

Ejemplo:

1. Se lanza al aire un dado normal, si la probabilidad de que aparezca una de sus caras es
proporcional al número que ostenta, a) ¿cuál es la probabilidad de que aparezca un
número par?, b) ¿cuál es la probabilidad de que aparezca un número primo?

Solución:

d = {1, 2, 3, 4, 5, 6}

En este caso asignaremos las probabilidades como sigue;

p(aparezca el número 1) = p, p(aparezca el número 2) = 2p, .....,

p(aparezca el número 5) = 5p, p(aparezca el número 6) = 6p

Y por ser d un espacio finito de probabilidad, entonces,

p(d) = p + 2p + 3p + 4p + 5p + 6p =1

Por tanto, 21p = 1, luego, p = 1/21

a) Luego;

A = evento de que aparezca un número par = {2, 4, 6}

p(A)= p(2)+p(4) + p(6) = 2p + 4p + 6p = 12p = 12(1/21) = 12/21= 0.5714

b) B = es el evento de que aparezca un número primo = {1, 2, 3, 5}

p(B)=p(1) + p(2) + p(3) + p(5) = p + 2p + 3p + 5p = 11p = 11(1/21) = 11/21 = 0.5238


Calculo en espacios infinitos de probabilidad.

1.5. Probabilidad condicional e independencia

2. Variable aleatoria

2.1. Definición formal y su caracterización por medio de funciones de


distribución

2.2. Tipos: discreta, continua y mixta

2.3. Propiedades y teorema de descomposición

2.4. Construcción de modelos inducidos por variables aleatorias discretas:


Uniforme, Binomial, Poisson, Geométrico y Binomial Negativo,
Hipergeométrico

2.5. Construcción de modelos inducidos por variables aleatorias continuas:


Uniforme, Exponencial y Gamma

2.6. Otros modelos de variables aleatorias continuas: Normal, Cauchy, Beta,


Pareto

3. Análisis de modelos de probabilidad


3.1. Medidas de tendencia central (esperanza, mediana y moda)

3.2. Medidas de dispersión (varianza, cuantiles, rango intercuartílico)

3.3. Familias exponenciales


3.4. Familias de localización y escala

4. Transformaciones y simulación

4.1. Distribuciones truncadas

4.2. Tipos de transformaciones unidimensionales de variables aleatorias


(discreta a discreta, continua a discreta, continua a continua, continua a
mixta, mixta a discreta, mixta a mixta)

4.3. Algoritmos de simulación de variables aleatorias discretas, continuas y


mixtas (método de la transformación inversa, método de aceptación-
rechazo)

4.4. Funciones generadoras (de probabilidades y de momentos)

5. Formulas
Variaciones de N elementos tomados de n en n

V N , n = N · (N - 1) · ... · (N - n +1)

Variaciones con repetición de N elementos tomados de n en n

VR N , n = N n

Combinaciones de N elementos tomados de n en n

Combinaciones con repetición de N elementos tomados de n en n

Permutaciones de N elementos

PN = N! = N · (N - 1) · ... · 2 · 1

Permutaciones con repetición de N elementos, uno de los cuales se repite n1 veces, otro n2 veces,
..., otro nr veces
Tabla de contenido
1. Introducción a la teoría de la probabilidad ................................................................................. 1
1.1. Enfoques de la probabilidad (clásico, frecuentista y subjetivo).......................................... 1
Probabilidad frecuentista ............................................................................................................ 1
Probabilidad clásica ..................................................................................................................... 1
Probabilidad subjetiva ................................................................................................................. 1
1.2. Espacio muestral y espacio de eventos ............................................................................... 4
Espacio muestral ......................................................................................................................... 4
1.3. Definición axiomática de la probabilidad y propiedades básicas. ...................................... 4
1.4. Cálculo de probabilidades en espacios muestrales finitos o infinito numerables .............. 7
Calculo en espacios finitos de probabilidad. ............................................................................... 7
Calculo en espacios infinitos de probabilidad. ............................................................................ 8
1.5. Probabilidad condicional e independencia ......................................................................... 8
2. Variable aleatoria ........................................................................................................................ 8
2.1. Definición formal y su caracterización por medio de funciones de distribución ................ 8
2.2. Tipos: discreta, continua y mixta ........................................................................................ 8
2.3. Propiedades y teorema de descomposición ....................................................................... 8
2.4. Construcción de modelos inducidos por variables aleatorias discretas: Uniforme,
Binomial, Poisson, Geométrico y Binomial Negativo, Hipergeométrico......................................... 8
2.5. Construcción de modelos inducidos por variables aleatorias continuas: Uniforme,
Exponencial y Gamma ..................................................................................................................... 8
2.6. Otros modelos de variables aleatorias continuas: Normal, Cauchy, Beta, Pareto ............. 8
3. Análisis de modelos de probabilidad .......................................................................................... 8
3.1. Medidas de tendencia central (esperanza, mediana y moda) ............................................ 8
3.2. Medidas de dispersión (varianza, cuantiles, rango intercuartílico) .................................... 8
3.3. Familias exponenciales........................................................................................................ 8
3.4. Familias de localización y escala ......................................................................................... 9
4. Transformaciones y simulación ................................................................................................... 9
4.1. Distribuciones truncadas ..................................................................................................... 9
4.2. Tipos de transformaciones unidimensionales de variables aleatorias (discreta a discreta,
continua a discreta, continua a continua, continua a mixta, mixta a discreta, mixta a mixta) ...... 9
4.3. Algoritmos de simulación de variables aleatorias discretas, continuas y mixtas (método
de la transformación inversa, método de aceptación-rechazo) ..................................................... 9
4.4. Funciones generadoras (de probabilidades y de momentos) ............................................. 9

También podría gustarte