Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Probabilidad
¿Qué es la probabilidad?
La probabilidad es una creencia que tenemos sobre la ocurrencia de eventos
elementales.
AXIOMAS
Es un conjunto de sentencias que no son derivables de algo más fundamental. Las
damos por verdad y no requieren demostración.
“A veces se compara a los axiomas con semillas, porque de ellas surge toda la
teoría”
Axiomas
AXIOMAS DE PROBABILIDAD
La probabilidad está dada por el número de casos de éxito sobre la cantidad
total(teórica) de casos.
Ejemplo: “Solo tengo dos posibles resultados al lanzar una moneda, 50% de
probabilidad para cada cara, (1/2 y 1/2), si lanzo la moneda n veces, la moneda
no cae la mitad de las veces en una cara, y luego la otra”
Escuela frecuentista
“Toda variable aleatoria viene descrita por el espacio muestral que contiene todos
los posibles sucesos de ese problema aleatorio.”
La probabilidad que se asigna como un valor a cada posible suceso tiene varias
propiedades por cumplirse
PROPIEDADES AXIOMAS
0≤P≤1
Certeza: P = 1
Imposibilidad P = 0
Conjunta P(A,B)
Es la unión de sucesos. (En inglés: joint)
Ejemplos típicos:
Condicional P(A|B)
Que suceda un evento dado que ocurre otro previamente. Ejemplos típicos:
Probabilidad de que llueva hoy, dado que ayer estuvo muy nublado.
Probabilidad de que llueva hoy, dado que el cielo está soleado (hoy).
Probabilidad de que llueva mañana, por que en la ciudad vecina llovió ayer.
X → variable aleatoria
Distribución acumulada
Distribuciones discretas
Distribución de Bernoulli: Es una función donde se tiene una variable variable con
dos valores, Entonces
P(X) = p
P(¬X) = 1 - p
Distribución binomial
Cuando se tiene secuencias repetitivas de varios eventos binarios(eventos tipos
Bernoulli). Todos los eventos son igualmente probables.
P(k,n) = (n,k)P^(k)(1-p)^(n - k)
Distribución Multinomial
Es la generalización natural de la binomial para casos donde las posibilidades no
son binarias, cómo el lanzamiento de un dado
Geométrica
Hipergeométrica
Binomial negativa
Etc.
Distribuciones continuas
¿Qué es MLE?
MLE (Maximum Likelihood Estimation) o estimación de máxima verosimilitud.
Consiste en escoger la distribución que más se ajuste a nuestros datos, para ello
maximizamos la probabilidad de nuestro modelo:
P(X,θ)=L(X,θ)
Teorema de Bayes
Este teorema permite actualizar nuestras probabilidades a medida que acumulamos
evidencia.
P(A|B) = P(B|A)P(A)/P(B)
Nota: