Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Estadística Bayesiana
La teoría Bayesiana a nivel conceptual tiene como una de las principales ventajas la
facilidad con la que las ideas básicas se ponen en marcha, apoyadas en la inferencia,
predicción, toma de decisiones, etc.
Dentro de los objetivos en los que se basa la Estadística Bayesiana está en encontrar
parámetros de una o más 𝜃, a fin de recopilar una muestra de datos como 𝑥 =
(𝑥1, 𝑥2, . . . , 𝑥𝑛), los mismos que permitan describir fenómenos estocásticos en base a
funciones de probabilidad y fuentes de información externas proporcionadas por
expertos generalmente basadas en experiencias o estudios previos denominado
distribución previa 𝑓(𝜃); por lo que combinando ambos mediante el Teorema de Bayes
proporciona la distribución posterior 𝑓(𝜃|𝑥) que representa la distribución del
parámetro 𝜃 de los datos observados de 𝑥.
𝑓(𝜃)𝑓(𝑥|𝜃)
𝑓(𝜃|𝑥) = ∝ 𝑓(𝜃)𝑓(𝑥|𝜃)
∫ 𝑓(𝜃)𝑓(𝑥|𝜃)𝑑𝜃
Mediante dicha distribución se puede resolver problemas estadísticos estándar, como
intervalo de estimación, prueba de hipótesis, predicción, etc.
Estimación de Parámetros
La estimación de parámetros es el proceso de atribuir una descripción paramétrica a un
objeto, un proceso físico o un evento basado en mediciones que se obtienen de ese
objeto (o proceso, o evento).
La estimación de parámetros y la clasificación de patrones son procesos similares
porque ambos pretenden describir un objeto utilizando medidas; sin embargo, en la
estimación de parámetros la descripción es en términos de un escalar o vector de valor
real, mientras que en la clasificación la descripción está en términos de una sola clase
seleccionada de un número finito de clases.
El uso de la distribución posterior radica en conocer el punto de estimación, el mismo
que viene dado por la distribución a través de la media posterior, es decir:
𝐸[𝜃|𝑥] = ∫ 𝜃𝑓(𝜃|x)𝑑𝜃
Prueba de Hipótesis
Considerar que se tiene que decidir entre dos hipótesis con contenido de probabilidad
positiva, es decir:
𝐻0 ∶ 𝜃 ∈ 𝜗0 𝑦 𝐻1 ∶ 𝜃 ∈ 𝜗1 .
Predicción
En el caso de los procesos estocásticos es necesario tomar en consideración la
predicción de futuras observaciones de la variable de interés, como el comportamiento a
corto y largo plazo del proceso.
Para predicciones de valores futuros, sea Y se usa la predicción de distribución, para
hacer esto, dados los datos actuales x, si se conociera el valor de θ, se usaría la
distribución predictiva condicional 𝑓(y|x). Sin embargo, desde allí hay incertidumbre
acerca de θ, para lo cual se integra para calcular la densidad predictiva.
𝑓 (𝜃) ∝ √𝐼 (𝜃) ,
Donde:
𝑑2
𝐼(𝜃) = −𝐸𝑥 [𝑑𝜃2 𝑙𝑜𝑔𝑓(x|𝜃)], es la información esperada de Fisher.
Bibliografía:
Rios Insua, D., Ruggeri, F., &Wiper, M. (2012). Bayesian Analysis of
Stochastic Process Models. New Delhi, India. Págs: 16-40