Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Inferencia Bayesiana
Inferencia Bayesiana
Inferencia bayesiana
La inferencia bayesiana es un tipo de inferencia estadstica en la que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una hiptesis pueda ser cierta. El nombre bayesiana proviene de uso frecuente que se hace del teorema de Bayes durante el proceso de inferencia. El teorema de Bayes se ha derivado del trabajo realizado por el reverendo Thomas Bayes. Hoy en da, uno de los campos de aplicacin es en la teora de la decisin,[1] visin artificial[2](simulacin de la percepcin en general)[3] y reconocimiento de patrones por ordenador.
Contexto inicial
La incertidumbre y la imprecisin son connaturales en el proceso de razonamiento. La lgica establece unas reglas de inferencia a partir de las cuales se construye el sistema de razonamiento deductivo, en el que una proposicin determinada es considerada como cierta o falsa, sin que se admitan grados entre estos dos extremos. Los mtodos de razonamiento aproximado, La inferencia bayesiana se aplica a muchos dominios de la teora de entre los que se encuentran los mtodos bayesianos, la decisin aportan modelos tericos que simulan la capacidad de razonamiento en condiciones de incertidumbre, cuando no se conoce con absoluta certeza la verdad o falsedad de un enunciado o hiptesis, e imprecisin, enunciados en los que se admite un rango de variacin. Entre los mtodos de razonamiento aproximado se encuentran los mtodos bayesianos, basados en el conocido teorema de Bayes. Todos ellos tienen en comn la asignacin de una probabilidad como medida de credibilidad de las hiptesis. En este contexto, la inferencia se entiende como un proceso de actualizacin de las medidas de credibilidad al conocerse nuevas evidencias. Matemticamente se trata de obtener las probabilidades de las hiptesis condicionadas a las evidencias que se conocen. La actualizacin de las probabilidades condicionadas hiptesis a las evidencias se fundamenta en la aplicacin del Teorema de Bayes. La diferencia entre los distintos mtodos bayesianos, modelos causales y redes bayesianas, estriba en las hiptesis de independencia condicional entre hiptesis y evidencias. Dichas relaciones se expresan comnmente mediante un grafo dirigido acclico. La inferencia bayesiana es una inferencia estadstica en la que se utiliza la evidencia o las observaciones para actualizar o inferir nuevamente que una hiptesis puede ser verdadera. El nombre "bayesiano" proviene del uso frecuente del teorema de Bayes en el proceso de inferencia. El teorema de Bayes ha sido derivado de la obra del Reverendo Thomas Bayes.
Inferencia bayesiana
Axiomas de coherencia
i) Comparacin ii) Transitividad iii) Dominancia-Sustitucin iv) Referencia
Ejemplos de inferencia
Un ejemplo de inferencia bayesiana es el siguiente: Durante miles de millones de aos, el sol ha salido despus de haberse puesto. El sol se ha puesto esta noche. Hay una probabilidad muy alta (o 'Yo creo firmemente que' o 'es verdad que') el sol va a volver a salir maana. Existe una probabilidad muy baja (o 'yo no creo de ningn modo que' o 'es falso que') el sol no salga maana. La inferencia bayesiana usa un estimador numrico del grado de creencia en una hiptesis an antes de observar la evidencia y calcula un estimador numrico del grado de creencia en la hiptesis despus de haber observado la evidencia. La inferencia bayesiana generalmente se basa en grados de creencia, o probabilidades subjetivas, en el proceso de induccin y no necesariamente declara proveer un mtodo objetivo de induccin.
Definiciones formales
A pesar de todo, algunos estadsticos bayesianos creen que las probabilidades pueden tener un valor objetivo y por lo tanto la inferencia bayesiana puede proveer un mtodo objetivo de induccin. (Ver mtodo cientfico.) El teorema de Bayes ajusta las probabilidades, dada una nueva evidencia, de la siguiente manera:
donde representa una hiptesis, llamada hiptesis nula, que ha sido inferida antes de que la nueva evidencia, resultara disponible. se llama la probabilidad a priori de . dado que la hiptesis es dado . bajo todas ,
verdadera. Se llama tambin la funcin de verosimilitud cuando se expresa como una funcin de se llama la probabilidad marginal de : la probabilidad de observar la nueva evidencia
las hiptesis mutuamente excluyentes. Se la puede calcular como la suma del producto de todas las hiptesis
Inferencia bayesiana
3 .
mutuamente excluyentes por las correspondientes probabilidades condicionales: El factor se llama la probabilidad a posteriori de dado .
que se observe la evidencia cuando la hiptesis considerada es verdadera, entonces este factor va a ser grande. Multiplicando la probabilidad a priori de la hiptesis por este factor va a resultar en una gran probabilidad a posteriori dada la evidencia. En la inferencia bayesiana, por lo tanto, el teorema de Bayes mide cunto la nueva evidencia es capaz de alterar la creencia en la hiptesis.
Establecimiento de la inferencia
Los estadsticos bayesianos sostienen que aun cuando distintas personas puedan proponer probabilidades a priori muy diferentes, la nueva evidencia que surge de nuevas observaciones va a lograr que las probabilidades subjetivas se aproximen cada vez ms. Otros, sin embargo, sostienen que cuando distintas personas proponen probabilidades a priori muy diferentes, las probabilidades subjetivas a posteriori pueden no converger nunca, por ms evidencias nuevas que se recolecten. Estos crticos consideran que visiones del mundo que son completamente diferentes al principio pueden seguir siendo completamente diferentes a travs del tiempo por ms evidencias que se acumulen. Multiplicando la probabilidad anterior probabilidad superior a 1. Ya que por el factor es al menos mayor que con nunca se podr obtener una , lo que permite la igualdad en el factor
(vase probabilidad conjunta), reemplazando ser mayor que uno slo si La probabilidad de dado dado
esto dejar una probabilidad posterior de 1. Por lo tanto, la probabilidad posterior no llegar a , fuese menor que lo que nunca es cierto. , puede ser representada como una funcin de su segundo argumento, .
lo que puede hacerse propocionando un valor. Tal funcin se denomina funcin de verosimilitud; es funcin de . Una proporcin de dos funciones de verosimilitudes que se denomina proporcin de verosimilitud, Por ejemplo:
La probabilidad marginal
, puede ser representada adems como la suma de los productos de todas las
probabilidades de las hiptesis exclusivas mtuamente y que corresponden a probabildades condicionales: . Como resultado, se puede reescribir el teorema de Bayes como:
emplear la primera evidencia para calcular la primera probabilidad posterior y emeplear sta en el clculo de la siguiente probabilidad y continuar de esta forma con las dems. La independencia de evidencias implica que:
Inferencia bayesiana
, Esta iteracin de la inferencia bayesiana puede ser expandida con la inclusin de ms evidencias. La inferencia bayesiana se emplea en el clculo de probabilidades en la toma de decisin. Se emplean en las probabilidades calculadas en la teora de clculo de riesgos, en la denominada funcin de prdida que refleja las consecuencias de cometer un error.
Bibliografa
Berger, J.O. (1999) Statistical Decision Theory and Bayesian Analysis. Second Edition. Springer Verlag, New York. ISBN 0-387-96098-8 and also ISBN 3-540-96098-8. Bolstad, William M. (2004) Introduction to Bayesian Statistics, John Wiley ISBN 0-471-27020-2 Bretthorst, G. Larry, 1988, Bayesian Spectrum Analysis and Parameter Estimation [4] in Lecture Notes in Statistics, 48, Springer-Verlag, New York, New York Dawid, A.P. and Mortera, J. (1996) Coherent analysis of forensic identification evidence. Journal of the Royal Statistical Society, Series B, 58,425-443. Foreman, L.A; Smith, A.F.M. and Evett, I.W. (1997). Bayesian analysis of deoxyribonucleic acid profiling data in forensic identification applications (with discussion). Journal of the Royal Statistical Society, Series A, 160, 429-469. Gardner-Medwin, A. What probability should the jury address?. Significance. Volume 2, Issue 1, March 2005 Gelman, A., Carlin, B., Stern, H., and Rubin, D.B. (2003). Bayesian Data Analysis. Second Edition. Chapman & Hall/CRD, Boca Raton, Florida. ISBN 1-58488-388-X. Gelman, A. and Meng, X.L. (2004). Applied Bayesian Modeling and Causal Inference from Incomplete-Data Perspectives: an essential journey with Donald Rubin's statistical family. John Wiley & Sons, Chichester, UK. ISBN 0-470-09043-X Giffin, A. and Caticha, A. (2007) Updating Probabilities with Data and Moments [5] Jaynes, E.T. (1998) Probability Theory: The Logic of Science [6]. Lee, Peter M. Bayesian Statistics: An Introduction. Second Edition. (1997). ISBN 0-340-67785-6. O'Hagan, A. and Forster, J. (2003) Kendall's Advanced Theory of Statistics, Volume 2B: Bayesian Inference. Arnold, New York. ISBN 0-340-52922-9. Pearl, J. (1988) Probabilistic Reasoning in Intelligent Systems, San Mateo, CA: Morgan Kaufmann. Robert, C.P. (2001) The Bayesian Choice. Springer Verlag, New York. Robertson, B. and Vignaux, G.A. (1995) Interpreting Evidence: Evaluating Forensic Science in the Courtroom. John Wiley and Sons. Chichester. Winkler, Robert L, Introduction to Bayesian Inference and Decision, 2nd Edition (2003) Probabilistic. ISBN 0-9647938-4-9
Inferencia bayesiana
Referencias
[1] [2] [3] [4] [5] [6] "Statistical Decision Theory and Bayesian Analysis", James O. Berger; 1985 ;Springer "Bayesian Approach to Image Interpretation", Sunil K. Kopparapu, Uday B. Desai; 2001 Springer "Perception as Bayesian Inference", David C. Knill, Whitman Richards;1996 ;Cambridge University Press http:/ / bayes. wustl. edu/ glb/ book. pdf http:/ / arxiv. org/ abs/ 0708. 1593 http:/ / www-biba. inrialpes. fr/ Jaynes/ prob. html
Vase tambin
Teorema de Bayes - Fundamento de la inferencia
Referencias externas
Libro on-line textbook: Teora de la informacin Theory, Inferencia, y algoritmos de aprendizaje (http://www. inference.phy.cam.ac.uk/mackay/itila/book.html), por David MacKay, tiene captulos sobre mtodos bayesianos, incluyendo ejemplos; argumentas a favor de los mtodos bayesianoss (del estilo de Edwin Jaynes); mtodos modernos sobre Mtodo de Montecarlo, y mtodos variacionales; y ejemplos ilustrativos acerca de como se emplean las redes bayesianas en los algoritmos de compresin de datos.
Licencia
Creative Commons Attribution-Share Alike 3.0 Unported //creativecommons.org/licenses/by-sa/3.0/