Está en la página 1de 12

Universidad de Panam Facultad de Informtica, Electrnica y Comunicacin Centro Regional Universitario de Veraguas Escuela de Ingeniera Licenciatura en Ingeniera en Informtica

ASIGNATURA: INTELIGENCIA ARTIFICIAL I

CAPTULO 13: INCERTIDUMBRE

PROFESOR RESPONSABLE: RAL ENRIQUE DUTARI DUTARI

ESTUDIANTE: DAVID QIU HAU C.I.P: 8-843-341

I SEMESTRE CIUDAD DE SANTIAGO, JUNIO DE 2013

Tabla de Contenido

1. Introduccin ...................................................................................................... 1 2. Cmo actuar ante la Incertidumbre ................................................................... 1 2.1. Resumiendo la incertidumbre ..................................................................... 2 3. Notacin bsica en probabilidad ....................................................................... 5 3.1. De qu se trata la probabilidad? .............................................................. 6 3.2. El lenguaje de las proposiciones en las afirmaciones de probabilidad ....... 6 3.3. Axiomas de probabilidad y su razonabilidad .............................................. 7 4. Inferencia partir de una distribucin conjunta completa .................................... 8 5. Independencia .................................................................................................. 8 6. Reglas de Bayes y su utilizacin ...................................................................... 9 6.1. Cmo se aplica la regla de Bayes: El caso simple ..................................... 9 7. Conclusiones .................................................................................................. 10 8. Bibliografa ...................................................................................................... 10

1. Introduccin Una de las limitaciones de la lgica de primer orden y, por tanto, del mtodo delagente lgico, esque los agentes casi nunca tienen acceso a toda la verdad acerca de su ambiente. Algunas averiguaciones se dan directamente a partir de las percepciones del agente, en tanto que otras se infieren a partir de percepciones actuales y previas junto con lo que se sabe sobre las propiedades del ambiente. 2. Cmo actuar ante la Incertidumbre Existen distintos mtodos para actuar bajo la incertidumbre. A pesar de sus mltiples virtudes, cada mtodo tiene inconvenientes importantes cuando se toma literalmente como una receta para la creacin de programas de agentes: Al interpretar la informacin del sensor parcial, un agente lgico debe considerar cada posible explicacin de forma lgica para las observaciones, no importa que tan poco probable sea. Un plan contingente correcta que se encarga de todas las eventualidades puede crecer arbitrariamente y debe considerar arbitrariamente

contingencias improbables. A veces no existe un plan que est garantizado para alcanzar el objetivo, sin embargo, el agente debe actuar. Debe haber alguna manera de comparar los mritos de los planes de ese arco que no estn garantizadas. Suponga por ejemplo, que el agente desea llevar en auto a alguien al aeropuertopara que aborde su vuelo y est considerando el plan A 90 que implica salir de casa 90 minutos antes de la hora del vuelo as como conducir el auto a velocidad razonable. Aun cuando el aeropuertoest slo a 30 kilmetros de distancia, el agente no podr llegar ala tajante conclusin de que "El PlanA90 nos permitir llegar al aeropuerto a tiempo".

El agente puede llegar a la frgil conclusin "El plan A90 nos permitir llegar al aeropuerto a tiempo siempre y cuando mi auto no se descomponga, no se quede singasolina, no tenga un occidente, no ocurran accidentes en el puente, el avin no salga antes de tiempo. Otros planes, por ejemplo el A12, podran contribuir a aumentar la creencia del agente de que llegar a tiempo al aeropuerto, pero tambin aumenta la posibilidad de una mayor espera. Por lo tanto, lo correcto, la decisin racional, depender tanto de la importancia relativa de las diversas metas as como de la posibilidad y grado correspondiente en que esperamos que sean logradas. 2.1. Resumiendo la incertidumbre

Condiremos un sencillo ejemplo de diagnostico para ilustrar los conceptos respectivos. Un diagnostico, en este caso mdico, de reparacin de automviles, o cualquier otro, es una tarea en la que por lo general est presente la incertidumbre. Si lo que nos interesara fuese elaborar un sistema para diagnsticos odontolgicos recurriendo a la lgica de primer orden, propondramos reglas como: Dolor de muelas = Care El problema es que esta regla est mal. No todos los pacientes con dolor de dientes tienen caries, algunosde ellos tienen enfermedad de las encas, un absceso, o uno de varios otros problemas: Dolor de muelas Care V Problemas de encas V abscesos

Desafortunadamente, para que la regla sea vlida es necesario aadir una lista casi ilimitada de posibles causas. Podramos intentar transformar la regla en una regla causal:

Care

Dolor de muela

Sin embargo, la regla anterior tampoco est bien; no todas las caries producen dolor. La nica manerade corregir la regla es hacindola exhaustiva desde el punto de vista lgico: Ampliar la parte izquierda para as abarcar todas las posibles razones por las que una caries pueda o no causar dolor. Es decir, el empleo de la lgica de primer orden en un dominio como el del diagnstico mdicoes un intento fallido, debido a las tres razones siguientes: Pereza: El listar el conjunto completo de antecedentes o consecuentes necesarios para garantizar una regla sin excepciones implica demasiado trabajo, y tambin sera muy difcil emplear las enormes reglas resultantes. Ignorancia Terica: La ciencia mdica no cuenta an con una teora completa de este dominio. Ignorancia prctica: Aun conociendo todas las reglas, cuando no es posible realizar en un pacientetodas las pruebas que sea necesario hacer, albergaramos ciertas dudas en el caso particular de este paciente. La relacin que existe entre dolor de dientes y caries no implica una consecuencia lgica en ambossentidos. En el mejor de los casos, lo que el conocimiento del agente puede ofrecer es slo un gradode creencia en las oraciones correspondientes. Nuestra herramienta principal para manejar los grados decreencia ser la teora de probabilidad. La probabilidad es una forma de resumir la incertidumbre originada en nuestra pereza e ignorancia. Posiblemente no sepamos cul es el padecimiento especfico de un paciente, sin embargo consideramos que existe, digamos, 80% de posibilidad.

La probabilidad 0asignada a una determinada oracin corresponde a la inequvoca creencia de que la oracin es falsa, en tanto que una probabilidad de 1 corresponde a grados intermedios de creencia de que la oracin es verdadera. Las probabilidades situadas entre 0 y 1corresponden a grados intermediosde creencia en la verdad de la oracin. La oracin en s es, de hecho, verdadera o falsa. La teora de la probabilidad parte de los mismos supuestosontolgicos que los de la lgica, es decir, que los hechos de la realidad son o no son vlidos.El grado de verdad, en contraste con el grado de creencia, es el tema de estudio de la lgica difusa. 2.2. Incertidumbre y decisiones racionales

Consideremos de nuevo el plan A90para llegar al aeropuerto. Supngase que la probabilidad de tener xito sea de 97%, Podra considerarse como una opcin racional? Desde luego, la respuesta es "No necesariamente". Existen Otros planes, como elA180 con mayores probabilidades de xito. Si lo imprescindible es no perder el vuelo, quizs valdra la pena sacrificarse a una espera ms prolongada en el aeropuerto. Y qu pasara en el caso de un planA1440 que implica salir de casa 24 horas antes del vuelo? En la mayora de los casos no ser una buenaopcin, puesto que si bien garantiza llegar a tiempo al aeropuerto, implica una intolerable espera. Para poder tomar decisiones como las anteriores, es necesario que previamente el agente tenga diferentes preferencias por los posibles resultados de cada uno de los planes. Para la representacin y razonamiento con las preferencias nos valdremos de la teora de utilidad.

El trmino utilidad se emplear aqu en el sentido de la calidad de ser til. Esta teora sostiene que cada estado implica cierto grado de utilidad para un agente, y que el agente prefiere aquellos estados que le representan una mayor utilidad. La utilidad de un estado depende del agente cuyas preferencias la funcin de utilidad debe representar. Es tambin interesante observar que en la teora de la utilidad hay lugar para el altruismo. Es absolutamentecongruente que el agente asigne una alta utilidad a un estado en el que el agente padeceuna patente prdida, en tanto que otros obtienen ganancias. Las preferencias, expresadas en funcin de las utilidades. secombinan con las probabilidades enla teora general de decisiones racionales conocida como teora de decisiones: Teora de decisiones = teora de probabilidad + teora de utilidad La idea bsica de la teora de decisiones es que agente ser racional si y solo si elige una accin que le produzca la mayor de la utilidades esperadas, prorrateada sta tomando en cuenta todos los resultados posibles de la accin. A lo anterior se le conoce como principio de mxima utilidad esperada(MUE).Es decir, para evaluar una accin, probabilidades y utilidades se combinan ponderando lautilidad de un resultado en panicular con base en la probabilidad de que ste produzca. 3. Notacin bsica en probabilidad Ya que contamos con un marco de trabajo general del agente racional, ahora necesitamos un lenguajeformal para representar el conocimiento inciertoy razonar con l. En la versin de la teora de la probabilidadaqu presentada se emplea para la representacin de sus oraciones una versin ampliada de la lgica proposicional.

3.1.

De qu se trata la probabilidad?

Al igual que las afirmaciones lgicas, las afirmaciones probabilsticas se tratan sobre mundos posibles. En teora de la probabilidad, el conjunto de todos los mundos posibles se llama el espacio de muestra. Los mundos posibles son mundos mutuamente excluyentes y exhaustivas y dos posibles mundos no pueden ambos ser el caso, donde solo un mundo puede ser el caso. Las afirmaciones probabilsticas y consultas no son por lo general alrededor particulares mundos posibles, sino de conjuntos de ellos. Por ejemplo, podramos estar interesados en los casos en que los dos dados suman 11, los casos en los que se rodaron dobles, y as sucesivamente. 3.2. El lenguaje de las proposiciones en las afirmaciones de

probabilidad En este captulo y en el siguiente, las proposiciones que describen conjuntos de mundos posibles estn escritas en una notacin que combina elementos de la lgica proposicional y la notacin satisfaccin de restricciones. Las variables en la teora de probabilidades se llaman variables aleatorias y sus nombres comienzan con una letra mayscula. A veces queremos hablar de las probabilidades de todos los valores posibles de una variable aleatoria. Podramos escribir de esta manera: P(Clima = soleado) = 0_6 P(Clima - Lluvia) 0.1 P(Clima = nublado) = 0.29 P(Clima = nieva) = 0.01, Pero como abreviacin podemos escribir:

P(Clima) = x0.6, 0.1, 0.29, 0.01), Donde P indica el resultado de un vector de nmeros, y donde asumimos un orden predefinido (soleado, lluvioso, nublado, nieva) en el dominio de Clima. Decimos entonces, que P define una distribucin de probabilidad para la variable aleatoria Clima. Adems de las distribuciones de las variables individuales, necesitamos la notacin para las distribuciones de mltiples variables. Las comas son utilizadas para este caso. Por ejemplo, P(Clima, Care), denota las probabilidades de todas las combinaciones de los valores de Clima y Care. La notacin P hace que ciertas expresiones mucho ms concisa de lo que podra ser de otra manera. A partir de la definicin anterior de los mundos posibles, se deduce que es un modelo de probabilidad completamente determinado por la distribucin conjunta para todas las variables aleatorias llamado distribucin de probabilidad conjunta completa. 3.3. Axiomas de probabilidad y su razonabilidad

Los axiomas bsicos de probabilidad implican ciertas relaciones entre los grados de creencia de que se puede conceder a proposiciones lgicamente relacionados. Un argumento a favor de los axiomas de la probabilidad, fueron primero declarados en 1931 por Bruno de Finetti, es la siguiente: Si un agente tiene algn grado de creencia en una proposicin a, entonces el agente debe ser capaz de dar probabilidades del estado en el que es indiferente a la apostar a favor o en contra a. Pero de Finetti comprob algo mucho ms fuerte: Si el Agente que expresa un conjunto de titulaciones de la creencia de que violan los axiomas de la teora de la probabilidad, entonces hay una combinacin de apuestas por el agente 2, que garantiza que el agente 1 pierde dinero cada vez 7

El mundo es como es, sin embargo, las demostraciones prcticas a veces parecen ser ms que las pruebas. El xito de los sistemas de razonamiento basado en la teora de probabilidad ha sido mucho ms eficaz en la toma de conversiones. 4. Inferencia partir de una distribucin conjunta completa Ha habido un debate interminable sobre el origen y el estado de los nmeros de probabilidad. La posicin frecuencial es que los nmeros pueden venir solamente de experimentos: si probamos 100 personas y encontrar que 10 de ellos tienen una cavidad, entonces podemos decir que la probabilidad de una cavidad es de aproximadamente 0,1. El punto de vista objetivista es que las probabilidades son aspectos reales de las tendencias universales de los objetos se comporten de cierta manera, en vez de ser slo descripciones de un ttulo de un observador de la creencia. La vista subjetivista describe probabilidades como una manera de caracterizar una creencias del agente, y no como teniendo un significado fsico externo. Lo Vista bayesiano subjetivo permite a cualquier adscripcin auto-consistente de probabilidades antes de proposiciones, pero insiste en la actualizacin bayesiana adecuado cuando llega la evidencia. El principio de la indiferencia atribuida a Laplace (1816) afirma que las proposiciones que son sintcticamente "simtricos con respecto a la evidencia deben ser concedidas igual probabilidad. 5. Independencia Cuando estn disponibles, las afirmaciones de independencia pueden ayudar a reducir el tamao del dominio de la representacin y de la complejidad del problema de inferencia. Desafortunadamente, la separacin limpia de grupos completos de variables por la independencia es bastante rara.

Siempre que exista una conexin, sin embargo indirecta, entre dos variables, la independencia no podr sostenerse. Por otra parte, incluso subconjuntos independientes pueden ser bastante grandes. 6. Reglas de Bayes y su utilizacin Recurdese las dos formas de expresar la regla del producto: P(A ^B) = P(A/B)P(B) P(A ^B) = P(B/A)P(A) Al establecer una igualdad entre los lados derechos de ambas ex presiones y dividir entre P(A) obtendremoslo siguiente: P(B/A) = P(A/B)P(B) / P(A) A la ecuacin anterior se le conoce como regal de Bayes. La sencilla ecuacin constituye la base de todos los sistemas modernos de IA para inferencia probabilstica. El caso ms general de variables multivaluadas se puede expresar utilizando la notacin P de la siguiente manera: P(Y|X) = P(X|Y)P(Y) / P(X) Lo que nuevamente deberconsiderarse como la representacin de un conjunto de ecuaciones que relacionaentre si los elementos correspondientes de las tablas. Tendremos tambin oportunidad de utilizar una versin condicionada ms general cuando se cuente con cierta evidencia base E: P(Y|X, E) = P(X|Y,E)P(Y|E) / P(X|E) 6.1. Cmo se aplica la regla de Bayes: El caso simple

Aparentemente, la regla de Bayes no parecerla ser de mucha utilidad. Se necesitan tres trminos (unaprobabilidad condicional y dos probabilidades incondicionales) slo para poder calcular una probabilidad condicional.

La regla de Bayes es til en la prctica gracias a que hay muchos casos en los que se dispone debuenas estimaciones de probabilidad para estos tres nmeros y es necesario calcular el cuarto. En actividades tales como el diagnstico mdico, frecuentemente hay probabilidades condicionales sobrerelaciones causales y se desea derivar un diagnstico. 7. Conclusiones Con la realizacin de esta monografa como definir que la incertidumbre es producto tanto de la pereza como de la ignorancia del ser humano, tambin implica la invalidacin de muchas de las simplificaciones que es posible realizar a travs de la inferencia Por otro lado, las probabilidades expresan la incapacidad del agente para optar por una decisin determinante en cuanta a la verdad de una oracin. Las reglas de Bayes nos permiten calcular probabilidades desconocidas a partir de probabilidades conocidas y ms estables. 8. Bibliografa Rusell, S. J., & Norving, P. (2010). Inteligencia Artificial: Un enfoque moderno. New Jersey: Pearson.

10

También podría gustarte