Está en la página 1de 61

Inteligencia Artificial 1

Cap 2 r&n Agentes inteligentes

Diapositivas de C H von der Becke parcialmente sobre ideas de los prof. Stuart Russell, Peter Norvig, Bamshad obasher, !ralve" #eep $ H$ac$nth N%ana

Temas principales del Captulo 2


PaMA
Percepciones accin Meta Ambiente

Funciones y Programas de Agentes Clasificacin de agentes apndice 2 agentes de soporte lgico ( !ana"#$ %ipos de Am&ientes apndice ' %ostada (Agre y (or!ill"$

2.1

Introduccin

2$1

Agentes
)n agente lo *ue se puede interpretar como *ue perci&e el am&iente y *ue act+a so&re dic,o am&iente$ -.emplos/
Sistema de diagnstico mdico Anlisis de imgenes satelitales Robot ensamblador de partes Controlador de una refinera

Un agente inteligente

- %4A5A6 6ensor del am&iente 1 2ye %oca 3usta (uele Conoce

Procesos I %-4 26 Comprensin0 intencionalidad

4a8ona

Comportamiento 6A7I5A6

Tipificando a un agente inteligente


S$%S*R$S P$RC$PC#*%$S

(
AM"#$%&$ A'$%&$

ACC#*%$S

$)$C&*R$S

2.2

Agentes inteligentes racionales autnomos

2$2

Qu es un agente inteligente
)n agente inteligente es cual*uier cosa *ue pueda
percibir un mundo perceptual en -ue est anidado ./ambiente01 mediante S$%S*R$S 2 actuar sobre ese mundo mediante $)$C&*R$S .o actuadores1
sinnimo de ambiente es /espacio de problema0 sinnimo de agente inteligente es /operador -ue transforma un input en output dentro del espacio de problema0

M-%A de la IA 5ise9ar un agente inteligente0racional *ue opere o act+e adecuadamente en sus am&ientes$
3iscusin sobre /adecuadamente0 )i4ar alguna medida del buen 5ito &ener en cuenta el PRR Principio de Racionalidad Restringida de 6erbert Simon

Qu es un agente racional Pensante racionalmente

Captura de un proceso racional correcto Proceso / #rrefutable0 Metodologa 3esarrollar un modelo formal 8 9:'#CA )*RMA9 8 -ue siempre condu;ca a la respuesta correcta #mplementar ese modelo Cmo sabemos si lo <icimos bien cuando podemos probar -ue el ra;onamiento programado fue correcto la lgica de primer orden fue completa

Actuante racionalmente
a >eces pensando racionalmente .enfo-ue europeo1 otras teniendo refle4os racionales .enfo-ue tur-us1

Actuar de forma de lograr las metas deseadas /$l enfo-ue del agente racional0 8 a ser encarado en esta disciplina= #magine usted mismo como se <acen las decisiones correctas

Qu es un agente racional
-l *ue act+a ma:imi8ando el ;alor esperado de la medida de buen xito (funcin de utilidad) en el logro de su meta
esta no es la definicin <abitual de racionalidad ideal basada en la lgica terica

4acional no es omnisciente 4acional no es clari;idente 4acional ideal en conflicto con el P44


diapositi>as ? 2 ?!

?@

Racionalidad
6atisfaccin de restricciones 5epende de

9A S$CA$%C#A 3$ P$RC$PC#*%$S 8 &*3* 9* BA$ $9 A'$%&$ 6A P$RC#"#3* 6AS&A A6*RA .'$S&#:% 3$ 9A M$M*R#A1=
%o se puede criticar a un agente por no saber lo -ue nunca supo

9A M$3#3A 3$ "A$% CD#&* $9$'#3A


funcin de utilidad

CAE%&* C*%*C$ $9 A'$%&$ 3$9 AM"#$%&$ $% BA$ *P$RA 9AS ACC#*%$S BA$ $9 A'$%&$ $S&C $% C*%3#C#*%$S 3$ R$A9#FAR
9ista de <iptesis de cmo es el mundo

??

AGE TE ! TE"!GE TE !#EA" -l agente inteligente ideal es el *ue< para cual*uier secuencia ar&itraria de percepciones< logre con su ACCI2 ma:imi8ar la medida de su &uen :ito$ Para ello usa
su conocimiento internali8ado su secuencia de percepciones

?2

$apeo ideal percepciones acciones -l dise9o o mapeo ideal especifica *u acciones de&e encarar el agente ideal en respuesta a cual*uier secuencia ar&itraria de percepciones 6e concreta con una ta&la real o ;irtual -.ercicio de la racionalidad
SandGic<

Percepciones Ra;onamiento Acciones ?3

%rograma con ta&la ' un e(emplo


Table (Percept Sequence,Action) Action := Function(Percept Sequence) If (Percept Sequence) then do Action

$4emplo 8 'lbulos >i>os finitos predictores 8 de 3eGdne2 8 ingresar iterati>amente @?@@??@?@@??@?@@?? Contra4emplo H ingresar @??@@@@?@??@

Cita bibliogr= 8 Inv y CienciaI ene ?7,!I p74

?4

%RR )*er&ert +imon,


-l Principio de la 4acionalidad 4estringida alega *ue la racionalidad ptima ideal 2 es el &uen :ito perfecto$ ingun ser ,umano apela a una mayor racionalidad *ue la .usto necesaria para sus fines pr=cticos$ 7as limitaciones de un agente
con los 6- 624-6 *ue tiene con los -F-C%24-6 *ue tiene y con la P2%- CIA C2MP)%ACI2 A7 J disponi&le y J (en algunos casos" ptima econmica conducen a *ue la racionalidad ideal sea imposi&le e impr=ctica=

Algo m-s )*er&ert +imon,

7a ra8n es solamente un instrumento por*ue


no nos puede predecir ,acia donde ir > no nos

propone metas a lo sumo nos ayuda a decidirnos cmo llegar a una meta (a tra;s del an=lisis de medios y fines"

?!

Algo m-s )Randall .eer,


7os na;egantes europeos aplican la planificacin a su derrotero lo tra8an en el mapa y se su.etan a l< corrigiendo los des;?os$ 7os na;egantes tur*ueses aplican toda su atencin a todos los detalles de las olas< los ;ientos< las a;es y las corrientes de cada momento y llegan a su destino de una manera pr=ctica$ A la ,ora de e:plicar por *u ,icimos lo *ue ,icimos< @no seremos tru*ueses disfra8ados de europeosA
7os agentes racionales suelen mostrar inteligencia acadmica< pero ,ay otra inteligencia muc,o m=s adaptiva< mostrada por los agentes autnomos< *ue los ayuda en la meta de so&re;i;ir$

?+

Agentes aut/nomos
7a par=&ola# de los na;egantes -uropeos y los %ur*ueses
Anos aplican su inteligencia a planear por adelantado toda su conducta futura 2 corregir cual-uier defecto en el rumbo planeado $n el otro casoI aplican su inteligencia a P$RC#"#R atentamente todo lo -ue est pasando 2 aplicarla a tender <acia la meta adaptndola a las contingencias cuidadosamente correlacionadas= 3e nue>o Kseremos tur-ueses -ue nos disfra;amos de europeos a la <ora de dar e5plicaciones de nuestra conducta(

6on agentes autnomos los *ue no se gu?an por reglamento e:terno impuesto alguno$ 5os tipos
C*%3AC&A 3$&$RM#%A3A P*R SA PR*P#A $DP$R#$%C#A C*%3AC&A AA&**R'A%#FA3A A PAR&#R 3$ SA R$3 %$ARA9 .caso del Periplaneta computatrix de "eer1

?,

Teora de la completitud %
7a completitud P se refiere a algoritmos polinmicos no determin?sticos$ Algunos pro&lemas< como *ui8=s el cl=sico del ;ia.ante de comercio< es pro&a&le *ue sean imposi&les de resol;er en cual*uier computadora ar&itraria 5e ello se deduce *ue
2a sea la inteligencia natural o la inteligencia artificial

2 son ilimitadas en sus capacidades$

5e ello se ;uel;e a deducir *ue la racionalidad pr=ctica resulta estar restringida$ Nadie debe esmerarse por aplicar la racionalidad ms all de sus necesidades prcticas$ P44

Caso lmite el termstato con sus dos reglas 8 Alto ni>el de conocimiento=

?7

'rado de racionalidad grado con el cual el agente pensante 2 actuante ma5imi;a su medida de buen 5ito en lograr su metaI su4eta a su disponibilidad de
sensores, efectores, potencia de cmputo y conocimiento internalizado.

Grado de Racionalidad 0 i1el de Conocimiento 0 e2ell

Allen Newell define el nivel de conocimiento por el nmero de reglas usadas respecto de su disponibilidad total de reglas. Ningun bot es responsable por no usar reglas que no conoce.
a un termostato le !an dado dos reglas " las usa

2@

2.3

-structura de los Agentes Inteligentes


6-CCIB 1C$1 -structura de Agentes aprendices
.Programas o ar-uitecturas de agentes1 2?

2$'

Cometido de la !A
El cometido de la IA es el diseo de un Programa de agente : una funcin que permita implantar el mapeo del agente para pasar por el sandwich de percepciones a acciones. Este programa se ejecutar en alg!n tipo de dispositi"o de cmputo# al que se denominar arquitectura $puede ser una computadora sencilla o hardware especial%. En alguno m&itos se utili'an agentes de software $o ro&ots de software o soft&ots%.

Agente ( arquitectura ) programa


22

4unciones ' programas de agentes


-l agente *ueda completamente especificado con la funcin del agente *ue mapea lo *ue descri&e la ecuacin

a L f .PIMIA1

sobre todo el componente principal a D f (P" en principio uno puede suministrar cual-uier secuencia perceptual posible para >er -u sucede 8 una tabla -ue resuma esa informacin podra ser inmensa

donde la

funcin del agente es f#

una funcin de agente es racional aplicar al gl&ulo ;i;o finito de 5e!dney


-l programa de agente trata de implementar la funcin de agente en forma concisa )n programa de agente toma una percepcin singular como input y mantiene el estado interno

23

%a$A
-n el dise9o de un agente inteligente la primera tarea es u&icarnos en el panorama

a L f.datos1 a L f.PIMIA1

-.emplo > %ac,ero ne! age/ piloto autom=tico (ta:imetrero reempla8ado por un agente inteligente 1 Percepciones AA acciones AA Metas AA Am&iente AA Anali8ar los casos presentados en este enlace$ 24

%a$A
Para identificar a un agente de&emos anali8ar su PaMA/

-.emplos de descripciones PaMA de un dado agente tt?pico P>percepcin a>accin M>meta A>am&iente

9a meta de la #A es la construccin de agentes inteligentesH $n cual-uier algoritmo aplicado a un tema de #A debemos reconocer cmo cada parte contribu2e a dic<a meta= Analicemos las m-uinas .limitadas1 de la #A como agentes inteligentes= 9a meta planteada por la medida del buen 5ito de ese agente suele ser combinacin de >arias submetas=
9as tcnicas para combinar submetas o multiob4eti>os tienen un $M$MP9* mu2 instructi>o en el AP6 de &<omas Saat2= #l anlisis $a%A es un e&emplo de

An-lisis %a$A

la estrategia general de la ingeniera de /di>idir para con-uistar0

PNaNMNA cada sumando es ms fcil -ue la suma ponderada=

la aplicacin del A%E9#S#S 3$ R$BA#S#&*S I -ue resuel>e un problema anali;ando -u es obtenible como input 2 -u es deseado como output=
'tro #&emplo( al anali)ar un sistema de imgenes satelitales* percepcionesH pi5els de intensidad 2 longitud de onda >ariables acciones/ mo>er la cmaraI cambiar el filtroI imprimir letreros como 0tan-ue,2O metas/ identificacin cercana a la realidad de todos los ob4etos de la imagen am&iente/ imgenes distorsionadas pro>enientes de una cmara satelital

2!

Tac5ero ne2 agepiloto autom-tico


Percepciones
J J J J ;ideo acelermetro< instrumental del ta&lero sensores del motor teclado

acciones
J J J J gestin del ;olante acelerar y frenar &ocina ,a&lar0graficar

Metas

J seguridad< llegar a destino< ma:imi8ar ganancias< o&edecer las leyes< satisfaccin del cliente J calles ur&anas< a;enidas< tr=fico< peatones< clima< tipo de cliente

Ambiente

2+

Estructura de un agente inteligente


Como todos los agentes tienen una estructura &=sica o m?nima o es*ueltica igual< se puede in;estigar cu=l es ella$ 4esulta as? un A3- %- -6E)-7F%IC2/
function percept 1 1returns functionSPeleton8Agent. SPeleton8Agent. percept returnsaction action static/ memory I t<e agentQs memor2 of t<e Gorld static/ memoryI t<e agentQs memor2 of t<e Gorld memory memory I Ipercept 11 memory Apdate8Memor2. Apdate8Memor2. memory percept action memory 11 action C<oose8"est8Action. C<oose8"est8Action. memory memory memory I Iaction 11 memory Apdate8Memor2. Apdate8Memor2. memory action return returnaction action

3esde un punto de >ista estrictoI no es necesario -ue el agente guarde en su memoria las percepciones entrantes depende del dominio= An dominio es un fragmento del mundo acerca del -ue deseamos ad-uirir conocimiento= $l agente es-ueltico no incorpora la medida de buen 5ito en su meta se entiende -ue ella est siendo aplicada e5ternamente=

2,

C/digo en "isp del agente es6ueltico


GcodeHGfuncH6Ieleton>AgentJHHGtsJG;arHperceptJJHactionJ GfirststaticHmemoryJHt,e agentKs memory of t,e !orldJ G&odysep Gset*HG;arHmemoryJJHGprogH)pdate>MemoryJ (G;arHmemoryHGacJperceptJ"J Gset*HG;arHactionJJ HGprogHC,oose>Lest>ActionJ(G;arHmemoryJ"J Gset*HG;arHmemoryJJHGprogH)pdate>MemoryJ (G;arHmemoryHGacJactionJ"J GIeyHreturnJ G;arHactionJJ

27

!#EA"7 #!+%8 ER #E U A TA."A


7o &=sico de un agente ta&la>intensi;o/
function percept 1 1returns function&able83ri>en8Agent. &able83ri>en8Agent. percept returnsaction action static/ I Iaase-uenceI static/percepts percepts se-uenceIinitiall2 initiall2empt2 empt2 tableI tableIaatable tableinde5ed inde5edb2 b2percept perceptse-uencesI se-uencesIinitiall2 initiall2full2 full2specified specified append appendpercept perceptto tot<e t<eend endof ofpercepts percepts action percepts, 11 action 9ooPAp. 9ooPAp. percepts,table table return returnaction action

@Por *u fracasa el ideal de disponer de una ta&la de consultaA


$sta ar-uitectura adolece de
tamaRo e5cesi>o .no factible1 falta de adaptacin=

KBu tamaRo tendra -ue tener la tabla( .Caso lmiteI el termstato1 $l agente Kpodra aprender de sus errores( K3e dnde podra pro>enir dic<a table en primera instancia(

3@

%a&la>intensi;os

Tipos de Agentes

para encontrar la accin siguiente usar una tabla en memoria del tipo /secuencia de percepciones0Saccin= Se trata de una tabla bastante >oluminosa para repetir la accin 2a e5perimentada antes= se basan en reglas condicinSaccin 2 se implementan con un sistema de PR*3ACC#:%= Carecen de memoria referente a estados pasados del mundo=

Agentes refle.os con un +nico estado (simples" Lien informados de lo *ue pasa Agentes con memoria
con un estado interno usado para seguirle la pista a los estados pasados del mundo=

Agentes meta>intensi;os
adems de disponer de informacin sobre el estadoI tienen una clase de informacin sobre la meta -ue describe situaciones deseables= Agentes de este tipo tienen ba4o consideracin e>entos del futuro=

)tilidad>intensi;os
basan su decisin en la teora a5iomtica clsica de la utilidad para actuar racionalmente=

3?

9Qu es un agente reacti1o simple:


$

Agente refle(o simple

Agente
6ensores
Cmo es el mundo en este momento

Am&iente

4eglas 6i> -ntonces

Eu accin de&o ,acer en este momento conocimiento

cam&ios

-fectores 32

9Qu es un agente reacti1o simple:


7as reglas condicin>accin permiten esta&lecer la cone:in entre percepcin y accin$ A la derec,a del agente se indica el estado interno< +nico en un momento dado del proceso decisional$ A la derec,a est= la &ase de conocimiento en forma de reglas de produccin$ -l sencillo programa del agente aparece m=s a&a.o Interpret>input genera una descripcin a&stracta del estado mostrado por la percepcin 4ule>matc, produce una regla del con.unto *ue satisface la percepcin

function percept 1 1returns functionSimple8Refle58Agent. Simple8Refle58Agent. percept returnsaction action static/ rules I a set of condition8action rules static/ rulesI a set of condition8action rules state percept 11 state #nterpret8#nput. #nterpret8#nput. percept rule state, 11 rule Rule8Matc<. Rule8Matc<. state,rules rules action rule UU action Rule8ActionT Rule8ActionT rule return returnaction action

33

9Qu es un agente reacti1o cuasi0 pro0acti1o:


Agente
-stado Cmo e>oluciona el mundo Eu producen mis acciones

6ensores
Cmo es el mundo en este momento

Am&iente

4eglas 6i > -ntonces conocimiento

Eu accin de&o (acer en este momento

-fectores 34

9Qu es un agente reacti1o cuasi0pro0acti1o:


Agentes &ien informados de lo 6ue pasa
7a actuali8acin del estado interno re*uiere dos tipos de conocimiento codificado
conocimiento acerca de la forma como el mundo cambia 8 independiente de las acciones del agente= conocimiento acerca de la forma en -ue el mundo cambia con moti>o de la accin del agente

Pero el conocimiento del estado interno no siempre es suficiente


para elegir entre rutas decisionales alternati>as.en una interseccin Kdoblar o no doblar el >olante del coc<e(1 pues se re-uiere conocer la meta a lograr

function percept 1 1returns functionRefle58Agent8Vit<8State. Refle58Agent8Vit<8State. percept returnsaction action static/ rules I a set of condition8action rules static/ rulesI a set of condition8action rules state I Iaadescription state descriptionof oft<e t<ecurrent currentGorld Gorld state state I Ipercept 11 state Apdate8State. Apdate8State. state percept rule state, 11 rule Rule8Matc<. Rule8Matc<. state,rules rules action rule UU action Rule8ActionT Rule8ActionT rule state state I Iaction 11 state Apdate8State. Apdate8State. state action return returnaction action

9Qu es un agente orientado a metas:


Agente
-stado Cmo e>oluciona el mundo Eu producen mis acciones Cmo es el mundo en este momento

6ensores

Am&iente

@Eu suceder?a si emprendo la accin AA (ilera de metas Eu accin de&o ,acer en este momento

-fectores 3!

Agentes $eta0!ntensi1os

4a8onando acerca de acciones


un agente refle4o solo actWa basado en conocimientos precomputados .reglas1 la bWs-ueda 2 la planificacin a2udan a ra;onar acerca de cul accin logra la meta el agente es menos eficiente pero ms adaptati>o 2 fle5ible

Eu argumentar acerca de acciones alternati;as *ue llegan a la meta


<a2 -ue ma5imi;ar la utilidad de las accionesI esto esI elegir a-ulla -ue logra la meta me.or -ue otras$

3+

Ar6uitectura General de Agentes $eta0!ntensi1os


Input Inputpercept percept state state I Ipercept 11 state Apdate8State. Apdate8State. state percept goal state, 11 goal )ormulate8'oal. )ormulate8'oal. state,perf-measure perf-measure search-space 11 search-space )ormulate8Problem )ormulate8Problem.state, .state,goal goal plan search-space 11 plan Searc<. Searc<. search-space, ,goal goal !,ile !,ile.plan .plannot notempt21 empt21do do action plan I Istate 11 action Recommendation. Recommendation. plan state plan plan I Istate 11 plan Remainder. Remainder. plan state output outputaction action end end

7os agentes simples no tienen acceso a su medida de &uen :ito


$n ese caso el diseRador elige la meta 2 la incorpora por diseRo a su agente

6imilarmente< los agentes tontos no pueden formular su propio pro&lema


en cu2o caso dic<a formulacin tambien se debe incorporar al diseRo

-l &ucle !,ile# (mientras" > ;er arri&a > es la fase de e.ecucin de la conducta de este tipo de agentes
%tese -ue en esta ar-uitectura se sobreentiende -ue para la fase de e4ecucin no importa monitorear el ambiente=

3,

9Qu es un agente utilidad0 intensi1o:


Agente
-stado Cmo e>oluciona el mundo Eu producen mis acciones Cmo es el mundo en este momento

6ensores

Am&iente

@Eu suceder?a si emprendo la accin AA 4eglas 6i > -ntonces Eu accin de&o ,acer en este momento conocimiento

-fectores 37

Agentes Utilidad0!ntensi1os

Funcin )tilidad
es un mapeo de estados ba4o la forma de nWmeros reales lle>a a decisiones racionales en dos tipos de situaciones
e>aluacin de true-ues entre metas en conflicto e>aluacin de metas en conflicto

4@

Agentes &asados en utilidad


7as metas no &astan para generar una conducta de alta calidad$
7as metas permiten esta&lecer una distincin entre estados felices# e infelices#$ 6i se prefiere un estado en lugar de otro< se dice *ue ese estado ofrece mayor utilidad# al agente$

Utilidad
Funcin *ue caracteri8a el grado de satisfaccin -n temas ;enideros se mencionar= frecuentemente P4I CIPI2 5- MAMIMA )%I7I5A5 -6P-4A5A el

4?

A*% anal'tical 5ierarc5' process

%,omas 6aaty< *ue adem=s de ser talentoso programador es un ,umorista con muc,os li&ros de &uen ,umor pu&licados< ,a salpimentado su demo *ue presenta su contri&ucin matem=tica para la resolucin de pro&lemas multio&.eti;os< tan frecuentes con los agentes inteligentes meta>intensi;os$$ -l demo est= en Internet en nuestro portal 4a8onando so&re el demo< los costos tienen una importancia del NO P en la metodolog?a usada$

42

1;.1 9Qu es un agente aprendi<:


$
-st=ndar de desempe9o

5iferencia o error Retroali8 mentacin -lemento de aprendi8a.e Meta de aprendi; 3enerador de pro&lema cam&ios conocimiento

Sensor

Am&iente

-lemento de desempe9o

$fectores

43

1;.1 Un modelo no1edoso


-n la gr=fica pre;ia se estudia un modelo general de agente aprendi8< modelo no;edoso con respecto a lo ya estudiado$ Comparado con los tres diagramas del cap?tulo 2 de rQn (Agentes inteligentes"< este cuarto diagrama tiene diferencias$ Aparece una entrada adicional (en ro.o" a.eno al agente< *ue es el est=ndar de desempe9o# *ue est= marcado aparte por el dise9ador si se trata de un agente aprendi8 autnomo o no super;isado< o &ien corresponde a un maestro# en el aprendi8a.e supe;isado$ -l error# de&e irse corrigiendo$ 7a 8ona de coneccin directa entre sensores y efectores est= regulada por un elemento de procesamiento del desempe9o en el futuro inmediato< influi&le por ma*uinaria au:iliar de aprendi8a.e< ma*uinaria corregida por el error# detectado$ 7as metas del aprendi8 pueden tener distintos significados$ -studiaremos algunos de estos mdulos en detalle$

44

1;.1 Un modelo no1edoso


caso de un aprendiz de taximetrero automtico (cont.)
R -l e.emplo# gatilla al elemento de aprendi8a.e#$ Fste detecta *ue la manio&ra negati;a ya reali8ada esta&a autori8ada por el con.unto de reglas (esta&a clasificada como positi;a< permitida< &uena"< siendo as? *ue de&iera ,a&er estado pro,i&ida (era un e.emplo positi;o falso"$ (ay *ue desaprender lo mal aprendido y de esa tarea se encarga el algoritmo de aprendi8a.e< p$ e.$< el de me.or ,iptesis del momento$ -s un real &ucle de retroalimentacin$ 7as modificaciones ;an ,acia el elemento de desempe9o en forma de reglas m=s complicadas *ue las pre;ias$ -l generador de pro&lemas act+a respondiendo a una de las metas del aprendi8a.e< en este caso el de optimi8ar el recorrido a ,acer$ -n &ase a ese o&.eti;o el error# o cr?tico o&ser;a *ue ,ay muc,o retardo en la ruta tentati;a empleada (lo cual tam&ien puede pro;enir del elemento de desempe9o" y gatilla al elemento de aprendi8a.e *ue a su ;e8 deri;a el incon;eniente al generador de pro&lemas para *ue dise9e un e:perimento por otra ruta< *ue una ;e8 encarado es comunicado al elemento de desempe9o (enlace sesgado"$

2.=

Am&ientes

2$S

4!

%ropiedades de los Am&ientes


Accesi&le0Inaccesi&le
Si los sensores proporcionan todo lo -ue <a2 -ue saber sobre el estado completo del ambiente 8 necesario para elegir una accin 8 entonces el ambiente es accesible al agente= $sos ambiente resultan con>enientesI 2a -ue liberan al agente de la tarea de mantener actualli;ado su in>entario del mundo=

5etermin?stico0 o>determin?stico (estoc=stico"


Si el estado siguiente del ambiente est determinado plenamente por el estado presente del mismoI 2 por la accin del agente 8 se trata de un ambiente determinstico= As el agente escapa de la incertidumbre=

-pisdico0 o>episdico
An ambiente episdico implica -ue los episodios siguientes no dependen de las acciones -ue ocurran en episodios pre>ios .como en las clsicas cadenas de MarPo>1= $sto le autori;a al agente -ue no se deba preocupar por la planificacin de lo -ue puede ocurrir=

4+

%ropiedades de los Am&ientes )2,


-st=tico05in=mico
Ser esttico todo ambiente -ue no cambie mientras el agente est pensando= %o tiene importancia el tiempo -ue se usa en pensar 2 no necesita monitorear el mundo mientras piensa= $l tiempo carece de >alor mientras se computa una buena estrategia= $n el otro caso ser dinmico=

5iscreto0Continuo
3iscreto 8 con escaso nWmero de percepciones 2 acciones en el ambiente= Continuo 8 el otro caso=

6in ad;ersario0con ad;ersarios racionales


Sin ad>ersario 8 ausencia de otros agentes racionales ad>ersariosH la consecuencia es -ue el agente se libera de la preocupacin de la estrategia de dic<os ad>ersarios en el mismo 4uego= 9os ambientes ingenieriles suelen ser sin ad>ersario= 9os ambientes sociales 2 econmicos aumentan en su comple4idad por la presencia de interacciones entre uno o ms ad>ersarios .por e4emplo en la "olsa1=

4,

Tipos de am&ientes ' sus caractersticas


6olitario C,a*uette o &acIgammon %a:i

Accesi&le AA 5etermin?stico AA -pisdico AA -st=tico AA 5iscreto AA

47

Tipos de am&ientes ' sus caractersticas


s? > s? > no > s? > s? 6olitario C,a*uette o &acIgammon s? > no > no >semi >s? no > no >no > no > no %a:i

Accesi&le 5etermin?stico -pisdico -st=tico 5iscreto

Am&ientes en !nternet

e_mail rupos de noticias !!! "#P $uegos en l%nea "oros &uscadores con diversos agentes 'mbiente apto para miner%a de datos &ibliotecas virtuales (p.e)., de I'*
?

Tipos de am&ientes ' sus caractersticas

An Agent Portfolio

34

"roPer8Corredor de comercio888Spider8"uscadorI literal araRa =

%rograma &-sico para el am&iente


procedure state, , ,agents, 11 procedureRun8$n>ironment. Run8$n>ironment. state,Apdate8)n Apdate8)n agents,termination termination input/ I It<e input/state state t<einitial initialstate stateof oft<e t<een>ironment en>ironment Apdate8)nI function to modif2 Apdate8)nI function to modif2t<e t<een>ironment en>ironment agents I a set of agents agentsI a set of agents termination I Iaapredicate termination predicateto totest testG<en G<enGe Geare aredone done repeat repeat for foreac, eac,agent agentin inagents agentsdo do PerceptT agent U U agent I Istate 11 PerceptT agent 'et8Percept. 'et8Percept. agent state end end for foreac, eac,agent agentin inagents agentsdo do ActionT agent U ProgramTagentU.PerceptT agent U1 ActionTagentU ProgramTagentU.PerceptT agent U1 end end state actions, 11 state Apdate8)n. Apdate8)n. actions,agents, agents,state state until .state 11 untiltermination termination .state

Programa &=sico simulador am&iental


proporciona las percepciones a los agentes anidados en ese ambiente absorbe una accin de cada agente en la unidad de tiempo actuali;a el ambiente para cada unidad de tiempo

+imulador de am&iente al tanto de las medidas de &uen >ito de los agentes


function state, , ,agents, functionRun8$>al8$n>ironment. Run8$>al8$n>ironment. state,Apdate8)n Apdate8)n agents, termination, Performance8)n1 returns termination, Performance8)n1 returnsscores scores local I Iaa>ector local/ /scores scores >ectort<e t<esame samesi;e si;eas asagentsI agentsIinitiall2 initiall2all all@@ repeat repeat for foreac, eac,agent agentin inagents agentsdo do PerceptT agent U 'et8Percept. agent I Istate 11 PerceptTagentU 'et8Percept. agent state end end for foreac, eac,agent agentin inagents agentsdo do ActionT agent U U agent U1 ActionT agent ProgramTagentU.PerceptT ProgramTagentU.PerceptT agent U1 end end state actions, 11 state Apdate8)n. Apdate8)n. actions,agents, agents,state state scores scores, 11 scores Performance8)n. Performance8)n. scores,agents, agents,state state until .state 11 untiltermination termination .state return returnscores scores

Casi siempre< los agentes se ,an dise9ado para satisfacer una cierta clase de ambiente
medicin de buen 5ito en ese ambienteI definido por un estado inicial singular 2 una funcin de actuali;acin particular=

2.?

4esumen

2$N

Resumen
7as principales preocupaciones del cap?tulo 2$ )n agente perci&e y act+a en un cierto am&iente< posee una dada ar*uitectura y est= implementado a tra;s de un programa de agente$ )n agente ideal (omnisciente" siempre elige a*uella accin mediante la cual se ma:imi8a su logro esperado< su.eta a la secuencia de percepciones reci&ida ,asta ese momento$ )n agente autnomo usa su e:periencia propia en lugar de usar conocimiento incorporado por su dise9ador referente al am&iente$ )n programa de agente mapea la ruta entre percepcin y accin y actuali8a el estado interno de dic,o agente$ )n agente refle.o (o reacti;o" responde de inmediato a las percepciones (.ugador de ping pong"$

Resumen
2tras preocupaciones del cap?tulo 2$ )n agente meta>intensi;o (o &asado en metas" act+a de tal manera de o&tener el logro de su meta internali8ada$ $l estudioso
debe tratar de <acerse la imagen mental -ue las metas estn apiladas como la pila de libros del logo de arriba=

)n agente utilidad intensi;o (o &asado en utilidad" ma:imi8a su propia funcin de utilidad$ Poder representar el conocimiento (y a ;eces lograr *ue ese conocimiento pueda ser legi&le por el ,umano" es importante para *ue el dise9o tenga &uen :ito$ 7os am&ientes cam&ian y se presentan como dramaticamente m=s dif?ciles para el agente *ue otros$ 7os m=s dif?ciles son los am&ientes inaccesi&les< no>determin?sticos< no>episdicos< din=micos y continuos$ )no f=cil es el de un ro&ot encargado de ,acer tostadas$

Resumen ' conclusiones ra<onadas


7a inteligencia artificial se ,a presentado como la tecnolog?a de la construccin de agentes inteligentes< con lo cual se unifican temas *ue no ten?an relacin con otros enfo*ues (caso de la ro&tica y la ;isin"$ Eued e;idente *ue el ,ilo conductor es el de ir complicando gradualmente los programas de agente (N"< las funciones de agente ('< utilidad<< actuali8acin y desempe9o" y los programas de am&iente (2< informacin &=sica y detallada"$ Para el apndice 2< Agentes de soporte lgico< las conclusiones aparecen en los par=grafos 1C y 1T$ Ca&e indicar *ue el por;enir estar= en los agentes *ue se comunican< *ue a&arcan numerosos e.emplos de los siete presentados en la serie de diapositi;as$ -l apndice '$ %ostada#< tiene sus conclusiones al final de la glosa principalU$ (ay *ue pensarlas a la lu8 de lo *ue figura en la glosa so&re Ian (ors!ill$ 2&;iamente la nocin de agente aglutina en una meta clara a toda la inteligencia artificial< la cual< sin em&argo< al estar enla8ada con los am&ientes< pierde por suerte toda posi&ilidad de ser una disciplina auto>contenida< pasando a tener condicin de multi>disciplinaria$

Resumen ' conclusiones ra<onadas


7as principales preocupaciones del cap?tulo 2 tienen muc,o *ue ;er con los principales desaf?os de la IA enumerados en el Cap?tulo 1< 6eccin 1$S (modificada" > esto muestra la condicin din=mica de estos intentos$ Comparar los lengua.es de programacin cl=sicos de &ase numrica (con ;ectores de entrada< operadores de transformacin *ue son matrices y ;ectores de salida" Temas principales del Captulo 2 con estos relati;amente distintos programas lgicos e iterati;os de la inteligencia artificial Criticar
PaMA
Percepciones accin Meta Ambiente

Funciones y Programas de Agentes Clasificacin de agentes apndice 2 agentes de soporte lgico ( !ana"#$ %ipos de Am&ientes apndice ' %ostada (Agre y (ors!ille#$

Clase S FA6%A > > > > > > > > > > > > > > > > > > > > > > > > >>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>> >>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>> > > > > > > > > > > > > > > > > > > > > > > > >Foundations of Artificial Intelligence

'

!@

C8 T! @A7
7ectura fundamental/ ,ttp/00personales$up;$es0ccarrasc0doc02OO'>2OOS0!e&semag0agentes$,tm ,ttp/00!!!$angelfire$com0o,S0o,cop0ClaseVi;e$ppt ,ttp/00!!!$angelfire$com0o,S0o,cop0ClaseVi;e$ppt ,ttp/00!!!$angelfire$com0o,S0o,cop0ClaseVi;e$ppt

"#"9#*'RA)#A 3$9 &$MAH


,ttp/00!!!$angelfire$com0o,S0o,cop0ayuda22$,tml ,ttp/00!!!$angelfire$com0o,S0o,cop0ayuda22$,tml ,ttp/00!!!$angelfire$com0o,S0o,cop0ayuda22$,tml

!?

También podría gustarte