Está en la página 1de 13

Inteligencia Artificial

Inteligencia Artificial

TEMAS
Cap. 3 Agentes y ambientes.
3.1 Concepto agentes.
3.2 Comportamiento de agentes.
3.2.1 Tipos de agentes.
3.3 Estructura de agentes.
3.3.1 Programa de agentes.
3.3.2 Arquitectura de agentes.
3.4 Concepto de ambientes.
3.5 Propiedades de ambientes.
3.6 Programas de ambientes.
Opinin Personal.
Bibliografa.

Inteligencia Artificial

DESARROLLO
3.1 Concepto de agentes.
Un agente es cualquier cosa capaz de percibir su medio ambiente con la ayuda de sensores y actuar
sobre ese medio utilizando actuadores (elemento que reacciona a un estmulo realizando una accin).
Los Agentes pueden ser humanos, robots, softbots, dispositivos como el termostato y muchos otros. Un
agente humano tiene ojos, odos y otros rganos sensoriales adems de manos, piernas y otras partes
del cuerpo para actuar. Un gente robot recibe pulsaciones del teclado, archivos y paquetes va red a
modo de entadas sensoriales y acta sobre el medio con mensajes del monitor, escribiendo ficheros y
enviando paquetes por red. Se trabajar con la hiptesis general de que cada agente puede percibir sus
propias acciones.
Un agente tomar una decisin en un momento dado dependiendo de la secuencia completa de
percepciones (percepcin, el agente puede recibir entradas en cualquier instante) hasta ese instante. Si
se pede especificar que decisin tomar un agente para cada una de las posibles secuencias de
percepciones, entonces se habr explicado ms o menos todo lo que se puede decir de un agente. En
trminos matemticos se puede decir que el comportamiento de un gente viene dado por la funcin del
agente que proyecta una percepcin dada en una accin.
La funcin que describe el comportamiento de un agente se puede presentar en forma de tabla, en la
mayora de los casos est tabla sera muy grande. Dado un agente, con el que se quiera experimentar, se
puede, en principio, construir esta tabla teniendo en cuenta todas las secuencias de percepcin y
determinando que accin lleva a cabo el agente en respuesta. La tabla es, por supuesto, una
caracterizacin externa del agente. Inicialmente, la funcin del agente para un agente artificial se
implementar mediante el programa del agente. Es importante diferenciar estas dos ideas: la funcin del
agente es un descripcin matemtica abstracta y el programa del agente es una implementacin
completa, que se ejecuta sobre la arquitectura del agente. Una muestra parcial de la funcin del agente
representada en forma de tabla aparece en el siguiente recuadro:

Secuencia de percepciones
[A, Limpio]
[A, Sucio]
[B, Limpio]
[B, Sucio]
[A, Limpio],[ A, Limpio]
[A, Limpio],[ A, Sucio]
---[A, Limpio],[ A, Limpio],[ A, Limpio]
[A, Limpio],[ A, Limpio],[ A, Sucio]
----

Accin
Derecha
Aspirar
Izquierda
Aspirar
Derecha
Aspirar
---Derecha
Aspirar
----

Inteligencia Artificial
3.2

Comportamiento de los agentes

Un agente racional es aquel que hace lo correcto; en trminos conceptuales, cada elemento de la tabla
que define la funcin del agente se tendras que rellenar correctamente. Obviamente hacer lo correcto es
mejor que hacer lo incorrecto. Se necesita determinar una forma de medir el xito. Ello, junto a la
descripcin del entorno y de los sensores y actuadores del agente, proporcionar una especificacin
completa de la tarea que desempea el agente.
MEDIDAS DE RENDIMIENTO: Estas medidas incluyen los criterios que determinan el xito en el
comportamiento del agente. Cuando se sita un agente en el medio, este genera una secuencia de
acciones de acuerdo con las percepciones que recibe. Esta secuencia de acciones de acciones hace que
su hbitat pase por una secuencia de estados. Si la secuencia es la deseada, entonces el agente habr
actuado correctamente. No hay una nica medida adecuada para todos los agentes. Se puede preguntar
al agente por su opinin subjetiva acerca de su propia actuacin, pero muchos agentes seran incapaces
de contestar y otros podran engaarse as mismos. Por lo que hay que insistir en l importancia de
utilizar medidas de rendimiento objetivas, que normalmente determinar el diseador encargado de la
construccin del agente.
Como regla general, es mejor disear medidas de utilidad de acuerdo con lo que se quiere para el
entorno, ms que de acuerdo con cmo se cree que el agente debe comportarse. La seleccin de la
medida de rendimiento no es siempre fcil.
RACIONALIDAD: Depende en un momento dado de cuatro factores:
La medida de rendimiento que define el criterio del xito.
El conocimiento del medio en el que habita acumulado por el agente.
Las acciones que el agente puede llevar a cabo.
La secuencia de percepciones del agente hasta este momento.
Esto nos lleva a la definicin de que un agente racional en cada posible secuencia de percepciones,
deber emprender aquella accin que supuestamente maximice su medida de rendimiento, basndose en
las evidencias aportadas por la secuencia de percepciones y en el conocimiento de que el agente
mantiene almacenado.
OMNISCIENCIA, APRENDIZAJE Y AUTONOMA:- Es necesario tener cuidado al distinguir entre
racionalidad y omnisciencia. Un agente omnisciente conoce el resultado de su accin y acta de acuerdo
con l; sin embargo, en realidad la omnisciencia no es posible. La racionalidad no es lo mismo que la
perfeccin, la racionalidad maximiza el rendimiento esperado, mientras la perfeccin maximiza el
resultado real. Alejarse de la necesidad de la perfeccin no es slo cuestin de hacer justicia con los
agentes. El asunto es que resulta imposible disear un agente que siempre lleve a cabo, de forma
sucesiva, las mejores acciones despus de un acontecimiento, a menos que se haya mejorado el
rendimiento e las bolas de cristal o de las mquinas de tiempo. La definicin de racionalidad no requiere
omnisciencia, ya que la eleccin racional depende slo de la secuencia de percepciones hasta la fecha.
Es necesario asegurarse de no haber permitido por descuido que el agente se dedique decididamente a
llevar a cabo acciones poco inteligentes.
El agente racional no solo recopila informacin sino que prende lo mximo posible de los que se est
percibiendo la configuracin inicial del agente puede reflejar un conocimiento preliminar del entorno, pero
a medida que el agente adquiere experiencia este puede modificarse y aumentar. Los agentes con xito
dividen las tares de calcular la funcin del agente en tres perodos diferentes: cuando se est diseando
el agente, y estn los diseadores encargados de realizar algunos de estos clculos; cuando est
pensando en la siguiente operacin el agente realiza ms clculos; y cuando est aprendiendo de la
experiencia, el agente lleva a cabo ms clculos para decidir como modificar su forma de comportarse.
Se dice que un gente carece de autonoma cuando se apoya ms en el conocimiento inicial que le
proporciona su diseador que en sus propias percepciones. Un agente debe ser autnomo, debe saber
aprender a determinar como tiene que compensar el conocimiento incompleto o parcial inicial. Despus
de las suficientes experiencias interaccionando con el entorno, el comportamiento del agente raciona l

Inteligencia Artificial
ser efectivamente independiente del conocimiento que pose inicialmente. De ah que la incorporacin del
aprendizaje facilite el diseo de agentes racionales individuales que tendrn xito en una gran cantidad
de medios.

3.2.1

Tipos de agentes

Como ya sealado, existentres tipos de agentes, que dominan actualmente la investigacin:

la de interfaz-agente, que ayuda activamente al usuario para operar interfaces interactivas, y la


de
agentes autnomos, que actan sin la intervencin de usuario y opera concurrentemente o
mientras el usuario est ocioso o realiza otras acciones. Tambin se investiga la confeccin de
agentes autnomos que operan en la interfaz, es decir que combinan ambos aspectos.

As, por ejemplo, se designa a veces los motores de bsqueda de la World Wide Web como "agentes" de
bsqueda: en realidad, no son agentes en modo alguno si slo se constituyen de un formulario en que un
campo de datos est destinado a recibir una frmula de bsqueda (son los tpicos search engines). Sern
"interfaces-agentes" cuando ayuden realmente al cliente a refinar su bsqueda y, ms an, cuando
busquen por s mismo las pginas que puedan contestar a una solicitud, despus de hacer una serie de
preguntas que les permitan suponer que los datos obtenidos del usuarios son suficientes para encontrar
respuestas satisfactorias (stos son los "reptiles" o web crawlers). Pero esta interfaz-agente no aprende
nada ni libera al usuario para que realice otras actividades: no es un agente autnomo.
Como ya sealado, el agente autnomo puede

estar basado en conocimientos (dotado de una base de reglas y una base de hechos que crece
a medida que se usa) o
estar basado en comportamientos (con registro incremental de hechos y algoritmos de
deduccin), lo cual implica esfueroz de programacin diferentes y tambin un potencia de
aplicacin diferente.

3.3 Estructura de los agentes


Hasta este momento se ha hablado de los agentes describiendo su conducta, la accin que se realiza
despus de una secuencia de percepciones dadas. Ahora se trata de centrarse en el ncleo del problema
y hablar sobre como trabajan internamente. El trabajo de la IA es disear el programa del agente que
implementa la funcin del agente que proyecta las percepciones en las acciones, se asume que este
programa se ejecutar en algn tipo de computador de sensores fsicos y actuadores, lo cual se conoce
como arquitectura:
Agente = arquitectura + programa
Obviamente, el programa que se elija tiene que ser apropiado para la arquitectura. Si el programa tiene
que recomendar acciones como Caminar la arquitectura tiene que tener piernas. La arquitectura puede
ser un PC comn o puede ser un coche robotizado con varios computadores, cmaras y otros sensores a
bordo. En general, la arquitectura hace que las percepciones de los sensores estn disponibles para el
programa, ejecuta los programas, y se encarga de que actuadores en marcha las acciones generadas.

Inteligencia Artificial

3.3.1

Programas de agentes

Estos programas de agentes que se describen a continuacin tienen la misma estructura: reciben las
percepciones actuales como entradas de los sensores y devuelven una accin a los actuadores. Hay que
tener en cuenta la diferencia entre los programas de los agentes, que toman la percepcin actual como
entrada, y la funcin el agente que recibe la percepcin histrica completa. Los programas de los agentes
recibe slo la percepcin actual como entrada porque no haya nada ms disponible en el entorno; si las
acciones del agente dependen de la secuencia completa de percepciones, el agente tendra que recordar
las percepciones. La siguiente fig.:

Funcin agente-dirigido-mediantetabla (percepcin) devuelve una accin


Variables estticas: percepciones, una secuencia, vaca inicialmente
Tabla, una tabla de acciones, indexada por las secuencias
de percepciones, totalmente definida inicialmente.
Aadir la percepcin al final de las percepciones
Accion consulta (percepciones, tabla)
Devolver accin

Muestra un programa de agente muy sencillo que almacena la secuencia de percepciones y despus las
compara con las secuencias almacenadas en la tabla de acciones para decidir que hacer. La tabla
representa la funcin que define el programa del agente. Para construir un agente racional de esta forma,
los diseadores deben realizar una tabla que contengan las acciones apropiadas para cada secuencia
posible de percepciones.
El agente-dirigido-mediantetabla hace lo que nosotros queremos: implementa la funcin deseada para el
agente. El desafo clave de la IA es encontrar la forma de escribir programas, que en la medida de lo
posible, reproduzcan un comportamiento racional a partir de una pequea cantidad de cdigo en vez de
que partir de un gran tabla con gran nmero de entradas. Por ejemplo, las grandes tablas de las races
cuadradas utilizadas por ingenieros y estudiantes antes de 1970 se han reemplazado por un programa
de cinco lneas que implementa el mtodo de Newton en las calculadoras electrnicas, la pregunta en el
caso del comportamiento inteligente general puede hacer la IA hacer lo que Newton hizo con las races
cuadradas? Se cree que la respuesta es afirmativa.
Estos son los cuatro tipos bsicos de programas para agentes que encarnan los principios que subyacen
en casi todos los sistemas inteligentes:
Agentes reactivos simples.
Agentes reactivos basados en modelos.
Agentes basados en objetivos.
Agentes basados en utilidad.

AGENTES REACTIVOS SIMPLES:- Es el tipo de agente ms sencillo. Estos agentes seleccionan las
acciones sobre la base de las percepciones actuales, ignorando el resto de las percepciones histricas.
Imagnese que es conductor de un taxi automtico. Si el coche que circula delante frena, y las luces del
freno se encienden, entonces lo advertira y comenzara a frenar, es decir, se llevara a cabo algn tipo de
procesamiento sobre las seales visuales para establecer la condicin que se llama << el coche que
circula adelante est frenando>> el ser humano tambin tiene muchas de estas conexiones de las cuales
son respuestas aprendidas y otras son reacciones innatas. Los agentes reactivos simples tienen la

Inteligencia Artificial
admirable propiedad de ser simples pero poseen una inteligencia muy limitada. Los bucles infinitos son a
menudo inevitables para los agentes reactivos simples que operan en algunos entornos parcialmente
observables. Salir de estos bucles es posible si los agentes pueden seleccionar sus acciones
aleatoriamente. En entorno de agentes individuales el comportamiento aleatorio no es normalmente
racional , es un truco til que ayuda a los agentes reactivos simples en algunas situaciones pero se
obtendrn mejores resultados con agentes deterministas ms sofisticados.
AGENTES REACTIVOS BASADOS EN MODELOS:- La forma ms efectiva que tienen los agentes de
manejar la visibilidad parcial es almacenar informacin de las partes del mundo que no pueden ver. O lo
que es los mismo que el agente debe mantener algn tipo de estado interno que dependa de la historia
percibida y que de ese modo refleje por lo menos algunos de los aspectos no observables del estado
actual.
La la actualizacin de lo informacin de estado interno segn pasa el tiempo requiere codificar dos tipos
de conocimientos en el programa del agente. Primero, se necesita alguna informacin acerca de cmo
evoluciona el mundo independientemente del agente. Este conocimiento de cmo funciona el mundo,
tanto si est implementado con un circuito booleano simple o con teoras cientficas completas, se
denomina modelo del mundo. Un agente que utilice este modelo es un agente basado en modelos.
AGENTES BASADOS EN OBJETIVOS:- El conocimiento sobre el estado actual del mundo no es
siempre suficiente para decidir que hacer. El programa del agente se puede combinar con informacin
sobre los resultados de las acciones posibles para elegir las acciones que permitan alcanzar el objetivo.
En algunas ocasiones, l seleccin basadas en objetivos es directa, cuando alcanzar los objetivos es el
resultado inmediato de una accin individual en otras ocasiones puede ser ms complicado, cuando el
agente tiene que considerar secuencias complejas para encontrar el camino que le permita alcanzar el
objetivo. Bsqueda y planificacin son los subcampos de la IA centrados en encontrar la secuencias de
acciones que permitan a los agentes alcanzar sus metas.
Hay que tener en cuenta que la toma de decisiones de este tipo es fundamentalmente diferente de las
reglas de condicin-accin descritas anteriormente, en las que hay que tener en cuenta consideraciones
sobre el futuro. En los diseos de agentes reactivos esta informacin no est representada
explcitamente porque las reglas que maneja el agente proyectan directamente las percepciones en las
acciones. El agente reactivo frena cuando ve luces de freno un agente basado en objetivos, en principio,
puede reaccionar que si el coche que va adelante tiene encendidas las luces de frenado, est reduciendo
su velocidad. Aunque el agente basado en objetivos puede parecer menos eficiente, es ms flexible ya
que el conocimiento que soporta su decisin est representado explcitamente y puede modificarse. El
comportamiento del agente basado en objetivos puede cambiarse fcilmente para que se dirija a una
localizacin diferente. Las reglas de los agentes reactivos relacionadas con cundo girar y cundo seguir
recto son vlidas par un destino concreto y tienen que modificarse cada vez que el agente se dirija a
cualquier otro lugar destino.
AGENTES BASADOS EN UTILIDAD:- Las metas por si solas no son realmente suficientes para generar
comportamiento de gran calidad en l mayora de los entornos. Las metas solo proporcionan una cruda
distincin binaria entre los estados de felicidad y tristeza mientras que una medida de eficiencia ms
general debera permitir una comparacin entre estados del mundo diferentes de acuerdo al nivel exacto
de felicidad que el agente alcance cuando se llegue a un estado u otro. Una funcin de utilidad proyecta
un estado en un nmero real, que representa un nivel de felicidad. La definicin completa de una funcin
de utilidad permite tomar decisiones racionales en dos tipos de casos en los que las metas son
inadecuadas. Primero, cuando haya objetivos conflictivos, y slo se puedan alcanzar algunos de ellos.
Segundo, cuando hay varios objetivos por los que se pueda guiar al agente y ninguno de ellos se pueda
alcanzar con certeza, la utilidad proporciona un mecanismo para ponderar la probabilidad de xito en
funcin de la importancia de los objetivos.
Un agente que posee una funcin de utilidad explcita puede tomar decisiones racionales, y lo puede
hacer con la ayuda de un algoritmo de propsito general que no dependa de la funcin especfica de
utilidad a maximizar.

Inteligencia Artificial
AGENTES QUE APRENDEN:- Se han descrito programas para agentes que poseen varios mtodos
para seleccionar acciones. Pero no se ha explicado como poner en marcha estos programas de agentes.
Turing en su temprano y famoso artculo, consider la idea de programar sus mquinas inteligentes a
mano. Estim cunto tiempo poda llevar y concluy que <<sera deseable utilizar un mtodo ms
rpido>> el mtodo que propone es construir mquinas que aprendan y despus ensearlas. En muchas
reas de la IA. ste es hasta ahora el mtodo ms adecuado para crear sistemas novedosos. El
aprendizaje tiene otras ventajas: como se ha explicado: permite que el agente opere en medios que
inicialmente desconocidos y que sea ms competente que si slo utilizase un conocimiento inicial.
Un agente que aprende se puede dividir en cuatro componentes conceptuales. La distincin ms
importante entre el elemento de aprendizaje y el elemento de actuacin es que el primero est
responsabilizado de hacer las mejoras y el segundo se responsabiliza de la seleccin de acciones
externas. El elemento de actuacin es lo que anteriormente se haba considerado como el agente
completo: recibe estmulos y determina las acciones a realizar. El elemento de aprendizaje se realimenta
con las crticas sobre la actuacin del agente y determina como se debe modificar el elemento de
actuacin para proporcionar mejores resultado en el futuro. La crtica indica el elemento de aprendizaje
que tal lo est haciendo el agente con respecto a un nivel de actuacin fijo. La crtica es necesario
porque las percepciones por s mismas no prevn una indicacin del xito del agente. El ltimo
componente del agente con capacidad de aprendizaje es el generador de problemas. Es responsable de
sugerir acciones que lo guiarn hacia experiencias nuevas e informativas. Lo interesante es que si el
elemento de actuacin sigue su camino, puede continuar llevando a cabo las acciones que sean mejores,
dado su conocimiento. Pero si el agente est dispuesto a explorar un poco, y llevar cabo algunas
acciones que no sean totalmente ptimas a largo plazo.
En resumen, los agentes tienen una gran variedad de componentes y estos componentes se pueden
representar de muchas formas en los programas de agentes , por lo que parece haber una gran variedad
de mtodos de aprendizaje. El aprendizaje es el campo de los agentes inteligentes puede definirse como
el proceso de modificacin de cada componente del agente, lo que permite a cada componente
comportarse ms en consonancia con la informacin que se recibe, lo que por tanto permite mejorar el
nivel medio de actuacin del agente.

3.3.2

ARQUITECTURA DE AGENTES

Al igual que existen millones de especies de animales, as mismo existen muchas especies de agentes ,
cada uno de ellos desarrollando las tareas para las que ha sido creado. La estructura concreta de estas
arquitectura depender de las tareas y el entorno donde estas se desarrollen.
Algunos agentes sern ms complejos e inteligentes que otros. Pero la gran pregunta es si podremos
encontrar una arquitectura ideal que dote a un agente de una inteligencia artificial similar a los de los
seres humanos? Probablemente no, ya que incluso nacen o son de muy diferentes maneras. Algunos
piensan mediante imgenes, sonidos, otros mediante smbolos o sonidos, algunos son impetuosos, otros
ms deliberativos, unos se centran en los detalles otros en aspectos ms generales; algunos se adaptan
fcilmente a nuevas situaciones, mientras que otros son ms flexibles.
Asumiendo que probablemente no exista una nica arquitectura ideal para agentes inteligentes; sin
embargo, hemos de tener en cuenta que se han propuesto y utilizado otras arquitecturas diferentes.

ARQUITECTURA DE TRES NIVELES


El robot Shakey, es uno de los primeros sistemas digitales integrados a los que podemos considerar
como un agente inteligente, constituido por una serie de programas con su hardware correspondiente. El
hardware de Shakey est formado por un pequeo vehculo, cuyo tamao aproximado era el de un
pequeo frigorfico al que se le aadieron una serie de sensores de contacto, una cmara de video y un
dispositivo de barrido ptico todo controlado por un ordenador mediante un enlace de radio bidireccional.
Entre los programas que tena Shakey, estaban aquellos encargados del anlisis de las escenas. El

Inteligencia Artificial
diseo de Shakey puede considerarse como uno de los primeros ejemplos de lo que posteriormente se
denomin ARQUITECTURA DE TRES NIVELES. Cada nivel corresponde con una forma distinta de
conectar las seales sensoriales con las acciones motoras. Los niveles son:
El nivel inferior, define una conexin directa y rpida entre las entradas sensoriales y los efectores a
travs de las acciones de las aplicaciones de bajo nivel. Tambin es el encargado del control de los
motores para alcanzar un conjunto de puntos que permitan la deteccin de esquinas de objetos.
El nivel intermedio, se combina las ABN en pautas de comportamiento ms complejas, cuya aplicacin
depende de la situacin del entorno en el modelo de su aplicacin.
El nivel superior, se corresponde con un planificador STRIPS. Es el encargado de la ejecucin de los
planes recibe como entrada un objetivo expresado mediante un fbf de clculo de predicados, y supervisa
la elaboracin del plan mediante el procedimiento STRIPS.
Esta arquitecura de tres niveles ha sido utilizada recientemente en otros sistemas robticos. En la
mayora de los casos, es necesario incluir en el nivel inferior algn mecanismo de servocontrol de las
acciones de bajo nivel. Para los niveles intermedio y superior se han propuesto diferentes subsistemas de
la IA, que van desde la arquitecturas de pizarra hasta la de redes de creencia bayesianas dinmicas, la
lgica difusa o los planificadores de planes parciales.
Esta arquitectura de tres niveles es slo una de las posibles soluciones al problema de combinar la
capacidad de reaccionar rpidamente a los cambios del entorno con la capacidad de planificar la
secuencia de acciones necesarias para alcanzar los objetivos complejos. En la mayora de la arquitectura
de los agentes, las acciones reflejas tienen preferencia sobre los procesos de planificacin. La necesidad
de acciones reflejas es un ejemplo en el caso general de que un agente necesita atender
simultneamente a varios objetivos. Cada uno de los objetivos activos en un determinado instante tiene
asociado una urgencia que depende de la prioridad intrnseca del objetivo en dicho instante y del coste
relativo necesario para alcanzar dicho objetivo a partir de la situacin actual.
Algunos de los objetivos pueden ser alcanzadas aplicando rutinas de bajo nivel o ANI previamente
almacenadas, mientras que otros requerirn un proceso de planificacin. Aunque la urgencia de cada uno
de los objetivos puede cambiar a medida que el agente vaya actuando y se encuentre en nuevas y en
algunos casos inesperadas situaciones, la arquitectura tiene que ser capaz de gestionar la evaluacin y
seleccin de objetivos.
ARQUITECTURA DE TRES MDULOS
En la arquitectura de tres mdulos los niveles superiores utilizan predicados perceptuales ms abstractos
que los utilizados en niveles inferiores. Mientras que las acciones reflejas son invocadas por las seales
sensoriales primitivas, la coordinacin de las acciones de los niveles superiores requiere un
procesamiento perceptual elaborado. El mdulo encargado del procesamiento perceptual recoge las
seales sensoriales y las va transformando hacindolas pasar por distintos niveles, haciendo
representaciones ms abstractas y definidas. Ambos mdulos de percepcin y el de accin se pueden
conectar a cualquier nivel de la jerarqua. Las conexiones en los niveles ms bajos se corresponden con
los actos reflejos, mientras que las conexiones en los ms altos se corresponden con acciones ms
complejas, evocados por predicados perceptuales especializados en dichas acciones.
Esta arquitectura puede resultar intuitiva, slo es una aproximacin inicial que requiere trabajo adicional
para su refinamiento.

3.4 CONCEPTO DE AMBIENTES


Ya que se tiene una definicin de racionalidad se puede pensar en la construccin de agentes racionales,
pero hay que centrarse en los entornos de trabajo, que son esencialmente los problemas para que los
agentes racionales son las soluciones.
Para ello se empieza por mostrar un entorno de trabajo, ilustrando el proceso en varios ejemplos.
Posteriormente se mostrar que el entorno de trabajo ofrece diferentes posibilidades, de forma que cada
una de las posibilidades influyan directamente en el diseo del programa del agente.

Inteligencia Artificial
Especificacin del entorno de trabajo:- en la discusin de de la racionalidad de un agente aspiradora
simple, hubo que especificar las medidas de rendimiento, el entorno y los actuadores y sensores del
agente. Todo ello forma lo que se llama entorno de trabajo, tambin se lo denomina REAS
(RENDIMIENTO, ENTORNO, ACTUADORES, SENSORES). En el diseo de un agente, el primer paso
debe ser siempre especificar el entorno de trabajo de la forma ms completa posible. En el siguiente
recuadro se muestra un esquema con los elementos RES bsicos para diferentes clases de agentes
adicionales

Tipos de agentes

medidas de entorno
Rendimiento

actuadores

sensores

Sistemas de diagNstico medico.

pacientes, sa- pacientes,


Nos, reducir hospital,
Costos.
Personal

visualizar preguntas, pruebas


diagnsticos.

teclado para la
entrada de sntomas, conluSiones, respue
tas.

Sistema de anisis de imgenes


De satlites.

categoriza- conexin
cin de ima- con satli
gen correcta te

visualizar categorizacion de
escena

matriz de pixeles de colores.

Robot para la
Seleccin de
Componentes

porcentaje
component
clasificados
En Cubos
Correctos

cinta trans- brazo y maportdora con nos articulado


componentes
cubos.

cmara sensor
angular

Controlador de
Una refinera

maximizar
la pureza
Produccin
Seguridad

refinera
operadores

temperatura
presin
sensores
qumicos

vlvulas
bombas
monitores

En contraste existen algunso agentes de software en entornos rico s y prcticamente ilimitados. Imagine
un softbot diseado para pilotaer el simulador de vuelo de un avin comercial. El simulador es un medio
muy detallado y complejo que incluye otros aviones y operaciones de tierra, el agente de software debe
elegir el tiempo real, una de entre un amplio abanico de posibilidades.

3.5 PROPIEDADES DE AMBIENTES


El rango de los entornos de trabajo en los que se utiliza la IA es obviamente muy grande. Sin embargo,
para identificar un pequeo de nmero de dimensiones en las que categorizar estos entornos. Estas
dimensiones determinan, el diseo adecuado para el agente y la utilizacin de cada una de las familias
principales de tcnicas de implementacin del agente. Primero se miden las dimensiones y despus se
analixan varios entornos de trabajo para ilustrar varias ideas.

10

Inteligencia Artificial
Totalmente observable vs estocstico:- si el siguiente estado del medio est totalmente determinado
por el estado actual y la accin ejecutado por el agente, entonces se dice que el entorno es determinista;
de otra forma es estocstico. En principio un agente no se tiene que preocupar por la incertidumbre en un
medio totalmente observable entonces puede parecer estocstico. Esto es cierto si se trata de un medio
complejo haciendo posible el mantener constancia de todos los aspectos observados. As, a menudo es
mejor pensar en entonos deterministas o estocsticos desde el punto de vista del agente.
Episopdico vs secuencial:- en un entorno episopdico , la experiencia del agente se divide en
episodios atmicos. Cada episodio consiste en la percepcin del agente la realizacin de una nica
accin posterior. Es muy importante tener en cuenta que el siguiente episodio no depende de las
acciones que se realizaron en episodios previos. En los medios episopdicos la eleccin de la accin en
cada episodio depende slo del episodio de s mismo. Muchas tareas de clasificacin son episopdicas.
Los medios episopdicos son ms simples que los secuenciales porque la gente no necesita pensar con
tiempo.
Esttico vs dinmico:- si el entorno puede cambiar cuando el agente est deliberando, entonces se
dice que el entorno es dinmico para el agente; de otra forma se dice que es esttico. Los medios
estticos son fciles de tratar ya que el agente no necesita estar pendiente dl mundo mientras est
tomando una decisin sobre una accin, ni necesita preocuparse por el paso dl tiempo. Los dinmicos por
el contrario, estn preguntando constantemente al agente qu quiere hacer, sino se ha decidido an,
entonces se entiende que est tomando la decisin de no hacer nada.
Discreto vs continuo:- a distincin entre discreto y continuo se puede aplicar al estado del medio, a la
forma en que se maneja el tiempo y a las percepciones y acciones del agente. Las imgenes captadas
por cmaras digitales son discretas, en sentido estricto, pero se tratan tpicamente como
representaciones continuas de localizaciones e intensidades variables.
Agente individual vs multiagente:- la distincin del entorno entre un agente individual y un sistema
multiagente puede parecer suficientemente simple. El ajedrez es un entorno multiagente competitivo. Los
diseos e agente que aparecen en los entornos multiagentes son a menudo bastantes diferentes de los
que aparecen en entornos con un nico agente.
Como es de esperar, el caso ms complejo es el parcialmente observable, estocstico, secuencial,
dinmico, continuo y multiagente. De hecho, suele suceder que la mayora de las situaciones reales son
tan complejas que sera discutible clasificarlas como realmente deterministas.

3.6 PROGRAMAS DE AMBIENTES


Con el fin de buscar herramientas que apoyen en el aprendizaje de la Inteligencia Artificial, se han
desarrollado de una serie de herramientas de software que faciliten la actividad de desarrollar programas
y les permitan poner en prctica sus conocimientos acerca de la Inteligencia Artificial. En la primera fase
del desarrollo de una de estas herramientas, Puzzle, considera algunos conceptos bsicos de la
Inteligencia Artificial relacionados con el comportamiento, el manejo del conocimiento y su uso. Puzzle es
una herramienta que permite al usuario construir programas de cmputo en un ambiente colaborativo,
siguiendo la filosofa de la programacin visual. Cada estudiante puede colaborar en la implementacin
de un algoritmo, sin la necesidad de tener grandes conocimientos acerca de la sintaxis de un lenguaje de
alto nivel, y aplicar dicho algoritmo a la resolucin de problemas. La gran ventaja es que ahora no se
preocupa por los detalles de la implementacin de los diferentes algoritmos y tcnicas, ni tampoco
necesita ser un experto en el manejo de algn lenguaje de programacin de alto nivel. De esta manera se
puede comprobar de manera simple las ventajas y limitaciones de los diferentes mtodos.

11

Inteligencia Artificial

OPININ PERSONAL

En lo personal os agentes o mejor dicho la existencia de los agentes es muy productiva para el mayor
desarrollo de lo que es la IA, porque, de esta forma se estn dando grandes avances para llevar a cabo lo
que siempre se ha querido realizar desde el principio, que es, que un agente artificial pueda reaccionar y
ms que nada que aprenda continuamente como lo hace el ser humano. Lograr esto sera el logro ms
importante del ser humano, aunque actualmente ya existen estos agentes que de una u otra forma han
aportado para apoyar lo que esta idea de la IA aunque an no se lo ha logrado totalmente. Esperamos
que en un futuro no muy lejano podamos lograr constriuir un agente bastante parecido al ser humano, lo
que sera muy excitante y sobre todo esperamos sea servible para la raza humana.

12

Inteligencia Artificial

BIBLIOGRAFIA

INTELIGENCIA ARTIFICIAL UN ENFOQUE MODERNO. STUART RUSSELL/PETER NERVIG


INTEIGENCIA ARTIFICIAL UNA NUEVA SNTESIS. NILS NILSSON

http://webdelprofesor.ula.ve/ingenieria/jacinto/ia/capitulo02.pdf
http://ihm.ccadet.unam.mx/virtualeduca2007/pdf/246-GDM.pdf

13

También podría gustarte