Está en la página 1de 24

UNIDAD 4: LA INTELIGENCIA ARTIFICIAL

La inteligencia artificial se ha empleado con 2 enfoques:


 Débil: es posible construir máquinas que se comporten como si fuesen
inteligentes
 Fuerte: es posible la construcción de máquinas inteligentes

4.1 Filosofía y desarrollo de la inteligencia artificial


¿Qué se entiende habitualmente por filosofía de la IA?
Poco podemos decir respecto a la automatización de procesos susceptibles de ser
reproducidos como algoritmos que, a fin de cuentas, no son más que una ayuda
para otras actividades más propiamente humanas. Ayudar no es sustituir. No se
trata por tanto de abordar el hecho incontrovertible de si las máquinas pueden
ayudar en actividades humanas, sino la cuestión más controvertida acerca de si
pueden pensar, desarrollar una conciencia o llegar a ser libres. Según la entrada
de la Stanford Encyclopedia of Philosophy, el campo de la IA puede definirse
como el ocupado en la construcción de un artefacto capaz de pasar el test de
Turing. Y, de manera más general, puede definirse como el de las máquinas que
piensan y/o actúan de manera humana y/o racional. (Bringsjord and Govindarajulu
2018).

La IA es la rama de la ciencia que se encarga del estudio de la inteligencia en


elementos artificiales y, desde el punto de vista de la ingeniería, propone la
creación de elementos que posean un comportamiento inteligente. Dicho de otra
forma, la IA pretende construir sistemas y máquinas que presenten un
comportamiento que si fuera llevado a cabo por una persona, se diría que es
inteligente. El aprendizaje, la capacidad de adaptación a entornos cambiantes, la
creatividad, etc., son facetas que usualmente se relacionan con el comportamiento
inteligente. Además, la IA es muy interdisciplinar, y en ella intervienen disciplinas
tan variadas como la Neurociencia, la Psicología, las Tecnologías de la
Información, la Ciencia Cognitiva, la Física, las Matemáticas, etc. Se considera
que el origen de la IA se remonta a los intentos del hombre desde la antigüedad
por incrementar sus potencialidades físicas e intelectuales, creando artefactos con
automatismos y simulando la forma y las habilidades de los seres humanos. La
primera referencia escrita a un sistema artificial inteligente ocurre en la mitología
griega. En ella se atribuye a Hefestos, dios del fuego y las forjas, la fabricación de
“dos sirvientes de oro macizo y con inteligencia en su mente y capacidad de
hablar”. En la Edad Media, San Alberto Magno construye un “mayordomo” que
abría la puerta y saludaba a los visitantes. Ya en la edad moderna (s. XVII), los
Droz, famosos relojeros de centroeuropa, construyeron tres androides: un niño
que escribía, otro que dibujaba y una joven que tocaba el órgano y simulaba
respirar. Esta realización, basada en mecanismos de relojería, les costó ser
detenidos y encerrados por la Inquisición. En cuanto a los avances del Siglo XIX y
del Siglo XX, hay que destacar los trabajos de Pascal, Leibnitz, Babbage y Boole.
También es importante la aportación de Ada Lovelace, colaboradora de Charles
Babbage y mujer de Lord Byron, que en el conocido “régimen de Lovelace”
establece lo siguiente: “las máquinas sólo pueden hacer todo aquello que
sepamos cómo ordenarles que hagan. Su misión es ayudar a facilitar lo ya
conocido”. Esto que está todavía vigente en la “informática convencional” fue
superado por los avances en IA. También cabe destacar y es revelador el hecho
de que varios de los padres indiscutibles de la ciencia de la computación, como
son Turing, Wiener y Von Neumann, dedicaran un gran esfuerzo al estudio de la
inteligencia humana. La contribución del matemático inglés Alan Turing al mundo
de la computación en general, y al de la IA en particular, fue muy considerable.
Turing, participó en el diseño de uno de los primeros computadores que existieron,
desarrollado para el ejército inglés, entre los años 40 y 50. Además de aportar los
conceptos básicos de la arquitectura secuencial de los computadores, publicó en
1950 un provocador artículo que tiene por título “Computer Machinery and
Intelligence”, que comienza con la no menos provocadora pregunta: ¿Pueden las
máquinas pensar? En dicho artículo el autor intenta abordar formalmente acciones
consideradas hasta ese momento propias de los seres humanos, de forma que
después pudieran implementarse en las máquinas, dotándolas así de capacidades
como: aprender, crear, etc. En el citado artículo Turing también desarrolla el test
que sería central en la definición de un elemento artificial que posea “inteligencia”,
el famoso “Test de Turing”, también llamado “Test de Imitación”. En este test se
sitúan dos terminales en una sala, uno de ellos conectado a un computador y el
otro a un ser humano. Se pretende que un interrogador realice preguntas a través
de un puesto conectado a los dos terminales. El test es superado si el interrogador
no puede discernir cuál de los dos terminales está conectado a un computador y
cuál está conectado a un ser humano. Turing propone que “el juego de la imitación
debe aceptarse como un criterio básico. Porque es así como nosotros
reaccionamos entre nosotros”. Si bien el origen inmediato del concepto y de los
criterios de desarrollo de la IA se debe a Alan Turing, el apelativo “Inteligencia
Artificial” se debe a John McCarthy. McCarthy era uno de los integrantes del
“Grupo de Dartmouth” que se reunió en 1956 con fondos de la Fundación
Rockefeller para discutir la posibilidad de construir máquinas que no se limitaran a
hacer cálculos prefijados, sino operaciones “inteligentes”. Entre los integrantes de
este grupo estaban: Samuel, que había escrito un programa de juego de damas
capaz de aprender de su propia experiencia; el propio McCarthy, que estudiaba
sistemas capaces de efectuar razonamientos de sentido común; Minsky, que
trabajaba sobre razonamientos analógicos de geometría; Selfridge, que estudiaba
el reconocimiento visual por computador; Newell, Shaw y Simon, que habían
construido un programa que pretendía la demostración automática de teoremas; y
algunos otros. A partir de este grupo inicial, se formaron dos grandes “escuelas”
de IA. Por un lado, Newell y Simon lideraron el grupo de la Universidad de
Carnegie-Mellon, proponiéndose desarrollar modelos de comportamiento humano
con aparatos cuya estructura se pareciese lo más posible a la del cerebro, lo que
posteriormente derivó en la llamada postura “conexionista” y en los trabajos sobre
“Redes de Neuronas Artificiales” también llamadas “Sistemas Conexionistas”. Por
otro lado, McCarthy y Minsky formaron otro grupo en el mítico Instituto
Tecnológico de Massachussets (MIT), centrándose en que los resultados del
procesamiento tuviesen el carácter de inteligente, sin preocuparse si el
funcionamiento o la estructura de los componentes eran parecidos o no a los del
ser humano. Ambos enfoques sin embargo corresponden a los mismos objetivos
prioritarios de la IA: entender la inteligencia natural humana, y usar máquinas
inteligentes para adquirir conocimientos y resolver problemas considerados como
intelectualmente difíciles. Sin embargo, en la IA “tradicional” (escuela del MIT), que
tuvo mayor auge en los primeros veinte años, los investigadores se encontraron
con que sus sistemas sucumbían ante la creciente longitud y complejidad de su
programación. Stewart Wilson, investigador del Instituto Roland (Massachussets),
se dio cuenta de que algo andaba mal en el campo de la IA “tradicional” y,
preguntándose cuáles eran las raíces de la inteligencia, se convenció de que la
mejor manera de comprender cómo funciona algo en un ser humano, es
comprenderlo primero en un anima1 más simple. Teniendo en cuenta que, en
última instancia, la IA intentaba conseguir una réplica de la inteligencia humana,
Wilson decidió que lo primero que había que hacer era replicar la inteligencia
animal. Se trataba de una idea que nunca había tenido mucha popularidad entre
los investigadores de IA, pero él y otros investigadores pronto la transformaron en
un primer principio informal de un nuevo enfoque de ésta, basado en la naturaleza.
Enfoques de la IA
Se pueden definir dos puntos de vista o enfoques de la IA, el punto de vista
tecnológico o ingenieril y el punto de vista científico. Por un lado, la rama ingenieril
busca la creación de sistemas informáticos que realicen tareas para las que se
precisa inteligencia. Se persigue desde este planteamiento la resolución de
problemas concretos, sin limitar las técnicas a utilizar a aquellas que utilizan los
seres inteligentes. Por otro lado, la rama científica de la IA se puede definir como
“el estudio del comportamiento inteligente, siendo su fin conseguir una teoría de la
inteligencia que explique la conducta que se produce en seres de natural
inteligentes, y que guíe la creación de entes artificiales capaces de alcanzar dicho
proceder inteligente”. Las técnicas clásicas, desde el punto de vista tecnológico
han tenido un relativo éxito, y sus productos (Sistemas Expertos, Sistemas
Basados en el Conocimiento, etc.) se usan ampliamente. El principal problema de
estas técnicas radica en que no son capaces de adaptarse a los cambios del
entorno y que es preciso tener un conocimiento explícito del problema para poder
abordarlo satisfactoriamente. Estos sistemas han de ser programados y no
pueden auto programarse y adaptarse así a nuevos requisitos del entorno. Para
resolver este problema, se han desarrollado diversas aproximaciones
computacionales conocidas de forma global como Técnicas Adaptativas. A
continuación, se describirán las más utilizadas.

4.2 Ingeniería del conocimiento


La Ingeniería del Conocimiento tiene que ver con la adquisición, representación,
validación, inferenciación, explicación y mantenimiento del conocimiento describe
el proceso de desarrollo y mantenimiento de Sistemas de Inteligencia Artificial.
La ingeniería de Conocimiento se asocia como rama de la Inteligencia Artificial
(IA), debido a que esta “relacionada con la adquisición, representación y el
procesamiento del conocimiento”, estrechamente vinculada con el desarrollo de
sistemas de software en donde el conocimiento y razonamiento tienen un papel
fundamental (Sistema Experto -SE). La ingeniería del conocimiento permite
construir aplicaciones informáticas en dominios difíciles para la informática
convencional como lo son los SE (sistemas basados en el conocimiento), donde
los algoritmos empleados nos son de tipo formal, debido a que el conocimiento, en
general, no está bien estructurado, puede ser inconsistente, incompleto e
impreciso. La habilidad de expresar el conocimiento y utilizarlo en un sistema
experto es aún más difícil, pues el lenguaje que utiliza un experto no es un
lenguaje que la computadora entienda. Por eso es necesario que el IC establezca
una comprensión global del área, se forme un diccionario mental de los términos
esenciales y desarrolle una comprensión básica de los conceptos clave.

Fig. interacción entre el IC y el experto


De manera general la Ingeniería del Conocimiento está constituida por tres
procesos fundamentales: 1) Adquisición del conocimiento: fase en la cual
mediante expertos humanos en el dominio del conocimiento. 2) Representación
del conocimiento: en la cual interviene de manera fundamental el ingeniero del
conocimiento encargado de codificar y hacer explícitas las reglas u otros
procedimientos, todo esto para que los expertos humanos sean capaces de
resolver problemas reales, en la construcción de un SE dicha cooperación del
experto humano con el Ingeniero de conocimiento. 3) Base de Conocimiento:
última fase y es en la cual la información entra tal como llega, ya que el orden no
influye en los resultados obtenidos. Sucede así porque cada elemento de
conocimiento es comprensible por sí mismo, tomado de forma aislada y, por lo
tanto, no es necesario referirse al contexto en el cual está inserto. La información
puede ser representada mediante reglas de producción. Las reglas de producción
constituyen el método más utilizado para construir bases de conocimientos.
Llamadas también implicaciones lógicas. Su estructura es la siguiente: para unas
ciertas causas, unos efectos; o, para determinadas condiciones, ciertas
consecuencias. Esto se define a menudo como programación orientada a las
reglas.
El objetivo de la Ingeniería del conocimiento es construir sistemas basados en el
conocimiento de expertos humanos y auxiliado del proceso de Adquisición del
conocimiento obtener el conocimiento requerido para construir un determinado
sistema. Se debe tener en cuenta que el proceso de adquisición del conocimiento
se lleva a cabo durante todo el desarrollo del sistema, desde el momento en que
se comienza a estudiar el problema y su solución, hasta su evolución.
Procesos Fundamentales de la Ingeniería del Conocimiento
Adquisición del Conocimiento (AC)
Es importante saber que este proceso requiere de fuentes de conocimiento, de las
cuales se da una breve descripción a continuación:
 Fuente de Conocimiento Estática (Fuente Secundaria): el contenido no se
puede variar por lo cual se debe seleccionar las fuentes más apropiadas que están
relacionadas con el problema para adquirir los conocimientos básicos del dominio,
todo aquel conocimiento tangible a nosotros, por ejemplo un libro, una revista, un
artículo, una película, etc.
 Fuente de Conocimiento Dinámica (Fuente Primaria): variable, cambiante e
inexacta, basado en la experiencia, entre otros. El hombre realiza parte de este
tipo de fuente, en particular, el Experto. El proceso de Adquisición del
conocimiento se define como la labor de extracción del conocimiento de las
fuentes. Por lo tanto, la Adquisición del Conocimiento es el proceso central en la
creación de sistemas basados en el conocimiento para sistemas expertos. El
ingeniero del conocimiento se encarga de crear y organizar un sistema de
adquisición de conocimiento, con su respectiva base de conocimiento, a partir de
la captación e interrogación de la experiencia previa del experto. En la práctica,
puede producirse un sistema experto inadecuado cuando el experto no lo es tanto,
o sus conocimientos no se presten a la formulación de reglas, por falta de
estructuración, o porque la adquisición del conocimiento estuvo mal hecha.
En el ámbito educativo, el docente:
 Es el experto encargado de organizar el conocimiento y el proceso de
adquisición por parte del estudiante.
 El diseño instruccional permite organizar el proceso de adquisición del
conocimiento por parte del estudiante.
 Tiene como función principal facilitar la adquisición del conocimiento. El
conocimiento adquirido en esta etapa puede ser: específico sobre el entorno del
problema y los procedimientos de solución. El objetivo de la Adquisición del
Conocimiento es comprender cómo un individuo lleva a cabo una actividad de
modo que la misma pueda ser automatizada.
Etapas de la Adquisición del conocimiento.

4.3 Máquina de inferencias


Este es el nombre con el que Bruner (1957) identificaba la mente humana:
«máquina de inferencias». Con él se refiere a la destreza para activar el
conocimiento ya almacenado y utilizarlo para organizar e interpretar la nueva
información, a través de relaciones abstractas complejas.
La máquina de inferencias es la porción del sistema experto que razona utilizando
el contenido de la base de del conocimiento en una secuencia determinada.
Durante el proceso de consulta, la máquina de inferencias examina las reglas de
la base del conocimiento una por una, y cuando se cumple la condición de la
regla, se realiza la acción especificada. En la terminología de los sistemas experto,
la regla se extiende cuando se efectúa la acción.
Se han ideado dos métodos principales de la máquina de inferencias para
examinar sus reglas: pro razonamiento y razonamiento inverso.
Pro Razonamiento

En el pro razonamiento, también llamado encadenamiento hacia delante, las


reglas se examinan una tras otra en cierto orden. El orden podría ser la secuencia
en que las reglas se introdujeron en el conjunto de reglas, o podrá ser alguna otra
secuencia especificada por el usuario.

Razonamiento Inverso

En el razonamiento inverso, también llamado encadenamiento hacia atrás, la


máquina de inferencia selecciona una regla y la considera como un problema a
resolver. Pero luego se da cuenta, que para resolverla debe primero resolver las
anteriores las cuales se constituyen en subproblemas.

Comparación entre el pro razonamiento y el razonamiento inverso

El razonamiento inverso es más rápido que el profazamiento por que no tiene que
considerar todas las reglas y no efectúa múltiples pasadas por el conjunto de
reglas. El razonamiento inverso en apropiado cuando:

 Hay múltiples variables de meta.


 Hay muchas reglas.
 No es preciso examinar la mayor parte de las reglas en el proceso de llegar
a una solución.
MOTOR DE INFERENCIA
Es el componente de un Sistema Experto, encargado de gerenciar y controlar
lógicamente el manejo y utilización del conocimiento almacenado en la base. El
paradigma del motor de inferencia es la estrategia de búsqueda para producir el
conocimiento demandado.

El sistema sigue los siguientes pasos:

1.       Evaluar las condiciones de todas las reglas respecto a la base de datos

2.       Si no se puede aplicar ninguna regla, se termina sin éxito; en caso contrario
se elige cualquiera de las reglas aplicables y se ejecuta su parte acción.
3.       Si se llega al objetivo, se ha resuelto el problema; en caso contrario, se
vuelve al paso 1

El Motor de Inferencia realiza dos tareas principales:


 Examina los hechos y las reglas, y si es posible, añade nuevos hechos
 Decide el orden en que se hacen las inferencias.

Para realizar estas tareas utiliza estrategias de inferencia y estrategias de control.

Las estrategias de inferencia que más se emplean en sistemas expertos están


basadas en la aplicación de las reglas lógicas denominadas “modus ponens” y
modus tollens”.

Modus Ponens

Es quizá la regla de inferencia más


comúnmente utilizada. Se utiliza
para obtener conclusiones simples,
en ella se analiza la premisa de la
regla, y si es cierta, la conclusión
entra a formar parte del
conocimiento. Como ilustración
supóngase que se tiene la regla, “Si
A es cierto, entonces B es cierto”, y que se sabe además que “A es cierto”. La
regla Modus Ponens, concluye que “B es cierto”.
Modus Tollens
Se utiliza también para obtener
conclusiones simples. En este caso se
examina la conclusión, y si es falsa, se
concluye que la premisa también es falsa.
Por ejemplo, supóngase de nuevo que “Si A
es cierto, entonces B es cierto” pero se
sabe que “B es falso”.
Entonces, utilizando la regla Modus Ponens no se puede obtener ninguna
conclusión pero la regla Modus Tollens concluye que “A es falso”.

Manejo de Incertidumbre
Los mejores administradores deben siempre reaccionar coherentemente aunque
estén bajo presión, pero en ocasiones puede parecer que son tímidos o indecisos
en algunos momentos. Cuando esto sucede, la incertidumbre llega y retrasan la
toma crucial de decisiones. En lugar de confiadamente tomar una decisión,
analizan la situación, recopilando más y más información antes de tomar acción.
Estos escenarios ocurren a diario en el lugar de trabajo y definen el éxito o fracaso
profesional de quien toma o prolonga la decisión, según sea el caso. La
incertidumbre nubla la visión e impide la toma estratégica de decisiones en
momentos cruciales de los cuales depende una operación. 

Alimentados por el miedo a equivocarse sin tener todos los datos, algunos
gerentes o directores hacen poco o nada hasta poder acumular “suficiente”
información para tomar una decisión. Mientras tanto, otros con menor grado de
incertidumbre, toman la información a la mano, proyectando los probables
resultados de una decisión a otra para que la acción no espere.

Ambos grupos admitirán con dificultad que tomar decisiones con incertidumbre no
es ideal, pero la realidad dicta que la mayoría de los negocios operan en un clima
con al menos un poco de incertidumbre, requiriendo así de los mejores gerentes y
directores para tomar decisiones prontas y acertadas. Los mejores directivos
siempre encuentran el modo de sobrepasar estos obstáculos, tener la vista
siempre en el objetivo y mantener la compostura cuando se tomen decisiones
necesarias. Aquellos que reaccionan de manera indiferente, permiten a la
incertidumbre reinar en cualquier situación, que posteriormente, cobrará factura. 

Para mantener un nivel bajo de Incertidumbre:


 Admita que la mayor parte de su responsabilidad involucra toma de
decisiones bajo condiciones inciertas: Puede ser terapéutico aceptar que
las decisiones críticas que posiblemente tendrá que tomar, no serán bajo un
ambiente calmo y tranquilo, sino bajo presión y contra reloj. Admitir esto le
puede preparar para el momento, y será visible para sus subordinados,
colegas, competencia y posiblemente los ejecutivos que estén evaluando
su comportamiento.
 Exhiba sus habilidades para reaccionar bajo presión: A menudo, esa
capacidad “única” se trata sólo de tomar lo que esté disponible para basar
una decisión crítica. Mientras otros se quedan perplejos, los mejores
directivos y gerentes analizan la información al alcance para adoptar el
mejor plan de acción.
 Sea consistente: Lo más probable es que usted tome las mismas
decisiones bajo presión y durante la calma, pero su comportamiento hacia
los demás es distinto. Busque ser consistente, particularmente si sabe que
sus decisiones son buenas. Adopte la misma personalidad siempre, pues
esto es lo que perciben quienes le rodea.

4.4 Interfase hombre maquina


Interfaz hombre-máquina (HMI) - Definición
Una interfaz de usuario asistida por ordenador, actualmente una interfaz de uso,
también conocida como interfaz hombre-máquina (IHM), forma parte del
programa informático que se comunica con el usuario. En ISO 9241-110, el
término interfaz de usuario se define como "todas las partes de un sistema
interactivo (software o hardware) que proporcionan la información y el control
necesarios para que el usuario lleve a cabo una tarea con el sistema interactivo".
Clasificación de interfaz hombre-máquina (IHM)
Pensando sistemáticamente, la interfaz del usuario es una de las interfaces
hombre-máquina (HMI): Hombre ↔ interfaz hombre - máquina ↔ máquina.
Distintas ciencias se dedican a este tema, como TI, la investigación cognitiva y la
psicología. El conocimiento básico para un diseño de interfaz que le resulte fácil
de utilizar al usuario se recoge en la disciplina científica de la ergonomía. Las
áreas de actividad en sí son la ergonomía cognitiva, la ergonomía de sistemas y la
ergonomía del software (ingeniería del uso).
Operar y observar
La interfaz del usuario, además de una "interfaz humano-máquina" (HMI),
también se denomina "interfaz hombre-máquina" (MMI)y permite que el
operador, en ciertas circunstancias, vaya más allá del manejo de la máquina y
observe el estado del equipo e intervenga en el proceso. La información
("comentarios") se proporciona por medio de paneles de control con señales
luminosas, campos de visualización o botones, o por medio de software que utiliza
un sistema de visualización que se ejecuta en una terminal, por ejemplo. Con un
interruptor de una lámpara, la información visual se proporciona a partir de la
impresión de "luz" y la configuración del interruptor en "encendido" y "oscuridad"
con el interruptor "apagado". En la cabina del conductor de un vehículo también se
encuentran múltiples interfaces de usuario, desde los controles (pedales, volante,
interruptores y palancas de los intermitentes, etc.) a través de reconocimientos
visuales de la "máquina", el vehículo (pantalla de velocidad, marcha, canal de la
radio, sistemas de navegación, etc.).
Facilidad de uso de la interfaz hombre-máquina
El éxito de un producto técnico depende de más factores aparte del precio, la
fiabilidad y el ciclo de vida; también depende de factores como la capacidad de
manipulación y la facilidad de uso para el usuario. Lo ideal sería que una interfaz
hombre-máquina (HMI) se explicara por sí misma de forma intuitiva, sin
necesidad de formación. El interruptor de la luz, a pesar de su popularidad y
simplicidad, no es la interfaz de usuario ideal sino una solución intermedia entre
dos objetivos contradictorios. En este caso, el interruptor debe estar situado cerca
del dispositivo que se va a encender, por ejemplo en la lámpara en sí (para que no
tenga que buscarlo). O de lo contrario, debe estar cerca de la puerta (donde se
encuentra normalmente) para que no tenga que buscarlo en la oscuridad. Otra
interfaz popular, pero que tampoco resulta ideal, es la pantalla táctil: En este caso,
puede iniciar un programa para el correo electrónico, por ejemplo, tocando la
pantalla y luego recibe el correo. Sin embargo, cuando pulsa el icono, el dedo
cubre el icono en sí. Esto generalmente no crea problemas, pero no es posible
dibujar o escribir con precisión en la pantalla con los dedos.
Evolución de las interfaces hombre-máquina (HMI)
Para productos con un ciclo de vida largo, la interfaz hombre-máquina (HMI) se
ha ido optimizando con los años. Hay dos botones que ya no están en los
dispositivos de reproducción de audio y vídeo, y que eran comunes en los
ochenta: La función del interruptor para pasar a la toma anterior o a la siguiente
toma estaba integrada en los botones de adelantar y rebobinar. Para ello, la
interfaz de usuario se volvió más compleja, ya que cada uno de los dos botones
tenía dos funciones. Para los desarrolladores de interfaces de usuario, una
reducción así desempeña un papel principal: La reducción del acceso a una
máquina compleja con unos pocos controles puede facilitar el manejo básico pero
normalmente no es adecuado para la complejidad. Con los sistemas operativos
tan complejos de los equipos modernos, este objetivo en cuestión se soluciona por
medio de dos categorías de interfaz de usuario / interfaz hombre-máquina
(HMI): Una muestra al usuario los iconos habituales, la papelera de reciclaje, la
carpeta, etc., los cuales comprende y puede manejar inmediatamente sin tener
que emplear tiempo en aprenderlos: por ejemplo, si hace clic en un vínculo se
abre el sitio web pretendido. La otra les permite utilizar una interfaz de línea de
comandos para acceder al sistema del equipo a bajo nivel, sin embargo esta
requiere una gran cantidad de aprendizaje. Por ejemplo taskkill /F /IM iexplore.exe
finaliza todos los procesos relacionados con Internet Explorer en un sistema
Windows.
4.5 Sistemas expertos
Sistemas Expertos
La Inteligencia artificial es la simulación de la inteligencia humana. Los sistemas
informáticos intentan simular el funcionamiento del cerebro humano a través de las
redes neuronales.
Estos sistemas son desarrollados para dominar un conocimiento en particular, que
en el caso de un humano u organización serían considerados expertos, por eso se
les conoce como sistemas expertos.
Qué son los sistemas expertos
Son sistemas basados en computadoras, interactivos y confiables, que pueden
tomar decisiones y resolver problemas complejos. La toma de decisiones se
considera el más alto nivel de inteligencia y experiencia humana.
La IA simula estos procesos y cuando hablamos de sistemas expertos nos
referimos a la resolución de los problemas más complejos en un dominio
específico.
En otras palabras, el software de IA tiene el suficiente conocimiento almacenado
como para resolver problemas complejos que solo un experto humano podría
resolver.
Pero estos sistemas también son capaces de expresar y razonar una idea sobre
algún dominio del conocimiento.Los sistemas expertos fueron los antecesores de
los sistemas actuales de inteligencia artificial, aprendizaje profundo y aprendizaje
automático.
Por otro lado, los sistemas expertos se identifican a través de una variedad de
características como por ejemplo el alto nivel de experiencia que proporciona
eficiencia, precisión y resolución imaginativa de problemas. Además reacciona a
tiempo justo, es decir, interactúa en un período de tiempo muy razonable con el
usuario.
Los sistemas expertos son operadores confiables que no deben emitir ningún tipo
de error. Además son muy flexibles y el mecanismo de compilación de información
es muy efectivo. Finalmente, un sistema experto es capaz de manejar problemas y
decisiones desafiantes. De esa manera, brinda las soluciones más concisas
Componentes de sistemas expertos
Esencialmente, los sistemas expertos cuentan con cinco componentes:
Base de conocimiento: en este componente se representan los hechos y
reglas. Aquí se almacena el conocimiento en un dominio particular, así como en
las reglas para resolver un problema, procedimientos y datos intrínsecos
relevantes para el dominio.
Es el repositorio de los hechos, es decir, un gran contenedor de conocimiento que
se obtiene de diferentes expertos de un campo específico.
Motor de inferencia: es el cerebro del sistema experto. Su función es obtener el
conocimiento relevante de la base de conocimientos, interpretarlo y encontrar una
solución relevante para el problema del usuario. Contiene las reglas de su base de
conocimiento y las aplica a los hechos conocidos para inferir nuevos hechos. 
Así, proporciona razonamiento sobre la información en la base de conocimiento.
Los motores de inferencia también pueden incluir una explicación y habilidades de
depuración.
Módulo de adquisición de conocimiento y aprendizaje: es la parte de estos
sistemas que permite que el sistema experto adquiera cada vez más conocimiento
de diversas fuentes y lo almacene en la base de conocimiento.
Interfaz de usuario: es la parte más crucial del sistema experto. Este módulo
hace posible que un usuario no experto interactúe con el sistema experto y
encuentre una solución a un problema.
El componente toma la consulta de un usuario en una forma legible y pasa al
motor de inferencia. Una vez allí, entran en funcionamiento los otros componentes
y posteriormente muestra los resultados al usuario. En otras palabras, es una
interfaz que ayuda al usuario a comunicarse con el sistema experto.
Módulo de explicación: en este módulo el sistema experto da una explicación al
usuario sobre cómo el sistema experto llegó a una conclusión particular.
De esa manera, argumenta los resultados presentados con la mayor exactitud.
Aplicaciones y ejemplos de sistemas expertos
Existen muchos ejemplos de sistemas expertos, pero compartimos algunos a
continuación:
MYCIN: es uno de los primeros sistemas expertos basados en el encadenamiento
hacia atrás. 
Este sistema es capaz de identificar varias bacterias que pueden causar
infecciones agudas y también puede recomendar medicamentos según el peso del
paciente.
DENDRAL: es un sistema experto basado en inteligencia artificial utilizado para el
análisis químico. 
El sistema puede predecir la estructura molecular, basado en los datos
espectrográficos de una sustancia.
R1 / XCON: es usado en el campo de la informática. Es capaz de seleccionar un
software específico para generar un sistema informático a gusto del usuario.
PXDES: es un gran sistema para la medicina moderna. Puede determinar
fácilmente el tipo y el grado de cáncer de pulmón en un paciente a través de un
análisis de datos.
CaDet: también es un sistema de apoyo clínico que podría identificar el cáncer en
etapas tempranas.
DXplain: otro sistema de apoyo clínico, pero en este caso, tiene la capacidad de
sugerir una variedad de enfermedades según los hallazgos del médico.
En general, en cuanto a las aplicaciones de estos sistemas expertos, algunas de
las más populares son:
 Gestión de la información.
 Hospitales e instalaciones médicas.
 Gestión de servicios de ayuda.
 Evaluación del desempeño de los empleados.
 Análisis de préstamos.
 Detección de virus.
 Útil para proyectos de reparación y mantenimiento.
 Optimización de almacenes.
 Planificación y programación.
 La configuración de objetos fabricados.
 Toma de decisiones financieras Publicación de conocimiento.
 Monitorización y control de procesos.
 Supervisar el funcionamiento de la planta y el controlador.
 Bolsa de comercio.
 Horarios de aerolínea y horarios de carga.
Por tanto, un sistema experto toma hechos  y heurísticas para resolver problemas
complejos de toma de decisiones. En ese orden, la calidad mejorada de las
decisiones, la reducción de costos, la consistencia, la confiabilidad, la velocidad
son los beneficios clave de un sistema experto.
Sin embargo, se debe tomar en cuenta que un sistema experto no puede dar
soluciones creativas y su mantenimiento puede ser costoso. Fuera de eso, sus
aplicaciones son muy amplias y son muy útiles para asegurar información rápida y
precisa.

4.6 Computadoras masivamente paralelas


Sistemas Masivamente Paralelos
En los sistemas u ordenadores masivamente paralelos, anteriormente citados, no
se producen ese tipo de problemas. En el propio nombre del sistema aparecen
dos conceptos que conviene aclarar:
-Paralelo: Significa que los procesadores que constituyen estos sistemas realizan
tareas diferentes simultáneamente en el tiempo
-Masivo: El sistema tiene muchos procesadores, aunque el número que debe
tener un sistema para denominarse masivo no está definido. El Gartner Group, por
ejemplo, define como sistema masivamente paralelo aquél que tiene más de 10
procesadores
En este tipo de sistemas no existe el cuello de botella típico de los sistemas
multiprocesador simétricos ya que cada procesador dispone de su propia memoria
y copia del sistema operativo. Así mismo, cada nuevo procesador adicionado lo es
junto con su memoria correspondiente y su sistema operativo, por lo que aporta el
100% de su potencia.
La adición de nuevos procesadores realmente no tiene límite y tan sólo se ve
condicionada por la tecnología utilizada en la interconexión de los mismos, siendo
normal la utilización de sistemas del orden de los 1.000 procesadores, existiendo
alguna arquitectura particular, tal como la de TANDEM, que permite sistemas
constituidos por hasta 4.032 procesadores, siendo el único sistema comercial para
aplicaciones críticas masivamente paralelo, pos ser, además, tolerante a fallos.
Son dos los peros que normalmente se ponen a estos sistemas, aunque ambos
tienen solución: La fiabilidad no suele ser grande. Hay que tener en cuenta que la
fiabilidad de un sistema en inversamente proporcional al número de sus
componentes. Si el número de procesadores es muy grande, 500 por ejemplo, y
esos procesadores son convencionales, la fiabilidad del sistema completo resulta
muy pequeña. Este problema se puede solventar utilizando procesadores
tolerantes a fallos.
El sistema operativo tiene que ser distribuido para que todos los procesadores
puedan trabajar en paralelo y todos ellos se vean como un sistema único. Ejemplo
típico de un sistema operativo estándar con estas características es el Microkernel
de Unix el NonStop Kernel de Tandem, que cumple POSIX, es el único sistema
operativo distribuido basado en mensajes.
De lo anteriormente expuesto se deduce que la arquitectura de sistema
masivamente paralelos resulta ser la más adecuada para aplicaciones comerciales
de gran volumen por razones de precio, facilidad de crecimiento y sin límite de
potencia. Posiblemente la razón de su no proliferación sea la escasez de
fabricantes de este tipo de sistemas.
ARQUITECTURAS PARALELAS
• Modelo estándar de computación: Arquitectura de Von Neumann.
• CPU única.
• Ejecuta un programa (único).
• Accede a memoria.
• Memoria única.
• Operaciones read/write.
• Dispositivos.
• Modelo robusto, independiza al programador de la arquitectura subyacente. •
Permitió el desarrollo de las técnicas de programación (estándar).
• Otras alternativas
• Computador masivamente paralelo.
• Muchísimos nodos (sencillas CPUs estilo Von Neumann).
• Topología específica para interconexión entre los nodos.
• Multiprocesador de memoria compartida.
• Nodos de Von Neumann.
• Memoria única.
• Cluster.
• Multiprocesador que utiliza una red LAN como mecanismo de interconexión entre
sus nodos.
• SISD - Modelo convencional de Von Neumann.
• SIMD - Paralelismo de datos, computación vectorial.
• MISD - Arrays sistólicos. • MIMD – Modelo general, varias implementaciones.
MIMD – Modelo general, varias implementaciones.
• El curso se enfocará en el modelo MIMD, utilizando procesadores de propósito
general o multicomputadoras.

4.7 El conocimiento como poder asociativo


4.8 La algoritmia como poder deductivo
4.9 sociedades de agentes
Las sociedades de agentes o sistemas sociales artificiales suelen inspirarse en las
grandes colonias de insectos sociales, bancos de peses, de ahí el termino de
sociedades de agentes, este trabajo se inspira en el comportamiento grupal de
hormigas.
En este diseño se trata la manera en que cada agente puede interactuar con otro.
Algunos principales para conseguir tales interacciones son:
a) Emergencias: Dados un conjunto de comportamientos programados
en un conjunto de agentes, debería ser posible predecir cual será el
comportamiento flobal del sitema, el cuyal es resultado de las
interacciones entre los individuos y de las interacciones que tienen
estos con el medio ambiente.
b) Síntesis: el programa conducirá a los agentes a una tarea
determinada
c) Individualismo: determinar cuantas clases de afentes se necesitan
para la realización de una tarea.
d) Cooperación: proveer a los agentes de estrategias de cooperación
para lograr los mejores resultados.
e) Interferencia: los agentes pueden llegar a interferir entre ellos como
sea necesario la consideración de protocolos de comunicación en su
diseño.
f) Dependencia de densidad: comportamiento global del sistema para
la determinación de la densidad de agentes y de las fuentes que
consumen en el ambiente.
g) Comunicación: desempeño del sistema se puede incrementar al
aumentar la cantidad de comunicación explicita entre agentes.

4.10 Sistemas emergentes

UNIDAD 5: REDES NEURONALES, ALGORITMOS GENETICOS, AGENTES Y


PERCEPTRONES
5.1 Arquitectura de una red neuronal y sus características
La arquitectura de una red neuronal artificial es la forma como se organiza las
neuronas en su interior y está estrechamente ligada al algoritmo de aprendizaje
usado para entrenar la red.
 Dependiendo del número de capas:
 Redes Monocapa
 Redes Multicapa
 Dependiendo de cómo fluye la información
 Redes Avance
 Redes recurrentes
5.2 Redes neuronales con conexión hacia adelante: el perceptrón
Redes de neuronas artificiales
Las “Redes de Neuronas Artificiales” (en adelante RNA) también llamadas
“Sistemas Conexionistas” son un sistema de procesamiento de información
inspirado en el funcionamiento del sistema nervioso biológico (paradigma de
sistema inteligente). Representan un intento de emular el comportamiento del
cerebro [5] y aumentar nuestros conocimientos acerca de él. Funcionan como un
sistema masivamente paralelo que se ha mostrado eficiente para la resolución
inteligente de distintos tipos de problemas.
Las RNA constan de elementos básicos de proceso, normalmente organizados en
capas (basados en las neuronas biológicas) y con gran cantidad de conexiones
entre ellos (basadas en las sinapsis de las neuronas).

5.3 Propagación hacia adelante y hacia atrás


5.4 Modelo de redes neuronales: Hopfield, de resonancia adaptiva y
Kohonen
5.5 Redes estocásticas: maquinas Boltzman y maquinas Cauchi
5.6 Aprendizaje supervisado y no supervisado
5.7 Estructura de un algoritmo genético y sus características
Los Algoritmos Genéticos (en adelante AG) son algoritmos de búsqueda
inspirados en procesos de selección natural, basados en la teoría de la evolución
de Darwin. Establecen una analogía entre el conjunto de soluciones de un
problema y el conjunto de individuos de una población natural. Se aplican
principalmente en problemas de optimización y se comportan de un modo muy
eficaz en problemas de superficie compleja, con múltiples mínimos locales y
grandes espacios de búsqueda. Está justificado su uso en aquellos problemas
cuya complejidad no permita una solución directa. Por ejemplo los no resolubles
polinomialmente (NP-duros). Los fundamentos de los AG se encuentran detrás de
la idea de que la naturaleza utiliza potentes medios para impulsar la evolución
satisfactoria de los organismos. Los organismos que son poco aptos para un
determinado ambiente mueren, en tanto que los que están bien adaptados para
vivir, se reproducen. Ocasionalmente se producen mutaciones al azar y, aunque la
mayor parte de éstas implican la pronta muerte del individuo mutado, algunas dan
como resultado nuevas y satisfactorias especies. Así, los AG se encuentran dentro
de las llamadas técnicas de Computación Evolutiva.
Los AG trabajan sobre poblaciones de individuos que representan soluciones al
problema. Para ello utilizan las operaciones de selección, cruce y mutación,
propias de la genética. De esta manera, mediante individuos se codifican
diferentes soluciones al problema, inicialmente aleatorias. Luego estos individuos
se agrupan en una población y se van combinando entre sí de forma que a medida
que pasan las generaciones se van ajustando más a la solución final. Los
individuos de una generación genética compiten entre sí para ofrecer la mejor
solución al problema que se está tratando de resolver.
Programación genética John Koza, en 1992, adaptó los AG para la creación de
programas de computador, permitiendo que las técnicas de Computación
Evolutiva se utilizaran para construir grandes poblaciones de programas que
evolucionan y finalmente obtienen, de forma automática, un programa que
constituye la solución a un problema dado. Él mismo bautizó a esta nueva técnica
como “Genetic Programming” o “Programación Genética”. Así, la Programación
Genética (en adelante PG) surge como una evolución de los AG tradicionales,
manteniendo el mismo principio de selección natural. Es una técnica de búsqueda
en la que, a partir de un conjunto inicial de programas (población), éstos se van
combinando sucesivamente, formando distintas generaciones para dar lugar a
programas 22 mejores. Al igual que los AG, la PG también forma parte de las
denominadas técnicas de Computación Evolutiva. La mayor diferencia entre los
AG y la PG es la forma de codificación de la solución al problema. En PG la
codificación se realiza en forma de árbol, de forma similar a cómo los
compiladores leen los programas según una gramática prefijada. La codificación
de cada solución particular se realiza en términos del propio problema. En los AG
tradicionales era necesario realizar una tarea de codificación/decodificación, pero
en la PG esto ya no es necesario, puesto que la solución buscada va a ser
encontrada, como ya se dijo previamente, como un algoritmo en forma de árbol.
La PG proporciona una gran versatilidad y variedad de problemas resolubles y,
además, permite la obtención de soluciones de forma jerárquica. En definitiva, la
PG es muy potente pero también compleja, ya que, entre otras exigencias,
requiere especificar el juego de instrucciones, con el fin de delimitar el problema. A
pesar de su complejidad es legible, robusta y versátil y se utiliza mucho en
robótica y optimización.
5.8 Estructura de un agente como neurona artificial
5.9 Caso de estudio: una red neuronal que escucha y reconoce sonido

También podría gustarte