Está en la página 1de 7

Introducción A la Inteligencia Artificial

“My race began as the sea began


with no nouns, and with no horizon.. .
I began with no memoti
D. Walcott
1.1 Aproximaciones a la Inteligencia Artificial

La Inteligencia Artificial1 (IA) puede definirse, en una primera aproximación, como el


intento de comprender la naturaleza de los mecanismos -existentes o posibles- que pueden
dar lugar a la conducta (o conductas) que se denomina inteligencia2 y producir máquinas
inteligentesa través de la programación de ordenadores o de la construcción de artefactos3
que realicen tareas que, para su ejecución, requieran mecanismos como los de percepción,
razonamiento y aprendizaje. Esta definición abarca las dos grandes tendencias de
investigación en el área: una que se preocupa por comprender la naturaleza de la
inteligencia y otra que propugna su reproducción mediante artefactos que pueden ser
programas, robots u otra clase de agentes.

Desde la perspectiva de esta definición la IA difiere fundamentalmente de áreas cercanas


como la Psicología y la Filosofía - de las que ha heredado preguntas y formas de concebir
el problema- en el énfasis que pone en los aspectos computacionales y en el uso de la
computadora como herramienta de simulación de procesos llamados cognitivos, esto es,
¿cómo las conductas inteligentes pueden ser simuladas o reproducidas mediante un
ordenador? Por otro lado, tampoco se la puede catalogar simplemente como una ciencia
puramente computacional, ya que tiene integres en aspectos como la lógica, la
epistemología, la percepción, la acción, etc.

Pero, ¿qué es la inteligencia? ¿es la habilidad de razonar? ¿es la capacidad de


adquirir conocimientos y aplicarlos? ,¿o es más bien la habilidad de percibir y
manipular objetos?

Quizás todas estas actividades forman parte de la Inteligencia. Sin embargo, sumarlas no
sería suficiente para dar una buena definición. Además, tal definición es difícil debido a la
variedad de procesos (conductas) que tendría que cubrir y a que también debería englobar
los aspectos prácticos y teóricos de la inteligencia. En suma, se requiere una definición no
sólo de la inteligencia, sino también de inteligente.

La percepción, el razonamiento, el aprendizaje y otras capacidades que comúnmente son


relacionadas con la inteligencia pueden denominarse actitudes cognitivas, donde por
actitud cognitiva cabe considerar un proceso de generación o transformación de
información simbólica. Desde el punto de vista de la psicología del procesamiento de la
información es posible aumentar la comprensión sobre los sistemas cognitivos mediante la
analogía con ordenadores programados ex profeso para simular alguna de sus conductas.

1
El nombre se debe, según todos los indicios, a J. McCarthy.
2
Hasta hace muy poco se había asociado la noción de inteligencia a conductas exclusivamente humanas.
3
La realización computacional (de estas máquinas) no garantiza su verosimilitud o interés explicativo pero, por supuesto, asegura cierta
clase de rigor [CUMM 91].
Las suposiciones que respaldan este enfoque son [NEWE 80]:
! Todos los sistemas cognitivos son sistemas de símbolos. La inteligencia de estos
sistemas reside en la construcción coherente de símbolos que representan situaciones y
eventos, externos o internos, y se manifiesta mediante la manipulación de tales
símbolos.
! Todos los sistemas cognitivos de un agente comparten un conjunto básico de procesos
de manipulación de símbolos.
! Una teoría de la cognición puede diseñarse como un programa en un formalismo
simbólico apropiado de tal forma que cuando el programa se ejecuta en un entorno
idóneo ha de producir una conducta inteligente observable.

En este sentido, según Newell, un programa es un sistema formal que posee cierto número
de variables y que puede ser manipulado (ejecutado) para generar predicciones sobre una
conducta (resultados) de un sistema natural que se quiere modelar. El mismo Newell define
la descripción de los sistemas inteligentes en el nivel de los conocimientos, como aquel tipo
de descripción que adscribe a un agente el principio de racionalidad4 y especifica qué tipo
de conocimientos debe tener ese agente para llevar a cabo una acción o resolver un
problema. De esta forma, cabe entender la Inteligencia Artificial como el estudio de ciertas
actitudes cognitivas mediante el uso de un ordenador. Aunque existen corrientes en la
Inteligencia Artificial que abogan por otro tipo de “experimento” y, quizá, por otra forma
de entender los problemas aquí planteados.
Ejemplos de estas nuevas tendencias son el conexionismo, los agentes autónomos o
animates y la neuroetiología [BEER 90].
Sin embargo, tal como señala Plaza [PLAZ 92b], este trabajo adquiere relevancia científica,
y no solamente ingenieril, si es posible hacer una descripción de un sistema (o agente)
inteligente independientemente de su implementación, mostrando que realmente actúa
según el principio de racionalidad con los conocimientos de que dispone.
La suposición fundamental de esta aproximación es que toda acción que el cerebro5 realiza
puede ser simulada mediante un cierto nivel de cómputo. Las computadoras digitales no
son meramente un vehículo para probar las teorías sobre la inteligencia, sino que su
arquitectura sugiere un paradigma específico para tales teorías: la inteligencia es una forma
de procesamiento de información. La noción de búsqueda como un tipo de método de
resolución de problemas, por ejemplo, está más relacionada y debe más a la naturaleza
secuencial de la forma de operación de las computadoras que a cualquier modelo biológico
de la inteligencia [LUGE 89].
La información necesaria para que un ordenador pueda simular una actitud se denomina
conocimiento y el área de la Inteligencia Artificial que se ocupa de la codificación,
manipulación e interpretación del conocimiento se denomina representación del
conocimiento6. Para que un agente se comporte inteligentemente, debe poseer diversos
tipos de conocimiento. En particular, se puede esperar que un agente inteligente incorpore
en su base de conocimientos:

4
Un agente es racional si se comporta de tal manera que su conducta resulta óptima respecto de sus objetivos
(0 metas).
5
El primero en formular la hipótesis de que el cerebro se comporta como una máquina fue Descartes.
6
La mayor parte de los programas desarrollados en el área de Inteligencia Artificial representan el conocimiento en estructuras formales
separadas que son manipuladas por algoritmos. Esta separación es análoga a la propuesta en las arquitectura tipo Von Neumann. Una
excepción a ello es el conexionismo.
a) un modelo del mundo,
b) un modelo de sí mismo y,
c) si se trata de cierto tipo de sistema computacional, un modelo del usuario. Es decir, los
agentes deben ser capaces de conocer o reconocer las entidades que le rodean y poder
razonar sobre ellas.

¿Qué diferencia los sistemas de IA del resto? ¿No acaban siendo lo mismo, algoritmos
implementados en un cierto lenguaje de programación? ¿Por qué, pues, un nombre
especial?

La respuesta suele parecer chocante y se enmarca en las críticas a la disciplina aunque, en


realidad, es una alabanza: si un sistema calificado de inteligente realiza bien su cometido,
deja de ser inteligente para pasar a ser un algoritmo normal. Si, por el contrario, tiene
ciertos fallos, sigue siendo IA, y se acusa a esta de crear sistemas poco fiables. En otras
palabras, muchas aplicaciones fueron calificadas de IA hasta que se constituyeron en
algoritmos exitosos, es decir, un problema incumbe a la IA hasta que esta encuentra una
solución satisfactoria, en cuyo caso pasa a ser un algoritmo “normal”. Esta situación - al
contrario de lo que propugnan sus defensores - no hace más que ensalzar las virtudes de la
disciplina.
En general, se puede decir que un sistema es inteligente si cumple la mayor parte7 de las
siguientes características:

! Operar en tiempo real (respuesta interactiva).


! Utilizar abstracciones simbólicas.
! Explotar grandes cantidades de conocimiento.
! Ser tolerante a errores, situaciones desconocidas o imprevistas.
! Aprender del entorno.
! Mostrar un comportamiento adaptativo.
! Comunicarse en lenguaje natural.

Así pues, y respondiendo a las anteriores preguntas, se dirá que la IA se ocupa de aquellos
problemas para los que no existen soluciones algorítmicas satisfactorias, o bien aquellos
que sobrellevan un manejo explícito del conocimiento.
Esta visión simbólica de la Inteligencia Artificial no es única. Existen dentro del área otras
que representan la diversidad de opiniones que un tema abierto y apasionante como éste
despiertan.

1.2 Reseña histórica


La Inteligencia Artificial es una disciplina científica joven, que se dirige tan sólo hacia su
cuarta década, pero que ha tenido un desarrollo sorprendente desde su advenimiento oficial
en la Dartmouth Summer School on Atiificial Intelligence en 1956.
Es difícil datar los inicios reales de la disciplina ya que desde siempre los humanos han
tenido el interés de poder construir “máquinas que pudiesen pensar” y en la literatura
occidental es posible encontrar múltiples ejemplos. Los más famosos son Golem,

7
‘Últimamente se tiende a exigir la totalidad de ellas.
Frankenstein o el R. U. Rs. El primero que relacionó la actividad del cerebro con las
capacidades intelectuales fue Hipócrates, en “La enfermedad sagrada”:

“El hombre debería saber que del cerebro, y no de otro lugar,


vienen las alegrías, los placeres, la risa y la broma, y también las
tristezas, la aflicción, el abatimiento y los lamentos. Y con el mismo
órgano, de una manera especial, adquirimos el juicio, el saber, la
vista y el oído y sabemos lo que está bien y lo que está mal...”

y de allí en adelante es posible encontrar en el trabajo de muchos pensadores algún atisbo


de origen para la Inteligencia Artificial.
Entre los antecedentes más distinguidos podemos citar a Descartes, quien postuló que el
“entendimiento” consiste en construir las representaciones apropiadas y que ha sido la base
para un programa de investigación exitoso que puede ser trazado hasta nuestros días.
Leibnizg inventó una máquina de cálculo que podía multiplicar, dividir y extraer raíces
cuadradas mediante la repetición de sumas de manera similar a como lo hacen los
ordenadores modernos. Una de las mayores aportaciones de Leibniz fue la demostración de
las ventajas del sistema binario sobre el decimal en el diseño de máquinas de cálculo.
Otro precursor distinguido fue Boole quien, en su libro “The laws of thought”, intentó dar
una expresión formal a las leyes del pensamiento reduciendo la validación del razonamiento
lógico a la construcción de sistemas de decisiones binarias (si/no), la
introducción de un sistema de símbolos para representar las operaciones
lógicas y, en especial, la de los operadores AND, OR etc. El impacto de este
trabajo es tal que todavía hoy se sigue utilizando el álgebra de Boole. Otro
precursor de la Inteligencia Artificial, coetáneo de Boole, fue Babbage quien, en
1835, diseñó el “analytical engíne”, un antecedente a nuestros ordenadores
modernos. Esta máquina introdujo dos conceptos muy simples pero
revolucionarios para la época:
a) la transferencia condicional (condítional transfer) que permite que la
máquina compare cantidades y, dependiendo del resultado, siga una u otra rama de
una secuencia de instrucciones, y
b) la posibilidad de que los resultados de un cálculo modifiquen otros valores o
instrucciones previamente introducidos en la máquina, ademas de haber
diseñado las principales estructuras de control de programas. Sus esfuerzos
fueron redescubiertos en 1937.
Por la vertiente de la formalización lógica”, y en el cambio del siglo XIX al XX,
encontramos a Frege, quién inventó un sistema axiómatico lógico que fue el primero en ser
definido formalmente (Begriffsschrift) y el trabajo de Russell y Whitehead, quienes
intentaban demostrar, en su libro Principia Mathematica, que las raíces de las
matemáticas descansan sobre la lógica. El siguiente momento se puede localizar en el
pensamiento de Wittgenstein, cuyo libro Tractatus Logico-Philosophicus marca por
primera vez la relación entre lo que puede ser dicho y lo que puede ser pensado o conocido.
En el caso de la Inteligencia Artificial, la relación de lo que puede ser pensado y lo que
puede ser computado.
Un hito especialmente brillante fue el que se desarrolló en la Inglaterra de los años 30
donde científicos y pensadores como Turing, Church, Russell, Gödel y Wittgenstein, entre
otros, generaron un conjunto de ideas y teorías en las que descansa no sólo la Inteligencia
Artificial sino también buena parte de la Informática. Entre otras se puede mencionar, a
modo de ejemplo, la teoría de las funciones recursivas, el X-cálculo” y, muy especialmente,
las llamadas máquinas de Turing. Gödel, por su parte, acabó con casi un siglo de intentos
de formalización de las matemáticas a partir de un sistema lógico, tal y como intentaban
Russell y Whitehead.
Turing recuperó la idea de que el pensamiento puede ser replicado mediante el cálculo
(cómputo) y elaboró una definición formal de la computación en términos de programas
(funciones) que pueden ser ejecutados (calculados) por un autómata. Un caso particular de
función calculable son las llamadas “funciones recursivas”. De hecho, las máquinas de
Turing han sido el modelo de computación predominante hasta nuestros días. Otro
resultado de la época es la llamada Tesis de Church- Turing:
Si un problema que puede ser presentado a una máquina de Turing no es resoluble,
entonces tampoco puede resuelto por otro mecanismo de cálculo.
Si se asume que el cerebro se comporta como una máquina de cálculo se sigue que, si los
humanos (u otros agentes) pueden comportarse inteligentemente, debe ser posible construir
máquinas que exhiban el mismo comportamiento (conducta) y ésta es, por supuesto, la
piedra angular sobre la que descansa la investigación en Inteligencia Artificial.
Otro momento importante en la historia de la IA es el advenimiento de la Cibernética
despúés de la XX Guerra Mundial en los Estados Unidos de América. Personajes como
Wiener, Rosenblueth, McCulloch, Pitts y otros más dieron origen a esta nueva disciplina,
integradora de conocimientos tan diversos como las matemáticas, la fisiología, la mecánica
y la naciente informática. El nacimiento oficial de esta disciplina habitualmente se
relaciona con la aparición del libro de Wiener Cybernetic: or, Control and Communication
in the animal and the Machine y el de Shannon Mathematical Theory of Communication
en 1948. Según el propio Wiener, el objetivo de la Cibérnetica era el comprender los
factores comunes de control y comunicación en los seres vivos, las máquinas y las
organizaciones.
Esta comunicación entre máquinas debe ser ejecutada mediante lenguajes rigurosos y no
ambiguos, con símbolos especiales que puedan ser almacenados (memorizados) y
manipulados.
Los sistemas formales derivados de la lógica son ideales para este objetivo y han dado
origen a una de las áreas centrales de investigación en la Inteligencia Artificial: la ya
mencionada representación del conocimiento.
Y es claro que éste también es el actual empeño de la Inteligencia Artificial, quizá
modificado por los avances tecnológicos. Por ejemplo, Pitts y McCulloch intentaron la
simulación de neuronas y de procesos neuronales. Hoy existe una rama de la Inteligencia
Artificial que, retornando en parte estos experimentos y otros como los de Hebb, intenta
modelar procesos de bajo nivel8. Contemporáneamente a estos sucesos, Turing propuso una
definición operacional de la inteligencia, conocida como el Test de Turing. Otros sucesos
importantes en la época son la construcción de los primeros ordenadores siguiendo la idea
de Von Neumann de programa almacenado y la aparición de los primeros sistemas de
Traducción Automática como el de Weaver y Booth en 1946.
En poco tiempo surgieron escuelas dentro de la cibernética; una más dedicada al bajo nivel
y otra orientada al alto nivel. La famosa Dartmouth Summer School on Artificial

8
Tales como la Teoría de Control con retroalimentadores, los procesos neuronales, los perceptrones, etc.
Intelligence significó no solamente el nacimiento de la Inteligencia Artificial sino el
principio de la desaparición de la Cibernética. La Inteligencia Artificial emergía de la
plataforma de la Cibernética para preocuparse del estudio de actividades más sofisticadas
como el procesamiento simbólico de la información a la hora de resolver problemas. Era
esta una época de gran optimismo y los asistentes a esa reunión supieron, por un lado,
aprovechar el momento para influir con su “programa” de investigación y, por otro, preveer
la potencia de la naciente informática.
Entre los asistentes se puede mencionar a McCarthy, Minsky, Simon, Newell,
Shannon, entre otros. Los dos primeros participaron en la fundación del primer
laboratorio de investigación en Inteligencia Artificial en el Massachusetts
Institute of Technology (MIT). Simon y Newell trabajaron durante mucho tiempo en
la Carnegie-Mellon University (CMU).
De estos antecedentes ha surgido una disciplina que tiene como objetivo el estudio de la
inteligencia usando las ideas y los métodos de la informática. Mas la historia se ha
encargado de demostrar que una definición de inteligencia -al menos de momento- es
imposible por la cantidad de procesos de manipulación de información (de bajo y alto
nivel) involucrados y la necesidad de representar información l5 de multitud de fuentes y
formas. Esta visión del pensamiento como pura manipulación de símbolos está cambiando,
como lo demuestran ciertas tendencias.

1.2.1 Paradigmas en la Inteligencia Artificial

El plan de investigación de la Inteligencia Artificial puede estudiarse en el marco de un


conjunto de hipótesis científicas, objetivos metodológicos y compromisos teóricos y
agruparlos en corrientes, también llamadas paradigmas. En la Inteligencia Artificial, como
en otras disciplinas científicas activas, coexisten varias de estas corrientes que, con
partidarios y detractores, han dado lugar a polémicas en revistas y foros científicos. La
siguiente clasificación es debida a Plaza [PLAZ 92b]:

Paradigma Lógico. Esta corriente parte de la siguiente definición: la razón es la facultad


de deducir conclusiones a partir de un conjunto de premisas. En la acepción más pura de
este paradigma la psicología sería sólo una rama de la lógica, las entidades mentalesserían
enunciados en algún lenguaje lógico, las operaciones mentales serían inferencias en un
sistema formal y el razonamiento, simplemente un proceso de deducción automática.

Paradigma de Búsqueda Heurística. Desde el principio de la Inteligencia Artificial este


paradigma, que no admitía la lógica como fundamento básico, exploró la posibilidad de
encontrar una definición de la inteligencia en términos de métodos de resolución de
problemas independientes del dominio y de propósito general. El dominio de la búsqueda
en un espacio de estados, ejemplarizado por el General Problem Solver de Newell y Simon,
es el ideal de esta corriente, la más influyente en la primera época de la disciplina.
El tipo de control de la búsqueda y las funciones heurísticas son los focos principales de
investigación de este paradigma.

Paradigma Basado en Conocimientos. Los llamados sistemas expertos son el ejemplo


más extendido de este paradigma, que se basa en el uso de métodos de inferencia fuertes y
dependientes del dominio, mediante el uso intensivo de conocimientos especializados sobre
éste. Esta corriente ha tratado de superar las deficiencias del paradigma lógico
enfrentándose a una serie de cuestiones en áreas complejas: la representación del
conocimiento teórico, la incertidumbre, el razonamiento con conocimiento incompleto o
inconsistente, el control de la explosión combinatoria en procesos de búsqueda, etc.
La hipótesis básica de este paradigma es que los expertos (humanos) emplean una gran
cantidad de conocimiento específico cuando intentan resolver un problema en un dominio
dado y, por ende, un sistema basado en el conocimiento debería poseer este conocimiento y
las heurísticas apropiadas para resolver el mismo problema con los mismos resultados.

Paradigma Conexionista. En los últimos 10 años ha habido un resurgimiento y gran


desarrollo de los métodos basados en redes neuronales, algoritmos genéticos, máquinas de
Boltzman, etc. Esta corriente, a la que se denominará conexionista, supone que la
resolución de problemas es una propiedad emergente de una actividad distribuida entre un
gran número de unidades simples de proceso interconectadas y que de forma paralela
manipulan información.
Sin embargo, no hay ninguna asignación de representación respecto del problema resuelto
o conocimiento de cómo se resuelve un problema. La resolución de problemas se realiza,
en algunos casos, mediante el entrenamiento del sistema conexionistalg, basado en un
mecanismo de optimización local. Este enfoque ha tenido gran impacto en el desarrollo de
la robótica y la visión artificial. Y, en general, en aquellos dominios en los que es mejor
aprender haciendo.

Paradigma Basado en la Experiencia. La hipótesis básica de este paradigma es que la


resolución inteligente de problemas se consigue recordando episodios y adaptándolos a la
situación actual, Como consecuencia de cada nueva experiencia (según tenga éxitoo no), el
agente memoriza el episodio y así aprende a resolver mejor los problemas y a evitar fallos
cometidos anteriormente. Aun cuando los procesos de adaptación son dependientes del
dominio su uso es adaptativo, a diferencia del paradigma basado en conocimientos donde
el conocimiento es normativo.
Por otro lado, tanto el paradigma lógico como el paradigma basado en conocimientos se
basan en la idea de que la componente principal (y de facto única) de un agente racional es
el conocimiento; en cambio, el paradigma basado en la experiencia, reconociendo la
necesidad del conocimiento o de las teorías de dominio, postula la experiencia como noción
básica tanto de la resolución de problemas como del aprendizaje y asigna a las teorías un
papel auxiliar. Este paradigma subraya el papel activo de la memoria, no como mero
recipiente, sino como parte activa en los mecanismos de un sistema resolvedor de
problemas mediante la elaboración de procedimientos de almacenamiento, indexación y
recuperación de estructuras de memoria.

También podría gustarte