Está en la página 1de 17

Unidad 2.

Representación del conocimiento,


razonamiento y los Aspectos Metodológicos en
Inteligencia Artificial.
2.1 Principios y Metodología de la Inteligencia
Artificial.
La inteligencia Artificial es una parte central de uno de los más profundos avances científicos
e intelectuales de los últimos 60 años: el estudio de la información y del conocimiento; y,
cómo estos pueden ser adquiridos, almacenados, entendidos, manipulados, usados y
transmitidos. La investigación ha permitido desarrollar una nueva ciencia para el estudio de
los principios por los cuales: conocimiento es adquirido y utilizado, metas son generadas y
logradas, información es comunicada, colaboración es alcanzada, conceptos formados, y el
lenguaje es utilizado. A ésta se la puede llamar la ciencia del conocimiento o la ciencia de la
inteligencia. Igualmente, la creciente necesidad de desarrollar aplicaciones capaces de
resolver problemas complejos, ejecutando procesos que se pueden llamar inteligentes, ha
dado lugar al aparecimiento de la ingeniería de sistemas inteligentes. Acorde con estas
consideraciones, en términos simples, se puede decir que:

La Inteligencia Artificial comprende la investigación científica y


tecnológica de los sistemas inteligentes.

Se denomina sistema inteligente a una entidad capaz de percibir,


razonar, aprender, adaptarse, tomar decisiones y actuar
racionalmente para satisfacer sus metas, en un determinado entorno.

Las entidades pueden ser: máquinas, humanos u otros animales

Dada su complejidad, el desarrollo de la investigación científica y tecnológica de los


sistemas inteligentes, requiere del apoyo de otras áreas del conocimiento, tales como:
Filosofía, Psicología, Lingüística, Ciencias de Computación, Biología, Neurociencias,
Matemática, Física, Química, Cibernética, Electrónica y Comunicaciones.
Desde la perspectiva filosófica, muchos teóricos de IA creen que ciertos procesos
computacionales son necesarios y suficientes para la inteligencia. John Searle llama esta
creencia Inteligencia Artificial Fuerte y sostiene que es fundamentalmente equivocada. La
tesis central de la inteligencia artificial fuerte es que los procesos realizados por una
computadora son idénticos a los que realiza el cerebro, y por lo tanto se puede deducir que,
si el cerebro genera conciencia, también las computadoras deben ser conscientes. En su
opinión, las aplicaciones de IA tratan únicamente con la sintaxis, no con la semántica, por
lo que un computador no puede explicar la intencionalidad o significado de lo que está
procesando. La IA fuerte actualmente cae dentro de la ciencia ficción y la Especulación
futurista. El campo de la robótica es uno de los que más ha impulsado el estudio de la
inteligencia general (Inteligencia Artificial Fuerte46). Si bien se han logrado importantes
avances, también se han evidenciado las dificultades de tratar de generar modelos de
procesos mentales que todavía los seres humanos no se ha logrado entenderlos a un nivel
suficiente como para ser capaces de describirlos, representarlos y modelarlos.
Desde la perspectiva tecnológica, en cambio los sistemas inteligentes no necesariamente
deben emular los procesos característicos de los seres inteligentes. A esta premisa se la
denomina Inteligencia Artificial Débil.

En las ciencias de la computación comprenden una amplia variedad de tópicos, que van
desde el análisis abstracto de algoritmos, teoría de la computación y gramáticas formales,
hasta temas como lenguajes de programación, software y hardware.

Los sistemas inteligentes son parte de las ciencias de computación, que cubren una serie de
tópicos teóricos – experimentales que sirven de base para la ingeniería de aplicaciones
inteligentes.
En un campo de investigación tan amplio y relativamente joven como la Inteligencia
Artificial, no es raro que prevalezcan muchas controversias, tanto científicas como
filosóficas. Según lo señala Margaret Goden47, actualmente, la mayoría de investigadores

en IA utilizan ya sea el modelo clásico o el modelo conexionista. Sin embargo, debido a que ambos
modelos tienen debilidades y fortalezas complementarias, hay un creciente interés en los modelos
híbridos que tratan de obtener lo mejor de ambos mundos.

La IA a inicios del Siglo XXI es intrigantemente diversa. Varias apuestas científicas se están
realizando y no es obvio si alguna propuesta híbrida eventualmente resultará ganadora.
Además, a medida que avance la investigación, nuevos conceptos de IA, surgirán sin lugar
a dudas. Por otro lado, tampoco está claro cómo las dificultades filosóficas afectarán la
investigación científica de IA, en términos de su relación con la sociedad y la naturaleza.

Teoría de la Complejidad
En el proceso de observación inscrito en los fundamentos de la ciencia clásica se considera
al sujeto cognoscente como un observador neutro, separado del objeto y despojado de sus
emociones, intereses y creencias.
Desde este paradigma, el objeto por conocer, es entendido de forma múltiple y diversa
(multidisciplinar), como las disciplinas que lo abordan, y aún más, en el interior de cada
disciplina se presentan divergencias para entenderlo.
La complejidad surgió, a fines de los años 60, a partir de la Teoría de la Información, la
Cibernética y la Teoría de Sistemas. Importantes avances en los más diversos dominios
científicos en las últimas décadas, han puesto en evidencia que la realidad lejos de ser un
simple agregado de partes en el que se puede ir añadiendo o quitando elementos para
explicar sus características y construir totalidades ordenadas y predecibles, es más bien una
trama de relaciones en dinámica permanente, regida por la incertidumbre y el caos.
Efectivamente, el saber contemporáneo se presenta al observador como una torre de
babel, cuya multitud de objetos, métodos, posiciones, perspectivas, teorías, concepciones
sobre el mundo y lenguas en las que se describen unos y otras, convierten el panorama en
algo complejo.
Edgar Morin65, sociólogo y filósofo francés, sostiene que el pensamiento complejo está
basado en dos aspectos clave:
•Integra todos los elementos que puedan aportar orden, claridad, distinción, precisión en
el conocimiento, pero rechaza las consecuencias mutilantes, reduccionistas,
unidimensionalizantes que puede producir una simplificación que oculte todos los vínculos,
las interactuaciones, las interferencias que hay en el mundo real.

•Reconoce que el conocimiento completo es imposible. En este sentido se formula uno de


los axiomas de la complejidad: la imposibilidad, incluso teórica, de una omniciencia. Esto
implica la afirmación de un principio de incompletitud y de incertidumbre.

2.1 Principios y Metodología de la Inteligencia


Artificial.
Aunque desde muy atrás en la historia personalidades como Descartes, Hobbes y Leibniz
comenzaban a desarrollar la concepción de que la inteligencia humana funciona como un
mecanismo y Von Kempelen y Charles Babbage desarrollaron maquinarias que eran capaces
de jugar ajedrez y calcular logaritmos respectivamente, no es hasta 1943 que se perfila de
una forma concreta la Inteligencia Artificial con la propuesta de Warren McCulloch y Walter
Pitts de un modelo de neurona de cerebro humano y animal que brindaba una
representación simbólica de la actividad cerebral. Norbert Wiener retomando esta idea y
fusionándola con otras dentro del mismo campo dio origen a la "cibernética"; naciendo de
esta en los años 50 la Inteligencia Artificial (IA).
Uno de los primeros postulados, basándose en la propuesta de la neurona de McCulloch
planteaba que: "El cerebro es un solucionador inteligente de problemas, de modo que
imitemos al cerebro". Analizando la complejidad del cerebro y el hardware tan primitivo
que existía era casi imposible realizar estos sueños.
En la propia década del 50 se desarrolla con cierto éxito un sistema visual de reconocimiento
de patrones llamado Perceptrón de Rossenblatt. Todos los esfuerzos en la construcción de
esta aplicación estuvieron concentrados en lograr resolver una amplia gama de problemas.
Ya en los 60 a partir de trabajos realizados en demostraciones de teoremas y el ajedrez por
computador de Alan Newell y Herbert Simon se logra crear el GPS (General Problem Solver;
sp: Solucionador General de Problemas). Este programa era capaz de resolver problemas
como los de las Torres de Hanoi, trabajar con criptoaritmética y otros similares. Su
limitación fundamental es que operaba con microcosmos formalizados que representaban
parámetros dentro de los que se podían resolver las problemáticas. Además no podía
resolver situaciones del mundo real, ni médicas, ni tomar decisiones importantes.
Al girar un poco las primeras ideas de crear un sistema que fuera capaz de resolver todos
los problemas que se plantearan, hacia la idea de darle solución a problemas que se
centraran en ámbitos específicos, surgen los Sistemas Expertos. En 1967 sale a la luz el
Dendral y en 1974 el Mycin que realizaba diagnósticos de sangre y recetaba los
medicamentos necesarios.
A partir de la década de los 80 se comienzan a desarrollar lenguajes especiales para
programar descriptivamente, basados fundamentalmente en predicados, sobresalen el
Prolog y el Lisp.
La IA se ha desarrollado vertiginosamente en las últimas dos décadas surgiendo sistemas
cada vez más potentes y aplicables en una amplia gama de esferas, sociales, económicas,
industriales y médicas por solo citar algunas.

 El trabajo de k. Craik titulado the Nature of explanation introduce los fundamentos


DEL PARADIGMA SIMBÓLICO (IAS) O REPRESENTACIONAL AL INTERPRETAR EL
CONOCIMIENTO HUMANO en términos de descripciones declarativas y modulares
de entidades simbólicas de alto nivel y de reglas de inferencia usadas para manipular
dichas descripciones simbólicas.

 En 1943, Warren McCulloch Y Walter Pitts publicaron el trabajo titulado: A Logical


calculus of che ideas inmanent in nervous activity, que señala el comienzo del
PARADIGMA CONEXIONISTA (IAC) (la neurocomputacion) en dicho trabajo se
muestra que incluso las formas más simples de redes neuronales artificiales pueden
computar, en principio , funciones , aritméticas y lógicas. Dicho paradigma está
inspirado en el conocimiento actual que tenemos del funcionamiento del cerebro.
 Rosenblueth, N. Wiener y J. Bigelow, en su trabajo titulado Behavior, and Teleology,
introdujeron los fundamentos del PARADIGMA SITUADO O REACTIVO, basado en el
comportamiento, al interpretar comportamiento inteligente en términos de un
conjunto de mecanismo de realimentación. Se pone énfasis en el hecho de que toda
percepción y toda acción están acopladas a través de sensores y efectores
concretos. Por ejemplo, un robot que se mueve, gira a la derecha y evita un
obstáculo

 La mayor parte de los problemas son de naturaleza hibrida, por lo que su solución
tendrá que ser también hibrida. Surge así el PARADIGMA HIBRIDO (IAH). Es decir, en
el control de un robot podremos necesitar técnicas simbólicas, difusas y neuronales.

 (Ortiz, 2006) nos indica que dentro de los paradigmas se encuentra EL PARADIGMA
DISTRIBUIDA (IAD) está aparece en la década de los 80's donde intenta resolver
problemas en donde una conducta colectiva es más eficiente que una conducta
individual, como lo estudia la inteligencia artificial que hace el análisis de un único
agente que se encuentra en un ambiente no cambiante y que intenta resolver todo
el problema con solo esta entidad.

 (Alan, 2007)describe que también se encuentra el PARADIGMA EVOLUTIVA (IAE)


donde este surgió al final de los años 60, cuando se comenzó a estudiar la
incorporación de mecanismos de selección natural para la solución de problemas.
Como resultados se crearon una serie de algoritmos que, basados en la Teoría de la
Evolución de Charles Darwin, conducen una búsqueda estocástica de la solución de
un problema, haciendo evolucionar a un conjunto de estructuras y seleccionando
de modo iterativo.

 (Delgado S Hernando A., 2013) describen que existe el PARADIGMA DE REDES


NEURONALES (IAN) para el aprendizaje y procesamiento automático, inspirado en
la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema
de interconexiones de neuronas que colaboran entre sí para producir una salida.
 (GONZALEZ, 2008) En los años 70 que surgió un nuevo paradigma en la Inteligencia
Artificial “los SISTEMAS EXPERTOS”, cuya función es desarrollar trabajos similares a
los que desarrollaría un especialista en un área determinada, la idea no es sustituir
a los expertos, sino que estos sistemas sirvan de apoyo a los especialistas en un
“dominio” de aplicación específico.

 (Mateos, 2013) explica que el PARADIGMA DE ALGORITMOS GENETICOS son


estrategias de búsqueda estocástica basados en el mecanismo de selección natural
y en algunos casos se involucran aspectos de genética natural, imitando a la
evolución biológica como estrategia para resolver problemas.

 En particular, los investigadores Michael Crouse y Errin Fulp de la universidad de


Harvard están creando la primera computadora que de forma automática ajusta su
configuración para defenderse de ataques informáticos. Ellos utilizan los algoritmos
para seleccionar las mejores configuraciones; configuraciones adaptables, que van
mejorando de generación en generación según explica (Lazalde, 2012)

 (UNED, 2010) nos dicen que el PARADIGMA DE LA NEUROCOMPUTACION está


inspirada en la biología, de resolver algunas tareas encontradas frecuentemente
cuando se trata de reproducir mediante computadoras habilidades atribuidas a la
inteligencia humana.
2.1 Principios y Metodología de la Inteligencia
Artificial.
Los mapas conceptuales son instrumentos de representación del conocimiento sencillo y
práctico, que permiten transmitir con claridad mensajes conceptuales complejos y facilitar
tanto el aprendizaje como la enseñanza. Para mayor abundamiento, adoptan la forma de
grafos. Mapa conceptual es una técnica usada para la representación gráfica del
conocimiento o es una red de conceptos.

En la red, los nudos representan los conceptos, y los enlaces las relaciones entre los
conceptos en forma de flechas etiquetadas El mapa conceptual pueden tener varios
propósitos:

 Generar ideas (lluvia de ideas, etc.)


 Diseñar una estructura compleja (textos largos, hipermedia, páginas web grandes,
etc.)
 Comunicar ideas complejas
 Contribuir al aprendizaje integrando explícitamente conocimientos nuevos y
antiguos
 Evaluar la comprensión o diagnosticar la incomprensión
 Explorar el conocimiento previo y los errores de concepto
 Fomentar el aprendizaje significativo para mejorar el éxito de los estudiantes
 Medir la comprensión de conceptos.
La técnica de elaboración de mapas conceptuales es un medio didáctico poderoso para
organizar información, sintetizarla y presentarla gráficamente. También nos permite
apreciar el conjunto de la información que contiene un texto y las relaciones entre sus
componentes, lo que facilita su comprensión, que es el camino más satisfactorio y efectivo
para el aprendizaje.
Otra utilidad es que pueden servir para relatar oralmente o para redactar textos en los que
se maneje lógica y ordenadamente cierta información; de ahí que sean considerables como
organizadores de contenido de gran valor para diversas actividades académicas y de la vida
práctica.
Elementos de los mapas conceptuales

 Los conceptos: Desde el punto de vista gramatical los conceptos se identifican como
nombres, adjetivos y pronombres, los que representan hechos, objetos, ideas, etc.
 Palabras de enlace: Que se utilizan para unir los conceptos y para indicar el tipo de
relación que se establece entre ellos.
 Las proposiciones: Dos o más términos conceptuales unidos por palabras para
formar una unidad semántica.
Técnica de construcción de los mapas conceptuales
Es muy sencilla pero compleja a la vez, porque requiere realizar varias operaciones
mentales. Se puede utilizar didácticamente para desarrollar ideas y mostrar las relaciones
que hay entre ellas.
La técnica consta de los siguientes pasos:

 Leer cuidadosamente el texto y entenderlo claramente. En caso de haber palabras


que no se comprendan o no conozcan, habrá que consultarlas y comprobar cómo
funcionan en el contexto en que se encuentran.
 Localizar las ideas o palabras más importantes (palabras clave) con las que se
construirá el mapa; por lo general, son nombres o sustantivos.
 Determinar la jerarquización de dichas ideas o palabras clave.
 Establecer las relaciones entre ellas.

 Utilizar correctamente la simbología

Simbología de un Mapa Conceptual


a) Ideas o conceptos: Cada una se presenta escribiéndola encerrada en un óvalo o en un
rectángulo; es preferible utilizar óvalos.
b) Conectores: La conexión o relación entre dos ideas se representa por medio de una línea
inclinada, vertical u horizontal llamada conector o línea ramal que une ambas ideas.
Para conexiones y relaciones
c) Flechas: se pueden utilizar en los conectores para mostrar que la relación de significado
entre las ideas o conceptos unidos se expresa primordialmente en un solo sentido; también
se usan para acentuar la direccionalidad de las relaciones, cuando se considera
indispensable.
Para indicar la direccionalidad de las relaciones
d) Descriptores: son la palabra (s) que describen la conexión; se escriben cerca de los
conectores o sobre ellos. Estos descriptores sirven para “etiquetar” las relaciones. Tiene
gran importancia elegir la palabra correcta; o sea, la que mejor caracterice la relación de
que se trate, de acuerdo con el matiz de significado que debe darse con precisión.
2.1 Principios y Metodología de la Inteligencia
Artificial.

Una red semántica o esquema de representación en Red es una forma de representación


de conocimiento lingüístico en la que los conceptos y sus interrelaciones se representan
mediante un grafo. En caso de que no existan ciclos, estas redes pueden ser visualizadas
como árboles. Las redes semánticas son usadas, entre otras cosas, para representar mapas
conceptuales y mentales. Estos sistemas de organización del conocimiento estructuran
conceptos, no como jerarquía sino como una red o una web.

Los conceptos son como nodos, con varias relaciones que se ramifican hacia fuera de ellas.

Pueden incluir relaciones tipo todo-parte, causa-efecto, padre-niño. Existen diversos tipos
de relaciones semánticas como la hiponimia, hiperonimia, la meronimia. Dado un conjunto
de conceptos, elementos semánticos o términos relacionados semánticamente mediante
alguna relación semántica, una red semántica representa estas relaciones en forma de
grafo.
Los responsables de los primeros esquemas de representación formalizados fueron Quillian
(1968) y Shapiro & Woddmansee (1971). Los esquemas de redes semánticas tienen una
fundamentación psicológica muy sólida
Las redes semánticas han sido muy utilizadas en IA para representar el conocimiento y por
tanto ha existido una gran diversificación de técnicas. Los elementos básicos que
encontramos en todos los esquemas de redes son:

 Estructuras de datos en nodos, que representan conceptos, unidas por arcos que
representan las relaciones entre los conceptos.
 Un conjunto de procedimientos de inferencia que operan sobre las estructuras de
datos.

Básicamente, podemos distinguir tres categorías de redes semánticas:

 Redes IS-A, en las que los enlaces entre nodos están etiquetados.
 Grafos conceptuales: en los que existen dos tipos de nodos: de conceptos y de
relaciones
 Redes de marcos: en los que los puntos de unión de los enlaces son parte de la
etiqueta del nodo.
Redes IS-A
Sin duda el tipo de red semántica por excelencia es el de redes IS-A. De hecho muchas
veces se menciona este tipo como sinónimo de "red semántica", y los restantes tipos
también incorporan este tipo de enlaces o arcos (links). Esto ha dado lugar a que existan
casi tantos significados para un enlace IS-A como los hay para sistemas de KR (Brachman,
1983).

Una red IS-A es una jerarquía taxonómica cuya espina dorsal está constituida por un
sistema de enlaces de herencia entre los objetos o conceptos de representación,
conocidos como nodos. Estos enlaces o arcos pueden estar etiquetados "IS-A", también
"SUPERC", "AKO", "SUBSET", etc. Los restantes tipos de redes semánticas son en realidad
especializaciones de redes IS-A, por lo que siguen y amplían los conceptos fundamentales
que exponemos en este apartado.

Las redes IS-A son el resultado de la observación de que gran parte del conocimiento
humano se basa en la adscripción de un subconjunto de elementos como parte de otro
más general. Las taxonomías clásicas naturales son un buen ejemplo: un perro es un
cánido, un cánido es un mamífero, un mamífero es un animal. Obteniendo un número de
proposiciones:

x (perro (x)) cánido (x);


x (cánido (x)) mamífero (x);
x (mamífero (x)) animal (x);

La estructuración jerárquica facilita que la adscripción de propiedades a una determinada


categoría se reduzca a aquellas que son específicas a la misma, heredando aquellas
propiedades de las categorías superiores de la jerarquía, tradicionalmente de una forma
monotónica. El siguiente ejemplo de red IS-A , tomado de (Brachman 1983) ejemplifica
una red semántica típica con herencia de propiedades.
El concepto de herencia es fundamental para entender el funcionamiento de las redes
semánticas, así como el del modelo de datos orientado al objeto, que toma prestados
estos mecanismos desarrollados en el ámbito de la IA. Siguiendo a Shastri (1988),
definimos la herencia como el sistema de razonamiento que lleva a un agente a deducir
propiedades de un concepto basándose en las propiedades de conceptos más altos en la
jerarquía.
En el ejemplo jerárquico de la Figura, el agente23 sería capaz de atribuir las propiedades
"breathes" o "has gills" al concepto "shark" sin que éstas se encuentren específicamente
mencionadas. La herencia, por tanto, puede ser definida como el proceso mediante el cual
se determinan unas propiedades de un concepto C, buscando las propiedades atribuidas
localmente a C, si esta información no se encuentra a nivel local, buscando las
propiedades atribuidas a conceptos que se encuentran en los niveles superiores a C en la
jerarquía conceptual.
Como Brachman (1983) recuerda, las nodos de las estructuras IS-A se han usado para
representar muchas cosas, pero la división más importante es la interpretación genérica o
específica de los nodos, es decir, si éstos representan un sólo individuo o varios. Los nodos
situados en lo más bajo de la jerarquía y que denotan individuos son llamados tokens,
mientras que los nodos superiores, que denotan clases de individuos son considerados
types. Puesto que en una misma jerarquía podemos obtener nodos de ambos tipos, se
debe hacer explícita una distinción de los tipos de enlaces. Por un lado existen enlaces que
conectan categorías (genéricas) con otras categorías, y por otro, enlaces entre categorías
e individuos. Las primeras pueden expresar las siguientes relaciones:

 Subconjunto/superconjunto
 Generalización/especificación
 AKO, esto es, "a kind of"
 Contenido conceptual
 Restricción de valores
 Tipo característico del conjunto

Las relaciones genérico/individuales también son de varios tipos:

 Pertenencia al conjunto
 Predicación
 Contenido conceptual
 Abstracción

Grafos conceptuales
Los grafos conceptuales (conceptual graphs), propuestos por Sowa (1984), se diferencian
de las redes IS-A en que los arcos no están etiquetados, y los nodos son de dos tipos:
Nodos de concepto, que pueden representar tanto una entidad como un estado o
proceso.
Nodos de relación, que indican cómo se relacionan los nodos de concepto.
Por tanto, son los nodos de relación los que hacen el papel de enlaces entre las entidades.

[CONCEPT1] (REL.) [CONCEPT2


Existen dos notaciones para los grafos conceptuales, la forma lineal (textual) y los
diagramas o display form, que presentan tres tipos de elementos notacionales:

 rectángulos, que marcan los nodos de concepto,


 círculos, que marcan los nodos de relación,
 flechas direccionadas, que marcan los arcos.
, este tipo de modelado conceptual debe mucho al modelo de Entidad/Relación
La intención del uso de los grafos conceptuales para la representación del lenguaje natural
es mencionada por el propio Sowa, quien dedica un capítulo completo de su obra a la
aplicación de su esquema al análisis del lenguaje. La representación semántica de la frase
"man biting dog" que nos muestra en el capítulo introductorio es indicativo del uso que se
le puede dar. Sowa apunta que sus grafos conceptuales ponen el énfasis en la
representación semántica (en el sentido lingüístico de la palabra).

Esquemas de marcos
Los marcos (frames), también conocidos como «estructuras» o «unidades», introducidos
por Minsky (1974) [66], son una forma de expresar las redes semánticas textualmente,
pero además pueden incluir representaciones de conocimiento procedimental. En efecto,
cada nodo correspondiente a un objeto o a una clase se convierte en un marco, que
consta de una primera línea con el nombre del marco y una sucesión de líneas, llamadas
«ranuras» (slots) con la sintaxis:
<ranura> ::= <nombre de relación>: <objeto relacionado> |
<nombre de relación>: <clase relacionada> |
<nombre de propiedad>: <valor de la propiedad> |
<nombre de propiedad>: (excep) <valor de la propiedad> |
<nombre de propiedad>: if_needed <procedimiento> |
<nombre de propiedad>: if_added <procedimiento>
<nombre de relación> ::= es_un |
tipo_de |
<relacion específica de la aplicación>

Como se puede observar la fundamentación psicológica de los marcos es parecida a la de


los scripts de Schank: cuando nos enfrentamos con una situación determinada,
intentamos ajustarla a otra parecida de la que ya tenemos experiencia previa y esperamos
que aparezcan un número de elementos comunes y se sucedan algunas situaciones.
Por ejemplo, si entramos en una habitación de hotel, esperamos encontrar una cama, un
armario, un baño, etc. Nuestra mente reconocerá las instancias específicas de la nueva
habitación y los acomodará al estereotipo que ya poseemos. La base de la teoría la
conforman, por tanto, las situaciones estereotipadas.
La organización jerárquica de los marcos es una de sus características más destacables.
Los marcos se organizan en jerarquías que presentan los mismos sistemas de herencia que
encontrábamos en las redes IS-A. De hecho, una estructura de marcos no es más que una
ampliación de una estructura de redes IS-A básica (de redes semánticas tradicionales),
donde los nodos han sido reemplazados por grupos estructurados de información (los
marcos).
Una jerarquía de marcos es un árbol en el que cada uno de los nodos es un marco. Para
cada nodo hijo, el enlace con el nodo padre es un enlace de herencia. El nodo hijo hereda
todos los slots de su padre a menos que se especifique lo contrario (sobrecontrol). Esta es
una gran diferencia con las redes IS-A, donde la herencia es siempre monotónica, es decir
no hay posibilidad de negar la herencia de propiedades en un contexto o situación
determinada (que puede ser especificada por el resultado de una operación de triggering).
Los nodos pueden ser de dos tipos: nodos de clase y nodos de instancia. Todos los nodos
internos (no terminales) han de ser nodos de clase.
La característica que la herencia trae consigo es el concepto de valores por defecto
(defaults). En un marco se puede especificar un valor determinado o bien un valor por
omisión (también llamados valores locales y valores heredados), en cuyo caso heredará
sin más el valor de su antecesor. Por ejemplo, la clase (nodo de clase) ave, tendrá el valor
por omisión vuela como "cierto", aunque algunos nodos de instancia hijos, por ejemplo
avestruz, no posean esta propiedad. Esta instancia concreta puede ser obligada a no
heredar esta propiedad asignándole el valor "falso", mientras que otras propiedades,
como tiene_alas, sí serían heredadas por defecto (aunque en otras instancias, como en el
caso de kiwi, ésta habría de ser negada).
Podemos resumir las principales características de los marcos en las siguientes (Minsky
1975; Winograd 1975):

 Precisión (Explicitness): se precisan los objetos, las relaciones entre objetos y sus
propiedades; en ausencia de evidencia contraria se usan valores por omisión

 Activación dinámica de procesos (Triggering): se pueden adjuntar procedimientos


a un marco o alguno de sus componentes y ser llamados y ejecutados
automáticamente tras la comprobación de cambio de alguna propiedad o valor (p.
ej. if-needed, if-added)

 Herencia por defecto no-monotónica: los marcos están conceptualmente


relacionados, permitiendo que atributos de objetos sean heredados de otros
objetos predecesores en la jerarquía

 Modularidad: la base de conocimiento está organizada en componentes


claramente diferenciados

También podría gustarte