Está en la página 1de 14

La formalizacin del sentido comn

Raymundo Morado
Introduccin
Desde su creacin la lgica fue vista, tanto por los peripatticos como por los
estoicos, como la descripcin rigurosa de los patrones aceptables de razonamiento. Pero a
lo largo de los siglos han cambiado nuestras ideas de lo que cuenta como riguroso y de lo
que cuenta como aceptable. Hoy da el paradigma de rigor es la formalizacin mientras
que el paradigma de aceptabilidad ha dejado de ser el razonamiento deductivo.
Consideramos aceptables algunas formas de pensamiento probabilstico, inductivo,
estadstico y de sentido comn. El reto es sealar cules son esas formas aceptables y
hacerlo de manera rigurosa, si es posible con la ayuda de una formalizacin.
Pero, podemos construir algn sistema formal que capture el sentido comn? Una
primera objecin a este proyecto es sealar que a menudo el razonamiento de sentido
comn utiliza trminos y conceptos vagos y por lo tanto no puede ser formalizado. Pero
esta es una idea excesiva de la formalizacin. Para ella no necesitamos precisin en los
conceptos. Basta que sean simbolizables (y continuamente simbolizamos cosas vagas), y
que algunas de sus propiedades sean formalizables. No tienen que serlo todas, lo que
permite que haya vaguedad e imprecisin. Qu otros sentidos hay de formalizar? Por
ejemplo, que tenga un sistema. Y la objecin de que las nociones no son suficientemente
precisas, que son demasiado vagas, puede ser en el sentido de que no podemos encontrar un
sistema, una estructura que podamos abstraer e identificar para poder hacer un sistema
formal de ello. Pero las cosas vagas tambin pueden ser sistemticas como prueban las
lgicas borrosas.
Una segunda objecin es decir que no se puede formalizar el sentido comn porque
no es deductivo. Efectivamente, nuestra nocin de validez tiene que ser modificada y ser
una nocin de validez no deductiva como las que ya tenemos en probabilidad,
razonamiento estadstico, induccin.
Una tercera objecin es decir que no se puede formalizar el sentido comn porque
es irreductiblemente intensional. Pero tenemos casos de nociones irreductiblemente
intensionales que han sido formalizadas exitosamente. Por ejemplo, algunas de las nociones
de necesidad, obligatoriedad y creencia. El que una nocin sea intensional no significa que
no podamos manejarla sintcticamente y en ese sentido formalizarla.
Una cuarta objecin es decir que no se puede formalizar el sentido comn porque no
es cuantificable. En parte s lo es. Por ejemplo, hay cuantificacin a travs de las teoras
matemticas de las teoras de probabilidades y de las lgicas difusas. Pero la cuantificacin
no es una condicin necesaria para la formalizacin. Tambin hay lgicas meramente
cualitativas como las de Reiter, McDermott y Doyle, Moore y Konolige. Podemos tener
jerarquas preferenciales en las cuales haya rdenes que permitan hacer inferencias y
rescatar propiedades estructurales sin necesidad de tener una mtrica para ese orden.
Parece que no hay objeciones de principio al proyecto de formalizar el
razonamiento de sentido comn y s muchas ventajas para el estudio del manejo de la
informacin.

En el discurso de sentido comn, igual que en el cientfico y el tecnolgico, la


racionalidad de una inferencia y su estatus lgico deben ser juzgados con respecto a su
contexto. Esto exige un estudio riguroso de los contextos de razonamiento cientfico y
tecnolgico, desde el contexto mnimo en que florece la inferencia deductiva, hasta los
complejos contextos inductivos y abductivos.
Fuera de algunas ciencias formales como la matemtica y la lgica, la mayor parte
de los razonamientos se justifican por referencia a contextos no mnimos. Al cambiar el
contexto, las inferencias deben ser retractadas por completo o en parte. Esto nos enlaza con
el estudio de la inferencia no-monotnica. Los razonamientos no-monotnicos son aquellos
cuyas conclusiones son retractables a la luz de informacin adicional. En general, son
argumentos plausibles pero que pueden ser bloqueados y sus conclusiones retractadas si el
contexto cambia.
El caso paradigmtico de inferencia no-monotnica es aquella en la que interviene
crucialmente el contexto. En estos casos la inferencia no es no-monotnica por la presencia
de premisas implcitas sino por la presencia de un contexto que legtima la inferencia. Al
cambiar el contexto (que puede ser toda la informacin que hemos acumulado hasta ese
momento) la inferencia puede tener puede ser bloqueada. Cules son los requisitos de una
representacin aceptable del contexto para los fines de una teora general de la inferencia?
Cmo podemos representar el auditorio, los presupuestos, el entrar o salir de contextos, las
inferencias deductivas y no deductivas?
En la mayora de los formalismos tenemos una idea esttica de contexto y las
variaciones en el contexto quedan representadas por las premisas base. Diferentes grupos
de premisas representan diferentes contextos pero no tenemos manera de representar, por
ejemplo, el cambio en las premisas, que una premisa deje de ser verdadera, que otra
premisa sea aadida o modificada, etc. Nuestra representacin de la inferencia nomonotnica se beneficiar de que podamos representar los cambios de contexto, entradas a,
y salidas de, ellos. Aunque el contexto sea representado simplemente como el conjunto de
las oraciones que en ese contexto son aceptadas, necesitamos tambin una manera de poder
localizar bajo qu contexto una determinada inferencia es aceptado para poder despus
asignar crdito y responsabilidad a conclusiones que tengan que ser retractadas al momento
que su soporte desaparece. Esta estrategia fue utilizada por Jon Doyle a mediados de los
setenta para los mal llamados Truth Maintenance Systems, que ms que preservar la verdad
en el sistema intentan preservar la consistencia.
Desgraciadamente, no tenemos todava un tratamiento formal satisfactorio de la
estructura lgica de los contextos y su efecto en la argumentacin. En este trabajo
pasaremos revista a algunas herramientas formales recientes para manejar con ms rigor los
factores contextuales. Examinaremos varios enfoques y propondremos una manera de tratar
lgicamente a un rango amplio de contextos de inferencia. Revisaremos las formalizaciones
de seis autores y concluiremos que son todas insuficientes. Surav y Akman extienden el
formalismo de la Teora de Situaciones de Barwise y Perry, y lo complementan con el
Clculo de Situaciones de McCarthy y Guha, pero falta extenderlo para que pueda incluir
inferencias de sentido comn en las que las excepciones no puedan ser especificables de
antemano.
Necesidad de representar los contextos

Fuera de algunas ciencias formales como la matemtica y la lgica, la mayor parte


de los razonamientos se justifican por referencia a contextos no vacos. Al cambiar el
contexto, las inferencias deben ser retractadas por completo o en parte. Esto se enlaza con
el estudio de la inferencia no-monotnica. Como dijimos antes, los razonamientos nomonotnicos son aquellos cuyas conclusiones son retractables a la luz de informacin
adicional y, en general, son argumentos plausibles pero que pueden ser bloqueados y sus
conclusiones retractadas si el contexto cambia. Curiosamente, algunas ideas bsicas de este
desarrollo formal parecen recuperar ciertas intuiciones que ya Aristteles haba expresado
informalmente con respecto al llamado entimema retrico.
La lgica se ocupa de la inferencia aceptable y, en su forma extrema, de la
inferencia necesaria. Pero el que una conclusin sea necesaria, o por lo menos sensata,
puede depender del contexto. Al preguntar si una conclusin A se sigue de cierto grupo P de
premisas, es natural preguntar por el contexto de evaluacin.
La usanza en lgica es tratar al contexto como premisas implcitas y a la inferencia
contextual como una inferencia con premisas elididas, es decir, como un entimema en su
sentido ms comn.[2] Su formalizacin es entonces como sigue:
1) El contexto es un grupo de afirmaciones.
2) Las afirmaciones se modelan con meras oraciones, trozos sintcticos de un
lenguaje formal L.
3) Los grupos de oraciones se modelan mediante conjuntos.
Gracias a estas convenciones podemos modelar el que una conclusin A se sigue de
las premisas P en el contexto C, diciendo que {A} c P c C f L, y que P c C A.
La relacin conjuntista A@ se define de la manera habitual como inclusin del
segundo trmino en la clausura lgica del primero. La lectura normal es decir que de P se
sigue A en el contexto C justo cuando el contexto contiene informacin que unida a las
premisas permite inferir A fuera de todo contexto. El resultado de este tratamiento es
formalizar a la inferencia contextual como una inferencia acontextual entimemtica.
Esta manera de formalizar el contexto tiene varios problemas. Por ejemplo, si
usamos las reglas lgicas normales, el uso de la clausura lgica impone una nocin de
omnisciencia lgica que impide modelar la inferencia cotidiana. Pero el mayor problema es
que un contexto es ms que una coleccin de creencias. Dejando de lado la cuestin de si
nuestro conocimiento de un contexto puede ser recogido por un conjunto de creencias, hay
el riesgo de pensar que el contexto mismo consiste simplemente de afirmaciones.
Para dramatizar el problema, considrese el caso en que el contexto legitima
conclusiones contradictorias. Es comn en la vida diaria, y la norma en los contextos
jurdicos, tener evidencias tanto en favor como en contra de una conclusin. Eso no nos
lleva a creer tanto A como 5A, sino a suspender nuestro juicio o a concluir una de las dos
opciones con cierto grado de certeza, confiabilidad o probabilidad.
El contexto, pues, contiene adems de creencias bsicas jerarquas y grados de
seguridad sobre creencias. Esto puede ser modelado como meta-creencias, o incorporado en
una estructura ms compleja y perspicua que un conjunto simple de oraciones
representando creencias bsicas. Y hay informacin sobre el contexto mismo, no sobre las
creencias que contiene, que determina la aceptabilidad de una conclusin. Por ejemplo, una
consideracin contextual es la tractabilidad del problema y las limitaciones en recursos
computacionales.
Al hablar sobre contextos hay el peligro de incluir la historia completa del universo.
Por ello usaremos una nocin que se restringe a los aspectos que afectan nuestra evaluacin

lgica de la inferencia. Ntese que puede ser el caso de que ni A ni B solas afecten si
podemos inferir o refutar algo, y sin embargo la conjuncin (A & B) s afecte.
Una manera de entender el contexto de una inferencia es como aquellos
presupuestos y reglas que constituyen el trasfondo epistmico de la deliberacin. Un
presupuesto es el de normalidad: todos los objetos son normales. El atributo de normalidad
recoge el contexto de la deliberacin y especifica cules son los objetos esperados, cules
son sus propiedades tpicas, y cules son sus relaciones habituales. Esta informacin puede
ser heurstica y retractable si el presupuesto de normalidad es violado. Otro elemento del
contexto de normalidad es el presupuesto de minimalidad ontolgica. A falta de
informacin en contra, suponemos que no hay ms entidades que aquellas de las que
tenemos noticias directas o indirectas. Suponemos que no hay fantasmas ni flogisto ni
magnetismo animal ni ether, cuando nuestras teoras pueden ser modeladas sin necesidad de
suponer esas entidades. Este tipo de navaja de Ockham est plasmado en los axiomas de
circunscripcin estudiados a principios de los ochenta por John McCarthy.
Pero, qu son los contextos?
Hay una comprensible reticencia a decir demasiado sobre el aspecto ontolgico de
los contextos. Guha menciona, antes de entrar a su disertacin doctoral, que todos sus
asesores le recomendaron no aadir nada a los debates filosficos y metafsicos sobre el
tema. A la larga coincidi con ellos en que era mucho mejor limitarse a asuntos puramente
tcnicos. Despus de todo, su disertacin era para un departamento de informtica,
comprensiblemente ms interesado en las aplicaciones que en los fundamentos.
Es bien sabido que la ciencia de la computacin tiene tanto que ver con la
tecnologa de las computadoras como la ciencia astronmica tiene que ver con la tecnologa
de los telescopios. La ciencia de la computacin es una ciencia bsica, pero tiene un nfasis
computacional que a menudo separa sus temas, y delimita sus enfoques. A un filsofo no le
parece prioritario que su nocin de contexto pueda ser especificada al grado de ser
utilizable por el aparato inferencial de una base de datos. A un computlogo no le es
prioritario explicar la ontologa de los objetos representados. Ambas actitudes se traducen
en generalidades sobre los contextos cuando falta la presin de ofrecer algo que pueda
traducirse en sistemas concretos, o de distinguir a los contextos de objetos similares como
estados epistmicos, conjuntos de presupuestos o situaciones.
Empecemos aclarando que los contextos de los que hablaremos aqu son estructuras
que incluyen slo aquellos aspectos relevantes para la evaluacin lgica de nuestras
inferencias. Por ello no pueden coincidir con los contextos en el sentido psicolgico,
lingstico, social o histrico. De igual modo no pueden coincidir con los muy amplios
contextos de descubrimiento, aunque tienen mucho que ver con los llamados contextos
de justificacin. Lo que hay que recordar es que de momento omitiremos todos los
elementos que no toquen el problema de la evaluacin lgica de las inferencias. Hay
inferencias reprochables desde un punto de vista esttico o moral, pero nuestra nocin de
contexto ser ciega a tales distinciones. Por supuesto, nada impide construir nociones que
incluyan o se intersecten con la nuestra, pero el tema presente se circunscribe a los
contextos inferenciales.
Cmo estn estructurados los contextos?

Es comn interpretar a los contextos como estados epistmicos, y stos a su vez como
(1) conjuntos consistentes y
(2) cerrados bajo clausura lgica de
(3) frmulas que modelan grupos de creencias.
Este modelo funciona, por ejemplo, para modelar la prctica medieval de
las obligationes como ejercicios de dialctica contrafctica. Sin embargo, tiene serias
limitaciones.
El requisito (1) de consistencia excluye el desacuerdo explcito. Pero en una
discusin entre varios agentes, no podemos limitar el contexto a las creencias
consistentemente compartidas entre todos los proponentes y recipientes de las inferencias.
Si lo hacemos no podremos explicar las polmicas, las tesis incompatibles y todas aquellas
prcticas dialgicas en que intentamos hacer que la otra persona cambie de opinin. La
representacin del contexto debe permitir conjuntos inconsistentes de creencias. Y esto no
slo por la contradiccin entre las opiniones de varios agentes, sino tambin por la
posibilidad de la autocontradiccin; de otra manera no podramos modelar una inferencia
tan comn en filosofa como la reduccin al absurdo.
El requisito (2) de clausura lgica significa que no distinguimos entre nuestras
creencias y todas sus consecuencias lgicas. Pero esta distincin es importante para hablar
de grados de racionalidad. No es lo mismo chocar con creencias explcitas que con sus, a
veces recnditas, consecuencias lgicas.
Otra limitacin es la restriccin (3) a creencias. Hay factores lgicos en la estructura
de los contextos que no son proposicionales. Por ejemplo, las reglas o disposiciones
inferenciales no deben ser confundidas con los condicionales correspondientes. Aunque
utilicemos condicionales para representar las reglas, su interpretacin debe ser imperativa y
no declarativa. No significan que el sistema incluya entre sus datos esas proposiciones
hipotticas, sino que ante la presencia de la prtasis el sistema tiene la opcin de insertar la
apdosis dentro de su grupo de aseveraciones. Puede ser visto como una disposicin o
como una licencia, pero no como una creencia ms.
Por todo esto, una primera aproximacin a la representacin de contextos
inferenciales es como pares ordenados de conjuntos: <{frmulas}, {reglas}>. El primer
conjunto son frmulas bien formadas de un sistema suficientemente expresivo, y el
segundo es un conjunto de reglas. Esta es una representacin popular pero necesita ser
afinada tanto al interior como al exterior. Externamente necesitamos aadir operadores para
manejar las relaciones entre contextos y entre contextos y sus contenidos. Internamente
debemos especificar las frmulas que autorizaremos y especialmente las reglas que tanto
influyen en la naturaleza caracterstica de los contextos.
Qu propiedades tienen los contextos?
El contexto de una inferencia cambia con el aadido o supresin de creencias o
mtodos, es decir, de frmulas o reglas. Por ello, tenemos al menos cuatro operadores de
cambio de contexto.
El primer operador es un operador de contraccin para proposiciones. No es una
funcin pues puede haber ms de una manera de eliminar una proposicin de manera que el
resto del sistema no permita derivarla nuevamente. Por ejemplo, si deseamos sustraer la
tesis C de un contexto <{A, B, [(A v B) C]}, >, donde es la lgica clsica, podemos

hacerlo eliminando cualquiera de las tres frmulas generadoras del contexto, A, B o [(A v
B) C]. Al menos una debe eliminarse pero si no tenemos informacin adicional puede
ser cualquiera de ellas.
El segundo es un operador de contraccin que toma como argumento a una regla
y la sustrae del contexto inferencial. Aqu podemos ver slo las reglas explcitas y por ello
este operador es funcional. Aunque puede haber muchas reglas derivables, las
contracciones normales operan sobre las explcitas. Nada impide tener operadores no
funcionales sobre las reglas igual que los de contraccin de proposiciones.
Los siguientes dos operadores aaden respectivamente proposiciones y reglas y son
funciones. Pueden ser definidos como la unin de los conjuntos originales con el conjunto
unitario que contiene a la proposicin o la regla a incluir, produciendo extensiones del
contexto.
En trminos de estos operadores podemos definir otros. Por ejemplo, es usual
definir un operador de revisin de proposiciones en trminos de contraccin y adicin. Para
revisar el sistema con la proposicin X, simplemente la aadimos despus de haber
sustrado la negacin de X.
Adems de los operadores y funciones de cambio de contexto, necesitamos
operadores para describir las interacciones entre los contextos y las reglas y frmulas que
contienen. A continuacin pasaremos revista a varias maneras de hacer esto.
La formalizacin de contextos en inteligencia artificial
La necesidad prctica de representar los contextos para procesar informacin
mecnicamente, ha llevado al campo de la inteligencia artificial a proponer formalizaciones
de esta nocin. Con el manejo de contextos un programa de computacin puede utilizar
conocimiento implcito sobre situaciones comunes. Eso permite un comportamiento ms de
sentido comn que facilita la interfase con los usuarios, y nos acerca a poder satisfacer
las exigencias de la prueba de Turing. Adems, los supuestos del contexto pueden ser
abandonados cambiando de contexto sin tocar el ncleo firme de datos explcitos.
Para McCarthy y para su alumno Guha, el contexto es un objeto primitivo sin
definicin, demasiado rico para ser completamente especificado. Por ser un objeto de
nuestro dominio, podemos aplicarle predicados y functores normales, transformarlo en
otros objetos, y hablar de l desde otros contextos. Ontolgicamente hablando, esta
formalizacin del contexto pasa por su completa reificacin.
Para decir desde nuestro contexto c0 que la proposicin p es verdadera (is true) en
el contexto c1, escribimos c0: ist(c1, p).[3] Alternativamente, podemos entrar al contexto
c1 y decir que c0: c1: p.
Podemos definir un orden parcial entre los contextos de acuerdo a su generalidad y
decir que c2 es ms general que c1 (c1 c2). Este orden permite elevar (lift) un hecho de
un contexto c1 a otro ms general c2 o al revs. Por supuesto, yendo al contexto ms general
esta elevacin es no-monotnica, y presupone que todo es normal. Formalmente,
c0: c1 c2 p {[(c1 c2) ist(c1, p) & ab(c1, c2, p)] ist(c2, p) }.
Por ejemplo, si algo es verdad hablando sobre la natacin, tambin lo ser hablando
sobre los deportes, a menos que lo que decimos sea extrao. Al revs, si algo se aplica a los
deportes tambin se aplicar a la natacin, a menos que la natacin sea abnormal en ese
aspecto entre los deportes:

c0: c1 c2 p {[(c1 c2) ist(c2, p) & ab(c1, c2, p)] ist(c1, p) }.


Hay otras maneras de obtener el efecto de no-monotonicidad. Cuando vamos hacia
un supercontexto estamos generalizando, y cuando vamos hacia un subcontexto estamos
instanciando. El supuesto de normalidad puede formalizarse en la generalizacin mediante
un axioma de circunscripcin que asume que no hay ms elementos que aquellos de los que
hemos hablado implcita o explcitamente. En cambio, el supuesto de normalidad puede
formalizarse en la instanciacin mediante una regla default que puede desactivarse en caso
de excepciones.
Debido a la falta de monotonicidad, no podemos decir que un contexto que contenga todas
las frmulas y reglas que otro, tendr tambin todas sus conclusiones. A menudo el
contexto ms rico bloquear conclusiones que se tomaron en el ms parco a falta de
informacin en contra.
Otra ventaja de esta formalizacin es que los contextos contienen parmetros que
permiten especializarlos. Por ejemplo, podemos especializar un contexto de discusin a
cierto tiempo o lugar. Al cambiar el valor del parmetro estamos cambiando de contexto y
nuestras reglas inferenciales pueden ser explcitamente sensibles a tales cambios.
Esta formalizacin tambin ayuda con el problema del cambio de significado de los
trminos. Es comn que un trmino cambie de referencias al cambiar el contexto. Trminos
como pas o proposicin cientfica cambian de referentes de ao en ao. Podemos
ahora afirmar explcitamente que esto no ocurre, escribiendo que un concepto C mantiene
su extensin en dos contextos diferentes. Basta usar la nocin de que de uno de los
contextos al otro se preserva el dominio de aplicacin del predicado P escogido para
representar al concepto C:
c0: x {ist(c1, P(x)) ist(c2, P(x)) }.[4]
Nada nos impide tener reglas arbitrarias entre contextos como:
c0: x {ist(c1, P(x)) ist(c2, Q(x)) }.
Eso significa que podemos hacer cosas como cambiar el nombre de un predicado al
cambiar de contexto.
Adems de cambiar la referencia y el nombre de los conceptos, el cambio de
contexto nos permite manejar rigurosamente las ambigedades sistemticas. Usaremos
como ejemplo un fenmeno comn en la literatura sobre programacin lgica, pero raro en
filosofa, el del cambio de aridad de predicados. Puede haber una ambigedad sistemtica
en la que la aridad cambie de acuerdo al contexto de aplicacin. Por ejemplo, hay verbos
como despertar, que pueden ser mondicos (Juan despert) en ciertos contextos y
didicos (Juan despert a su pblico) en otros, rigiendo acusativos. Un sistema de Prolog
puede estar diseado para detectar automticamente el nmero de argumentos que recibe un
predicado y asignar el concepto adecuado. Despert(juan) se lee automticamente como
Juan se despert, mientras que Despert(juan, pedro) se lee como Juan despert a
Pedro. De hecho, el contexto puede cambiar de acuerdo a la naturaleza del segundo
argumento: Despert(juan, sospechas) cambia el sentido de la relacin. Por ello el contexto
en el que se evala Despert(juan, y) puede ser una funcin f(y):
c0: x y {ist(c1, P(x)) ist(f(y), P(x, y)) }.
En sistemas donde hay un lazo ms estrecho entre concepto y representacin, se rechaza la
ambigedad sistemtica (aunque no es realmente ambigedad), y se usan diferentes
nombres para sealar que el cambio de aridad implica un cambio en el concepto (por
ejemplo, Despertose, Despert-A-Alguien y Despert-Algo). El esquema de

individuacin de Barwise y Perry da diferentes nombres al cambiar la aridad, y el sistema


de Giunchiglia llega a asignar un lenguaje diferente a cada contexto. Esto previene
confusiones pero al tratar de eliminar la ambigedad impide mostrar la ambigedad
sistemtica dentro del sistema mismo.
Para entrar a un contexto podemos asignar dinmicamente asumiendo(c). Por
ejemplo, en un sistema de deduccin natural esa asercin producira una subprueba dentro
de la cual pueden usarse todas las reglas y creencias de c. En un programa lgico producira
un punto de eleccin del que se desprende una rama en el rbol de bsqueda. Con un
comando simtrico podemos cerrar la subprueba o podar la rama. Y las reglas entre
contextos nos sealaran cuales resultados pueden ser exportados fuera del contexto en que
se obtuvieron.
Pero, nuevamente, qu son los contextos?
Un contexto puede ser visto como un tipo o clase de situaciones. En 1969 John
McCarthy introdujo un Clculo de situaciones en Inteligencia Artificial y en 1983 Jon
Barwise y John Perry presentaron una Teora de Situaciones. Aunque tenan puntos en
comn, tanto las nociones bsicas como sus desarrollos fueron diferentes. En 1995 Mehmet
Surav y Varol Akman de Turqua presentaron un panorama de formalizaciones de la nocin
de contexto y especficamente relacionaron el Clculo de Situaciones de McCarthy con la
Teora de Situaciones de Barwise y Perry.
Aunque el contexto para McCarthy es un objeto no especificado, podemos verlo
como un tipo de situaciones especficas, es decir, un tipo de partes de la realidad y esto es
cercano a lo que Barwise y Perry entienden por situacin. De hecho, una situacin en el
sentido de McCarthy parece cercana a lo que Barwise llama situaciones fundamentales
(grounding). A grandes rasgos, una situacin en el sentido de McCarthy puede ser vista
como un contexto de una situacin en el sentido de Barwise y Perry.
Surav y Akman proponen entender un contexto como una amalgama de situaciones
y las reglas que gobiernan sus relaciones en ese contexto. Sin entrar en detalles innecesarios
en este momento, una situacin S es un grupo parcial de hechos que se modelan con un
conjunto de unidades de informacin I verdaderas para S: {I | S I}. Un tipo de situacin
se abstrae parametrizando una unidad de informacin. As podemos hablar del tipo T de
situacin S en que el hecho H ocurre: T = [S | S H]. Estos tipos de situaciones pueden
considerarse contextos de los que pueden obtenerse tanto relaciones condicionales como
informacin que describe, as sea incompletamente, hechos categricos.
Veamos un ejemplo, adaptado de Surav y Akman. Supongamos que queremos
formalizar el que, al menos en el contexto U de la UNAM, los exmenes de doctorado en
filosofa cuentan con el asesor de la tesis como parte del jurado. [5] Esto quiere decir que en
el contexto U, el tipo de situaciones Sa donde es verdad (1) que el asesor es x, involucra
al tipo de situaciones Sj en que x es un miembro del jurado, al menos en las situaciones F
donde el examen es de filosofa. Formalizado,
Sa << asesor, x, 1 >>
Sj <<jurado, x, 1 >>
U << involucra, Sa, Sj, F >>
o, ms sintticamente,
U [Sa Sj | F ] .

Si queremos generalizar el contexto a cualquier universidad que sea como la


UNAM, basta decir
U = [Sa Sj | F ] .
Por supuesto, el trasfondo F puede ser asimilado en la especificacin de la situacin
Sa; la ventaja de tenerlo por separado es facilitar la manipulacin de supuestos que inducen
no-monotonicidad.
Insuficiencias de la representacin
Un problema importante en la formalizacin de Surav y Akman es su manejo de las
inferencias no-monotnicas. Recordemos algunos hechos bsicos sobre este tipo de
inferencias.
Los desarrollos recientes en Inteligencia Artificial han enfatizado que los procesos
deductivos de pensamiento son relativamente sencillos de reproducir mientras que las
inferencias diarias o de sentido comn son mucho ms difcil de reconstruir, si hay poco
lugar para el error y la revisin. Ya que una completa certeza en los fundamentos no es el
caso normal, a menudo necesitamos saltar de nuestro conocimiento incompleto a
conclusiones que avancen nuestras indagaciones. As pues, un sujeto epistmico capaz de
enfrentar retos mnimos en el mundo real, sea una computadora o un humano, necesita
poder manejar descripciones incompletas y/o inconsistentes sobre qu estado de cosas
ocurre. Normalmente usamos reglas que, aunque llevan a conclusiones retractables,
garantizan un mnimo de racionalidad. La posibilidad del error conlleva la necesidad de
retractar creencias.
Una amplia gama de fenmenos puede ser relacionada con la no-monotonicidad.
Esto ha producido diferentes enfoques, aparentemente inconexos. Afortunadamente, casi
todos estos fenmenos comparten importantes propiedades formales y el estudio de un tipo
puede iluminar el estudio de otros.
Decimos que una funcin f es monotnica bajo un orden O ssi O(x,y) implica O(fx,
y). En el caso de razonamiento monotnico, O es la relacin implica y f es cualquier
funcin que aada contenido semntico. En otras palabras, aadir informacin a las
premisas debiera preservar la conclusin. E. g., ( ) slo si (i X) (). (En
trminos de uniones de conjuntos de piezas de informacin: Si entonces X .)
Tarski habla de la operacin monotnica Cn que arroja un conjunto de
consecuencias a partir de un conjunto de oraciones, [6] y la lgica clsica, lo mismo que las
intuicionistas y modales son llamadas monotnicas porque la adicin de informacin no
afecta la validez de la inferencia deductiva.[7]
Esto es formalmente anlogo a la regla de Debilitamiento que aparece en lgica
combinatorial como el combinador K. En lgica algebraica corresponde al pricipio de
lmite inferior ab b. En algunos sistemas de deduccin natural (o clculos de secuencias
tipo Gentzen) Debilitamiento aparece como , / , , .
Por otro lado, una relacin de orden O no-monotnica es aquella que viola la regla
de que si bajo O, entonces g() g(), para cualquier funcin g que incremente
contenido semntico. Por ejemplo, si substituimos g() por ( X), tenemos que no
implica ( X) ( X). Incrementar nuestro conocimiento de a X puede
impedirnos inferir .

La analoga entre monotonicidad y Debilitamiento no es perfecta, pero ha llevado a


aplicar el trmino no-monotonicidad al rechazo de Debilitamiento. Otra caracterizacin es
decir que el razonamiento monotnico ocurre cuando las inferencias se preservan bajo
aumento de premisas: las reglas de inferencia son siempre de la forma es un teorema
si _1 ,...,_n son teoremas. En contraste, el razonamiento no-monotnico ocurre cuando
las inferencias no se preservan bajo aumento de premisas: las reglas de inferencia pueden
ser de la forma es un teorema si _1 ,...,_n no son teoremas. Se dice que las reglas
de inferencia hacen a los axiomas permisivos o restrictivos.[8]
Hay que notar que hay otras operaciones no-monotnicas que no se relacionan
directamente con incremento de informacin. Por ejemplo, podemos definir una nocin
de consecuencia
mnima[9]como m iff M
(
[
M N
(N N M) ] M ). Es decir, cualquier modelo mnimo de modela . Si
definimos modelos como conjuntos de oraciones atmicas , , ... y estipulamos
que ssi ,[10] es claro que m , pero no m . Esta consecuencia
mnima es no-monotnica en el sentido de que ampliaciones de los modelos pierden
consecuencias. Pero, por nuestra estipulacin sobre , las ampliaciones no se producen por
un mero incremento de conocimiento pues determinan explcitamente todo lo que es el caso
e implcitamente todo lo que no. Agrandar estos modelos representa un incremento de
informacin ``positiva'' tanto como un decremento de la informacin ``negativa''. En
contraste, la nocin de no-monotonicidad que buscamos es no-monotonicidad bajo
incremento total de informacin, tanto positiva como negativa.
Veamos ahora cmo manejaran Surav y Akman el ejemplo clsico de una regla
Los A son generalmente B, aunque , , ... son raros casos en que un A no es B.
Llamaremos al tipo de situacin en que x es un A, S A, cuando x es un B, SB, y cuando todo
es normal N. La formalizacin arroja
SA = [S | S <<A, x, 1>>]
SB = [S | S <<B, x, 1>>]
N = [S | S <<, 0>> & S <<, 0>>& S <<, 0>>]
Podemos ahora decir que en el contexto C los A son B, bajo el supuesto de normalidad N:
C = [SA SB | N ] .
Desgraciadamente, esta formalizacin tiene el defecto, ya notado por McCarthy y
Hayes en 1969, de que es prcticamente imposible especificar en situaciones interesantes
todos los casos , , , etctera que bloquean la conclusin. Aunque N recoge , y , lo
interesante de las reglas no-monotnicas es la falta de especificacin del etctera. El
formalismo debe ser ampliado con reglas no-monotnicas en vez de tratar a las inferencias
no-monotnicas como si simplemente tuvieran premisas escondidas. Explicar eso un poco
ms recordando algunos aspectos de las inferencias entimemticas.
El entimema
Una vez que hemos separado racionalidad de deducibilidad podemos expandir
nuestra nocin de inferencia. Una nocin de razonamiento no-monotnico se puede hallar
ya en la nocin aristotlica del silogismo retrico o entimema. Las formas interesantes de
retractabilidad en razonamiento por defecto se deben a su contextualidad. Si hay, como yo
sospecho, una referencia implcita a un contexto, al cambiar ste la inferencia deja de ser

razonable. Los cambios en contexto cambian el grado de ``razonabilidad'' de las inferencias


por defecto. Lo que hace a tales inferencias retractables no es la incertidumbre de las
premisas o de la conclusin, sino el que su apoyo dependa crucialmente de su contexto. As
pues, en vez de representar relaciones por default sin relacin a la base de creencias,
debemos representarlas como relativas
a esa base.
El entimema aristotlico, como varias otras formas de razonamiento, incluye un
sentido de corregibilidad en la inferencia en el cual el razonamiento sigue siendo correcto
aun despus de ser cancelado. La retractabilidad no es falta de deducibilidad pues es
posible inferir por defecto algo necesario. La implicacin no-monotnica puede ser el caso
incluso cuando falla la material (y por ende la estricta y la contrafctica).
Un condicional no-monotnico no queda invalidado por la informacin extra sino
simplemente desactivado. La retractabilidad de la inferencia por default significa que es
bloqueada por informacin adicional igual que aseveraciones condicionales. Es decir, la
nueva informacin no implica que la regla haya sido indebidamente aplicada sino que ya no
se puede aplicar.
Un punto a enfatizar es que la inferencia es aceptable aun despus de que nos damos
cuenta que la relacin inferencial puede suspenderse al aadir informacin. Con el mismo
cuerpo de creencias, aceptamos lleva a y rechazamos que ( X) lleva a . La
inferencia se mantiene aunque sabemos que depende de nuestra ignorancia.
Esto no significa que el contexto contiene suficientes premisas implcitas para hacer
a la inferencia cierta si fueran hechas explcitas. Tal enfoque asimilara a las inferencias nomonotnicas con argumentos con premisas tcitas que hubieran hecho a la inferencia
monotnica si tan slo hubieran sido explcitas. Esta es la interpretacin del entimema
como un silogismo incompleto, con una inferencia clsica agazapada en el silencio. Claro
que esto puede ocurrir, pero si toda la fuente de la falibilidad es el silencio, la nica manera
de forzar la retraccin de una inferencia sera contradiciendo uno de los supuestos callados,
y sacndolo a la luz.
El razonamiento no-monotnico es ms que razonamiento clsico clef. Aun
teniendo todo el trasfondo de supuestos, la inferencia puede no ser segura, slo altamente
aceptable. La nueva informacin ni siquiera necesita contradecir al trasfondo de creencias
para bloquear la inferencia de la conclusin, ya que no haba en primer lugar ningn
conjunto de supuestos que forzaban la conclusin tras bambalinas. En una inferencia nomonotnica nuestras premisas pueden ser insuficientes para la conclusin incluso despus
de haber tomado en cuenta los supuestos implcitos. Aun as el contexto puede hacer a la
inferencia razonable aunque la nueva evidencia puede bloquear la inferencia previa al
ofrecer fuerte evidencia para una tesis rival. (Pero nunca tuvimos, ni lgica ni
psicolgicamente la premisa implcita de que tal evidencia no existiera como quieren
ciertos autores.) No se trata de que el trasfondo sea verdadero y callado, sino de que sea
aceptado y dependa del contexto.
Ejemplo de aplicacin
Veamos, para finalizar, un ejemplo. Darmstadter ofrece un ejemplo til de tres
oraciones credas por un joven llamado Archie:

(A1) Un auto no enciende si la batera est descargada.


(A2) Un auto con una batera descargada enciende si se le empuja.[11]
(A3) Se ha empujado autos con bateras descargadas.
A3 dice que hubo una instancia de auto que cumpli la condicin para A1 y por lo
tanto no debi encender. Pero A3 tambin dice que el auto cumpli las condiciones para
A2, as es que debi encender. Estas tres oraciones son conjuntamente inconsistentes. Por
qu tendemos a aceptar esas tres aseveraciones? En el contexto de explicar que un auto no
encienda, nos dice Darmstadter, (A1) es aceptable. Pero una vez diagnosticado el problema,
pasamos a tratar de solucionarlo, empujando el auto. Una vez que la explicacin es dada, el
contexto cambia y, en el nuevo contexto de predecir como reaccionar el auto al empujn
(A1) ya no es aceptable. Aunque las creencias de Archie hayan sido inconsistentes, esa
inconsistencia careci de importancia y posiblemente ni siquiera fue notada; la razn es que
no hubo un nico contexto en el cual fueran aceptables tanto (A1) como (A2) y (A3).
Bibliografa
ADAMS, Ernest W. (1975) The Logic of Conditionals. Reidel.
APT, Krzysztof, R. (ed.) (1985) Logics and Models of Concurrent Systems;Proceedings of
the NATO Advanced Study Institute on Logics and Models of Concurrent Systems
held at La Colle-sur-Loup, France, 8-19 October 1984. NATO ASI series. Series F,
Computer and System Sciences; vol. 13. Berlin, Springer-Verlag.
BARWISE, Jon (1977) ``An introduction to first-order logic''. En Jon Barwise
(ed.), Handbook of Mathematical Logic, pp. 5-46. Cito de la sptima impresin,
1991.
CHANG, Chen Chung, KEISLER, H. J. (1973) Model Theory. North-Holland Publishing
Company.
DOYLE, Jon, LONDON, Philip (1980) ``A selected descriptor-indexed bibliography to the
literature on belief revision''. SIGART Newsletter, no. 71, pp. 7-23.
DUNLOP, Charles E. M., FETZER, James H. (1993) Glossary of Cognitive Science. New
York: Paragon House.
GABBAY, Dov M. (1985) ``Theoretical foundations for non-monotonic reasoning in expert
systems''. En Apt (1985), pp. 439-457.
GINSBERG, Matthew L. (1987) Readings in Nonmonotonic Reasoning, Morgan Kaufmann
Publishers, Los Altos, California.
GLYMOUR, Clark, THOMASON, Richmond H. (1984) ``Default reasoning and the logic
of theory perturbation''. En Non-Monotonic Reasoning Workshop. Organizado por la
American Association for Artificial Intelligence. 17-19 de Octubre, 1984. Mohonk
Mountain House, New Paltz, NY, pp. 93-102.
KANDEL, Stephen, GERROLD, David (writers) (1967) I, Mudd. Episodio con nmero de
produccin 41 de la serie de televisin Star Trek. Transmitido el 3 de noviembre de
1967. Producido por Desilu Studios (Paramount) en asociacin con Norway Corp.
para la National Broadcasting Company.
LESGOLD, A., GLASER, R., RUBINSON, H., KLOPFER, D., FELTOVICH, P., WANG,
Y. (1988) ``Expertise in a complex skill: Diagnosing x-ray pictures''. En M. T. H.
Chi, R. Glaser y M. J. Farr (eds.), The Nature of Expertise. Hillsdale, N. J.:
Lawrence Erlbaum Associates.

McCARTHY, John, HAYES, P. (1969) ``Some philosophical problems from the standpoint
of artificial intelligence''. En B. Meltzer y D. Michie (eds.),Machine Intelligence,
vol. 4, Edinburgh University Press, Edinburgh, American Elsevier, New York, pp.
463-502. Reimpreso en B. L. Webber y N. J. Nilsson (eds.), Readings in Artificial
Intelligence, Tioga, Palo Alto, California, pp. 431-450, (1981).Tambi reimpreso en
McCarthy (1990). Un resumen aparece en el nmero de febrero de 1969 (No. 14) de
la ACM SIGART Newsletter. Cito de la reimpresin en Ginsberg (1987), pp. 26-52.
MINSKY, Marvin Lee (1974) A framework for representing knowledge. Artificial
Intelligence Memo 306, MIT AI Lab. Reimpreso sin el apndice en The Psychology
of Human Vision, Patrick H. Winston (ed), McGraw Hill, NY, (1975), pp. 211-277.
Otros fragmentos fueron reimpresos como ``Frame-system theory'' en R. C. Schank
y B. L. Webber (eds.), Proceedings of the 1975 TINLAP (Theoretical Issues in
Natural Language Processing) Conference, Cambridge, Massachusetts, 1975,
reimpreso en P.N. Johnson-Laird y P. C. Wason (eds.), Thinking: Readings in
Cognitive Science, Cambridge, England: Cambridge University Press. Cito de los
fragmentos (diferentes) en J. Haugeland (ed.), Mind Design: Philosophy,
Psychology, Artificial Intelligence, Montgomery VT, Bradford Books, pp. 95-128.
MOORE, Robert C. (1985) ``Semantical considerations on nonmonotonic logic''. Artificial
Intelligence, Vol. 25, no. 1, pp. 75-94. Una versin ms breve apareci en IJCAI
(1983), pp. 272-279. Vase tambin SRI AI Center Technical Note 284 (1983). Cito
de la reimpresin en Ginsberg (1987), pp. 127-136.
MORADO, Raymundo (2007). El entimema retrico y la inferencia no monotnica. En
Martnez Contreras, Jorge y Aura Ponce de Len, eds., El saber filosfico. Mxico:
Siglo XXI, Asociacin Filosfica de Mxico, vol. II, pp. 321-332.
NUTE, Donald (1990) ``Review of Matthew L. Ginsberg, Readings in Nonmonotonic
Reasoning''. Pp. 351-355.
PAPALASKARI, Mary-Angela (1988) Minimal Consequence: A Semantic Approach To
Reasoning With Incomplete Information. University of Edinburgh PhD Dissertation.
PAPALASKARI, Mary-Angela, WEINSTEIN, Scott (1990) ``Minimal consequence in
sentential logic''. Journal of Logic Programming, 9, pp. 19-31. Una versin
ligeramente revisada del Reporte Tcnico del mismo ttulo, MS-CIS-87-43, LINC
LAB 66, Department of Computer and Information Science, School of Engineering
and Applied Science, University of Pennsylvania, Mayo 1987.
REITER, Raymond (1978) ``On closed world data bases''. En Gallaire and Minker (1978),
pp. 55-76. Cito de la reimpresin en Ginsberg (1987), pp. 300-310.
REITER, Raymond (1980) ``A logic for default reasoning''. En Artificial Intelligence, vol.
13, no. 1-2, pp. 81-132. Cito de la reimpresin en Ginsberg (1987), pp. 68-93.
REITER, Raymond, CRISCUOLO, G. (1981) ``On interacting defaults''. En Proceedings
of the Seventh International Joint Conference on Artificial Intelligence. IJCAI-81,
24-28 de agosto de 1981, University of British Columbia, Vancouver, B. C., Canada.
Ann Drinan (ed.), AAAI, Morgan Kaufmann, pp. 270-276. Cito de la reimpresin en
Ginsberg (1987), pp. 94-100.
SENGER, Charles John (1989) Learning Legal Reasoning In Law School: The Differences
Between First And Third Year Students. Disertacin doctoral, Michigan State
University.
STEIN, Lynn Andrea (1990) Resolving Ambiguity in Nonmonotonic Reasoning. Brown
University Ph. D. Thesis, entregada en Mayo de 1991. CS-90-18.

SURAV, Mehmet, AKMAN, Varol (1995). Reporte Tcnico LAFORIA 95/11 Modelling
Context with Situations. En Brezillon, Patrick y Abu-Hakima, Suhayya
(eds.), Proceedings of the IJCAI-95 (Fourteenth International Joint Conference on
Artificial Intelligence) Workshop on Modelling Context in Knowledge
Representation and Reasoning, Montreal, Canad, 20-25 de agosto de 1995. Pginas
145-156.
TARSKI, Alfred (1930a) ``On some fundamental concepts of metamathematics''. En Tarski
(1983), pp. 30-37.
TARSKI, Alfred (1930b) ``Fundamental concepts of the methodology of the deductive
sciences''. En Tarski (1983), pp. 60-109.
TARSKI, Alfred (1935) ``Foundations of the calculus of systems''. En Tarski (1983), pp.
342-383.
TARSKI, Alfred (1983) Logic, Semantics, Metamathematics: Papers from 1923 to 1938 by
Alfred Tarski. John Corcoran (ed.), Hackett Publishing Company, segunda edicin.
ter MEULEN, Alice (1986) ``Generic information, conditional contexts and constraints''.
En Elizabeth Closs Traugott, Alice ter Meulen, Judy Snitzer Reilly y Charles A.
Ferguson On Conditionals, pp. 123-145. Cambridge: Cambridge University Press.

[1] En Mara Jos Frpolli Sanz (coord.) Filosofa de la Lgica. Madrid, Espaa: Editorial Tecnos, pp. 233253, 2007.
[2]
Hay otros sentidos, ms cercanos a la intencin original de Aristteles, pero la interpretacin del entimema
como un razonamiento con premisas omitidas es la ms comn. Cfr. Morado (2007).
[3] Repetiremos esta referencia al contexto externo para evitar las paradojas que Attardi y Simi sealaron a
McCarthy.
[4] Por mor de la generalidad, x es un vector de variables.
[5] Creo que esto indica menos el deseo del asesor de ser juez y parte que el hecho de que slo se trata de una
defensa nominal de la tesis de doctorado.
[6] Tarski (1930b, p. 65).
[7] Vase Gabbay (1985, p. 439).
[8] Minsky (1974, p. 125) se quejaba: En cualquier sistema de lgica, todos los axiomas son necesariamente
permisivos; todos contribuyen a permitir que se obtengan nuevas inferencias. (In any logistic system, all
the axioms are necessarily permissive they all help to permit new inferences to be drawn). Vase tambin
Moore (1985).
[9] Papalaskari y Weinstein (1987, p. 3). Vase tambin Papalaskari (1988).
[10] Como hacen, por ejemplo, Chang and Keisler (1973, pp. 4-5).
[11] Es claro en este contexto que se piensa slo en autos de tipo estndar.

También podría gustarte