Está en la página 1de 388

Un primer curso de Lógica

Para estudiantes de Filosofía

Miguel Molina

Toda la historia de la lógica es un intento por


definir una noción aceptable de estupidez.
Demasiado ambicioso.

Umberto Eco
Copyright © 2016 Miguel Molina
A la memoria de mi padre, Carlos, quien siendo yo niño me dijo que me conven-
dría hacer un curso de Lógica. Creo que le hubiera gustado ver que la vida, por caminos
tortuosos, me llevó a cumplir su recomendación, quizá en una forma que no imaginó al darla.

A mi madre, Mirta, sin cuyo apoyo constante me hubiera sido imposible llegar a estar
en condiciones de realizarlo.
IV

La imagen de tapa y contratapa pertenece a un manuscrito del siglo XIII que contiene
Sophistici Elenchi, Topica, Analytica Priora y Analytica Posteriora de Aristóteles y se encuentra
en la Royal Collection de la British Library. Ha sido puesta en Internet bajo una Creative
Commons CC0 1.0 Universal Public Domain Dedication y se encuentra en
http://www.bl.uk/catalogues/illuminatedmanuscripts/ILLUMIN.ASP?Size=mid&IllID=
56510

La imagen de la portada es una fotografía de una xilografía que muestra el cuadrado de


oposición aristotélico, e ilustra la cuarta edición de Margarita Philosophica de Gregor Reisch
(Basilea, 1517). La fotografía es de dominio público y se encuentra en https://commons.
wikimedia.org/wiki/Category:Square_of_opposition#/media/File:Gregor_Reisch_-_
Margarita_philosophica_-_4th_ed._Basel_1517_-_p._083_detail_-_square_of_
opposition_-_1000ppi.png

Este libro fue realizado en LATEX a partir de la plantilla The Legrand Orange Book, creada
por Mathias Legrand y modificada por Vel para el sitio http://www.latextemplates.com.
Esta plantilla se encuentra bajo licencia CC BY-NC-SA 3.0 y se accede a ella en
http://www.latextemplates.com/template/the-legrand-orange-book.

Para el texto se ha utilizado la fuente Palatino; para los caracteres matemáticos la fuente
Euler Virtual Math; para los títulos, índices y encabezados de página la fuente Opensans y
se han elegido numerales antiguos para todas las instancias, desde la paginación hasta los
diagramas.
Palatino es creación del gran diseñador de fuentes Hermann Zapf, inspirada en tipos
renacentistas y nombrada en honor al maestro calígrafo Giovambattista Palatino (Rossano,
Calabria, c.1515). Como todas las fuentes humanistas, tiene eje inclinado y trazo modulado,
recordando las letras trazadas a mano con una pluma.
Euler Virtual Math está basada en el tipo Euler, otra creación de Zapf, hecha por encargo
de Donald Knuth, e intenta reproducir la grafía matemática escrita en una pizarra, en la que
las variables no van inclinadas.
Los numerales antiguos, puestos en un mismo renglón, no se presentan alineados.
Las cifras alineadas son una creación relativamente reciente, inventada para facilitar la
revisión de documentos contables y que recién llegó a la imprenta en 1788. A pesar de
lo acostumbrados que estamos a ellos, son chocantes cuando se encuentran en medio de
un texto y su presencia imprimiría un aire demasiado moderno a la estética de un libro
dedicado a una ciencia de tradición milenaria.
La fuente Opensans es una sans serif humanista creada por Steve Matteson.
A pesar de mis esfuerzos, persisten cuestiones de diseño tipográfico que me gustaría
mejorar. Pero algún día debía dejar de corregir. Todo comentario, sugerencia o advertencia
de error, será bienvenido a mmolina@fhuce.edu.uy o a migmolus@gmail.com.
Agradecimientos

Muchísimas personas desconocidas por mí han hecho posible la existencia de este


libro. Quiero dejar constancia de mi agradecimiento a todos aquellos que colaboran en
la elaboración y perfeccionamiento de herramientas tan maravillosas como Linux y LATEX,
que son gratuitas y hacen posible que una sola persona produzca un documento de una
estructura tan compleja como este sin perder la cordura en el intento.
En un plano más personal, a varias personas debo que este libro tenga una cantidad
de errores mucho menor que la que tendría de no haber sido por ellos. Si en este recuento
olvido a alguien, pido disculpas desde ya.
Deseo agradecer a Julián Mazzoni, Daniel Pirotto, Ian Tayler, Leticia López, Elena Gómes,
Graciela Ortega, Diego Cuevas y Facundo Correa por sus aportes que mejoraron versiones
preliminares.
A Valeria Schaffel, por su colaboración en la elaboración de las figuras cuando yo aun
no me atrevía con el paquete TikZ y sobre todo por su involucramiento en el proyecto, que
constituyó un apoyo necesario para realizarlo.
A mis compañeros del Departamento de Lógica y Filosofía de la Lógica del Instituto de
Filosofía de la Facultad de Humanidades y Ciencias de la Educación de la Universidad de
la República, Alejandro Chmiel y José Seoane, por las charlas mantenidas y sugerencias
ofrecidas.
Y finalmente, a mi amiga y también compañera del Departamento mencionado, María
Fernanda Pallares, quien cargará sobre su conciencia con buena parte de la responsabilidad
de que este libro salga a la luz. Sin su impulso, aliento, paciencia y ayuda en múltiples
maneras, no me habría dispuesto a escribirlo, ni hubiese continuado hasta el final.
Prefacio

Este libro es el resultado de la reflexión sobre la práctica docente en el curso de Lógica I


para la Licenciatura de Filosofía en la Facultad de Humanidades y Ciencias de la Educación
de la Universidad de la República. Pretende introducir al estudiante de Filosofía en la única
ciencia que figura como asignatura obligatoria en su carrera.
Esta característica peculiar de la Lógica -el ser una ciencia- hace que su enseñanza
presente dificultades particulares en el marco de una carrera netamente humanística. Según
mi experiencia, la mayor de esas dificultades surge de la falta de contacto previo de la
mayoría de los estudiantes con la deducción.
Lejos están los tiempos en que nadie pasaba por la educación media sin haber sido
expuesto a demostraciones en matemática y sin haberlas estudiado, y es sabido que fuera
de esta ciencia, la deducción cumple un papel ancilar. Alguna vez leí que a demostrar se
aprende en matemática o no se aprende. Quizá haya exageración en esto, pero en todo caso,
indica algo a tener en cuenta.
Es por eso que considero que el curso debe comenzar con el planteamiento de situaciones
que impulsen al estudiante a realizar sus propias inducciones y deducciones, de manera de
proveerlo de un almacén de razonamientos que sirvan como materia de reflexión posterior.
No parece suficiente mostrar al alumno algunas inferencias deductivas, esperando
que vea en ellas algo particular –especialmente si esas inferencias son ejemplos triviales
preparados ad hoc–, ya que si bien el pensamiento deductivo es una de las cumbres
alcanzadas por el espíritu humano, difícilmente alguien lo comprenda gracias a que le
comuniquen que Sócrates es mortal dado que es hombre y todos los hombres son mortales.
Lo importante del asunto, que es la necesidad debida a los aspectos formales, queda
enterrado bajo la sencillez del ejemplo.
Es por eso que el curso comienza con acertijos (en esto la influencia del maravilloso
autor que es Raymond Smullyan está muy presente), que una vez resueltos, al reflexionar
sobre las justificaciones de sus soluciones, permiten demarcar las inferencias deductivas, y
distinguir en ellas, en términos informales, las constantes lógicas que las hacen posibles.
A partir de aquí es fácil justificar la necesidad de la formalización, si se tiene buen
cuidado en mostrar las dificultades que puede presentar el uso de las lenguas naturales
para la evaluación de la corrección argumental. Al tratarse de un curso para estudiantes
de Filosofía, no está de más ofrecer una panorámica histórica de las alternativas al uso de
las lenguas naturales que la humanidad ha ideado, para culminar en una caracterización
precisa de los lenguajes formales. Con esto queda conformada la primera parte del curso,
preliminar a la presentación de las lógicas que se estudiarán en las partes segunda y tercera.
Llegado este punto, en la segunda parte, el desarrollo de la lógica proposicional en
VIII

una forma estándar parece natural: se establece la sintaxis y la semántica. Atendiendo a la


imperiosa necesidad de tender puentes entre la lógica y otras disciplinas, especialmente
filosóficas, se dedica un capítulo a examinar algunas relaciones entre fórmulas de la lógica
proposicional y expresiones de la lengua española.
Inmediatamente se presenta uno de los conceptos centrales del curso: la consecuencia
semántica. Al presentarlo se tiene por primera vez la posibilidad de asegurar con rigor cien-
tífico que ciertas inferencias son correctas. Pero la reflexión sobre la relación de consecuencia
semántica no debería restringirse a su presentación formal y su aplicación en la evaluación
de algunos argumentos. Si se descuida este punto es muy posible que el alumno crea, con
buenas razones, que la lógica se limita al trabajo dentro de determinados sistemas formales.
Esta idea, errónea como es, debe ser corregida rápidamente si es que ha llegado a
surgir, porque esa concepción de la lógica como una actividad más o menos mecánica
de evaluación de argumentos o de investigación acerca de si unas fórmulas concretas se
encuentran en determinada relación con otras, además de desencaminada, es fuente de
severos malentendidos acerca del papel de esta ciencia en el quehacer filosófico. Por este
motivo, apenas resulta posible, se introducen reflexiones sobre los sistemas, bajo la forma
de teoremas sencillos como monotonía o deducción.
Seguidamente, se presenta el otro concepto central del curso, el de consecuencia sintáctica.
Para él valen las mismas consideraciones que se hicieron para la consecuencia semántica. Se
hace explícito que las relaciones entre consecuencia semántica y sintáctica deben aclararse,
ya que ambas nociones se han propuesto como correlato formal de la consecuencia lógica,
pero se posterga la cuestión para la cuarta parte.
La tercera parte del curso es estructuralmente igual a la segunda. Su objeto es la lógica
de primer orden. He optado por presentar un lenguaje sin términos funcionales, debido al
deseo de simplificar este primer acercamiento, y a que es sabido que no se pierde capacidad
expresiva por hacer esa elección.
La cuarta parte no pertenece propiamente a un primer curso de lógica para estudiantes
de filosofía. Está pensada especialmente para aquellos alumnos que deseen tener una somera
idea de los problemas que se tratan en un segundo curso de lógica, intentando que intuyan
que, por decirlo de algún modo, han aprendido apenas a trazar las letras y hay muchas
palabras por escribir. Aquí se demuestran los teoremas de corrección para la lógica de
primer orden, y de compacidad y completitud para la lógica proposicional. Idealmente, sería
bueno ofrecerlo en primer lugar a quienes no seguirán estudiando lógica, pero el mundo
real se aparta bastante del ideal en este aspecto.
Al final de cada capítulo (excepto el que sirve de introducción a la lógica de primer
orden y los de la cuarta parte) se encuentra una sección de ejercicios. Se ha evitado, en lo que
ha sido posible, saturar esas secciones con situaciones que se resuelven mecánicamente. Para
los alumnos, muchas de las propuestas son problemas, no ejercicios, y algunas presentan
cuestiones abiertas a amplias discusiones. Representan la vía más directa para que el alumno
integre, a través de su propia actividad, a la lógica en su cultura filosófica y no la aprehenda
como algo aislado. De ahí que considero de fundamental importancia trabajar sobre ellos o
sobre problemas similares. La lógica no puede aprenderse en forma pasiva, y la filosofía, si
es que se aprende, tampoco.
Al repasar lo expuesto se ve que los contenidos tratados se encuentran de acuerdo con
las recomendaciones del Committee on Logic Education de la Association of Symbolic Logic
IX

para un curso de este nivel, aunque este libro en particular no fue pensado a partir de ellas,
que se pueden leer en el importante documento Guidelines on Logic Education1 , sino que se
nutre por un lado de la tradición de la enseñanza de la lógica en la Facultad y por otro de
lecturas y reflexiones personales, además de intercambios de ideas con los compañeros del
Departamento de Lógica y Filosofía de la Lógica.
Vale la pena mencionar que tan pronto como se ha considerado que se tienen elementos
para ello, se ha intentado establecer puentes entre los contenidos lógicos del curso y
ciertos aspectos particulares que atañen a la filosofía, esperando mostrar al estudiante
que la lógica no es una disciplina aislada de sus otros posibles centros de interés. Estos
intentos aparecen bajo la forma de “excursos”, secciones autocontenidas dedicadas a temas
estrictamente filosóficos en los que la lógica se puede aprovechar en forma fructífera. Así, la
metafísica se hace presente al considerar la adecuación de la lógica intuicionista para las
filosofías antirrealistas y en la crítica que Russell hace a la lógica aristotélica; la filosofía del
lenguaje aparece al considerar los contextos indirectos fregeanos en conexión con las reglas
sustitucionales y en la teoría de las descripciones definidas de Russell, y la teología en un
análisis de la versión cartesiana del argumento ontológico.
El establecimiento de estas conexiones es prácticamente la única esperanza de que
alguien no particularmente interesado por la filosofía de la lógica o la matemática considere
la posibilidad de profundizar sus estudios de lógica, y no tenemos derecho a privarle de esa
tentación.
En el epílogo se ofrecen consideraciones bastante personales, que no tienen más valor
que el de ser las opiniones de alguien que ha pensado lo que dice, acerca del papel que
cumple la lógica en la filosofía, su uso correcto en la evaluación argumental, y su valor
formativo.
Todo el libro está escrito en una forma muy cercana a los modos orales de comunicación,
sin presuponer conocimientos previos e intentando motivar cada uno de los conceptos
introducidos. No requiere ninguna formación matemática previa, excepto elementos básicos
de teoría intuitiva de conjuntos, que la mayoría de los estudiantes conoce. No quiere decir
esto que carezca de rigor. Tiene el suficiente y quizá más que el necesario para un curso de
estas características, pero no se confunde aquí rigor con notación compacta y abtrusa, o con
explicaciones parcas o inexistentes.
A pesar de haber sido fuente de enorme placer, escribirlo también ha representado un
gran esfuerzo, que yo sentiría plenamente justificado si sirve para despertar el interés y la
admiración de un estudiante por este modo específico que la humanidad se ha dado de
examinar e inquirir el más humano de sus productos, el discurso racional.

Montevideo, junio de 2016.

1 Accesible en http://www.ucalgary.ca/aslcle/guidelines.
Índice general

I Lógica

1 ¿Lógica? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1 Dos acertijos 3
1.2 Inferencias, proposiciones y argumentos 9
1.3 El problema de la calidad 13
1.4 Argumentos deductivos e inductivos 14
1.5 Lógica: primera aproximación 16
1.6 Una clase importante de argumentos válidos 17
1.7 ¿Qué es la lógica? 31
1.8 Ejercicios 32

2 Naturaleza, artificio y forma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39


2.1 Las lenguas naturales 40
2.2 Lenguas artificiales 42
2.3 Lenguajes formales 47
2.4 Lógica y lenguajes formales 56
2.5 Ejercicios 58

II Lógica proposicional

3 Sintaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.1 Alfabeto 65
3.2 Fórmulas 68
3.3 El bloqueo de la ambigüedad estructural 70
3.4 El teorema de lectura única 73
3.5 Árbol de formación de una fórmula 76
3.6 Ejercicios 78
XII ÍNDICE GENERAL

4 Semántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.1 Verdadero, falso e interpretaciones 82
4.2 Tautologías, contradicciones y contingencias 84
4.3 Tablas de verdad 85
4.4 Asignaciones proposicionales e interpretaciones 88
4.5 Modelos y contramodelos 90
4.6 Vuelta a la biblioteca 93
4.7 ¿Decir lo mismo? Equivalencia 94
4.8 ¿Será suficiente? Conjuntos adecuados de conectivos 97
4.9 Ejercicios 104

5 Conectivos lógicos y lenguaje natural . . . . . . . . . . . . . . . . . . . . . . . . . . . 107


5.1 El conectivo ¬ 108
5.2 El conectivo ∧ 111
5.3 El conectivo ∨ 112
5.4 El conectivo → 113
5.5 El conectivo ↔ 115
5.6 Ejercicios 117

6 Consecuencia semántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121


6.1 La validez en el lenguaje formal 121
6.2 La relación de consecuencia semántica 124
6.3 Conjuntos insatisfacibles y contradicciones 124
6.4 Conjunto vacío y tautologías 125
6.5 Monotonía 125
6.6 El condicional asociado 127
6.7 El teorema de deducción (versión semántica) 130
6.8 El “absurdo” 131
6.9 Ejercicios 132

7 Consecuencia sintáctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137


7.1 Tras las huellas de los humanos 137
7.2 El sistema de deducción natural para LP 160
7.3 Consecuencia sintáctica 164
7.4 Heurística 167
7.5 Errores frecuentes al intentar hacer derivaciones 178
7.6 Propiedades de la relación de consecuencia sintáctica 182
7.7 Aparatos deductivos 185
ÍNDICE GENERAL XIII

7.8 Excurso filosófico: Lógica intuicionista 190


7.9 Ejercicios 199

III Lógica de primer orden

8 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205

9 Sintaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
9.1 Alfabeto 209
9.2 Fórmulas 214
9.3 El teorema de lectura única 219
9.4 Árbol de formación de una fórmula 220
9.5 Lenguajes de Primer Orden 221
9.6 Ejercicios 223

10 Semántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
10.1 Interpretaciones 225
10.2 Estructuras 228
10.3 Valores de verdad bajo una interpretación 230
10.4 Modelos, fórmulas válidas, tautologías 235
10.5 Conjuntos satisfacibles e insatisfacibles 239
10.6 Ejercicios 245

11 LPO y lenguaje natural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249


11.1 La elección de los predicados 249
11.2 La cuantificación 252
11.3 En la práctica 253
11.4 La igualdad 256
11.5 Excurso filosófico: Descripciones definidas según Russell 257
11.6 Excurso filosófico: Una versión del argumento ontológico 262
11.7 Ejercicios 268

12 Consecuencia semántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271


12.1 Definición y primeros ejemplos 271
12.2 Propiedades de la consecuencia semántica en primer orden 274
12.3 La consecuencia semántica y la corrección argumental 276
12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell 279
12.5 Ejercicios 290
XIV ÍNDICE GENERAL

13 Consecuencia sintáctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293


13.1 Las reglas de inferencia 293
13.2 El sistema de deducción natural para LPO 305
13.3 Consecuencia sintáctica 307
13.4 Heurística 307
13.5 Propiedades de la consecuencia sintáctica 317
13.6 Excurso filosófico: Contextos indirectos 317
13.7 Ejercicios 320

IV Metateoría
14 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325

15 Corrección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
15.1 La demostración 327
15.2 Consecuencias de la corrección 335

16 Compacidad y completitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337


16.1 Compacidad 338
16.2 Completitud de LP 343
16.3 En LPO 353

Epílogo: Lógica, ¿para qué? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355

Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366

Índice alfabético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371


I
Lógica

1 ¿Lógica?; . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1 Dos acertijos
1.2 Inferencias, proposiciones y argumentos
1.3 El problema de la calidad
1.4 Argumentos deductivos e inductivos
1.5 Lógica: primera aproximación
1.6 Una clase importante de argumentos válidos
1.7 ¿Qué es la lógica?
1.8 Ejercicios

2 Naturaleza, artificio y forma; . . . . . . . . 39


2.1 Las lenguas naturales
2.2 Lenguas artificiales
2.3 Lenguajes formales
2.4 Lógica y lenguajes formales
2.5 Ejercicios
1 | ¿Lógica?

n esta primera parte intentaremos dar una respuesta a la pregunta “¿Qué es la

E lógica?”. Como el lector imaginará, no se trata de una pregunta que admita una
respuesta a la vez correcta, comprensible para quien la desconoce a priori y que se
pueda dar en pocas líneas. Así es que comenzaremos un recorrido tendiente a responderla,
en el cual revisaremos variados elementos necesarios para ello.
Por poco contacto que hayamos tenido con la ciencia de la lógica, sabemos que esta tiene
relación con el razonamiento. Vamos, por tanto, a comenzar nuestro recorrido resolviendo
algunos problemas y acertijos, con la esperanza de que esa actividad, que seguramente será
divertida, nos ayude a aproximarnos a una comprensión cabal de qué es la lógica.

1.1 Dos acertijos


Nurikabe
El nurikabe es un juego inventado en Japón en el año 1991, aparentemente por la
compañía Nikoli1 , en el que se parte de una grilla cuadrada en algunas de cuyas casillas
hay números, y el objetivo es determinar cuáles casillas son blancas y cuáles negras según
reglas dadas. La figura siguiente muestra la disposición inicial de un nurikabe de 5 por 5 y
su solución.

4 5 4 5

1 1
4 4

Antes de dar las reglas que nos permitirán determinar cuáles cuadrados deben quedar
negros y cuáles no, introduzcamos dos términos que nos serán útiles: diremos que las
casillas negras representan agua, mientras que las blancas representan islas.
Las reglas son:

1. Toda casilla debe quedar al final en negro (agua) o en blanco (o sea, formar parte de
una isla o ser ella misma una isla).
1 http://es.wikipedia.org/wiki/Nurikabe, consultada el 4 de agosto de 2013.
4 Capítulo 1. ¿Lógica?

2. Todas las casillas que representan agua deben quedar conectadas; es decir se debe
poder ir desde cualquier casilla con agua hasta cualquier otra también con agua sin
pasar jamás por una isla. La conexión se da a través de los lados. Si dos casillas con
agua comparten un vértice pero no un lado, ese contacto no cuenta como conexión.
3. No debe quedar ningún cuadrado de 2 por 2 formado solamente por casillas con agua.
4. Cada casilla numerada debe estar en una isla formada por tantas casillas como indica
su número. Las islas están formadas por casillas conectadas por un lado. Ninguna isla
debe tener más de una casilla numerada en su interior.

Observe que en la solución ofrecida se cumplen todas las condiciones impuestas por
las reglas. Examinemos ahora la resolución de un nurikabe. En las figuras hemos agregado
un sistema de coordenadas a la grilla (letras para las columnas, números para las filas),
de modo que podamos referir a cada casilla individualmente. La disposición inicial es la
siguiente:

5 2 2 3
4
3
2 1 3
1
a b c d e

Podemos resolver el problema de descubrir cuáles casillas tienen agua siguiendo este
razonamiento:
paso 1: Observe la casilla a2. Según la regla 4, esa casilla debe constituir por sí sola una
isla. Por lo tanto, debe estar completamente rodeada de agua. Por eso, se deduce que las
casillas a1, b2 y a3 tienen agua.

5 2 2 3
4
3
2 1 3
1
a b c d e

paso 2: Las casillas b5 y d5 separan casillas numeradas. Si no tuvieran agua, existirían


islas con más de una casilla numerada en ellas, violando la regla 4. Por lo tanto, en b5 y d5
hay agua.
1.1 Dos acertijos 5

5 2 2 3
4
3
2 1 3
1
a b c d e

paso 3: La regla 2 indica que todas las casillas que tienen agua deben estar conectadas.
Para que las casillas con agua a1, b5 y d5 no queden aisladas, es necesario que haya agua en
b1, b4 y d4.

5 2 2 3
4
3
2 1 3
1
a b c d e

paso 4: Por regla 4, en a4 no puede haber agua, para conformar la isla de a5. Entonces,
la única forma de que el agua de a3 no quede aislada es que haya agua en b3.

5 2 2 3
4
3
2 1 3
1
a b c d e

paso 5: Por regla 4, las casillas c4 y c5 deben conformar una isla, de manera que en c3
debe haber agua.

5 2 2 3
4
3
2 1 3
1
a b c d e

paso 6: Por regla 4, las casillas e5, e4 y e3 deben conformar una isla, de manera que en
d3 y e2 debe haber agua.
6 Capítulo 1. ¿Lógica?

5 2 2 3
4
3
2 1 3
1
a b c d e

paso 7: Por regla 4, la casilla c2 forma parte de una isla de 3 casillas, que solo pueden
ser c1, c2 y d2 o c2, d2 y d1. Y no hay más islas. En cualquiera de los dos casos, en la casilla
E1 hay agua, y por tanto, en e1 hay agua.

5 2 2 3
4
3
2 1 3
1
a b c d e

paso 8: Por regla 2, el agua de las casillas e1 y e2 debe quedar conectada con el resto
del agua que aparece en la grilla. La conexión puede hacerse o bien a través de e3, pero en
este caso la isla de e5 quedaría con dos casillas, no con tres; o bien a través de d1 y c1, pero
en este caso la isla de c2 quedaría con dos casillas, no con tres; o bien a través de d2. Esta
es la única posibilidad de no violar las reglas. Entonces, hay agua en d2 y con esto queda
resuelto el nurikabe propuesto.

5 2 2 3
4
3
2 1 3
1
a b c d e

Reflexionemos sobre lo que acabamos de hacer. Estamos absolutamente seguros de


que hemos resuelto el nurikabe. Además, repasando el razonamiento que hicimos para
conseguirlo, nos convencemos fácilmente de que hemos hallado la única solución de este. En
cada paso hemos estado “obligados” a optar como lo hicimos, de manera que no hay otra
solución.
Si se nos presenta la configuración inicial, y se nos dice que algunas casillas son blancas
y otras son negras, respetando las reglas, podemos estar seguros, absolutamente seguros, a
través del razonamiento hecho, de que si la configuración inicial es esa, y las reglas se cumplen,
entonces las casillas negras son a1, b1, b2, a3, b3, b4, b5, c3, d2, d3, d4, d5, e1, e2, y las restantes
son blancas.
1.1 Dos acertijos 7

Es imposible que si es verdad que en un nurikabe de 5 por 5 la configuración inicial es la


dada y las reglas se cumplen, la solución sea otra o no haya solución.
Examinemos ahora un conocido problema.

El oso
El problema del oso es muy famoso. Fue votado como uno de los diez acertijos más
conocidos en la lista de correo Snark, dedicada a los juegos de ingenio2 , y considero poco
probable que el lector no lo conozca. Sin embargo, será valioso analizarlo. El acertijo se
enuncia así:

Un oso camina 10 kilómetros hacia el sur, 10 hacia el este, y 10 hacia el norte,


volviendo al punto del que partió. ¿Cuál es el color del oso?

Es muy probable que si el lector conoce el acertijo, recuerde que en la versión por él conocida
aparecía un cazador. Pero aquí analizaremos el pelaje del animal que pasea tranquilamente,
sin que nadie lo moleste.
Parece que de los datos no podemos inferir nada sobre el color del oso. Después de todo,
saber que algo se movió así o asá no parece decir nada acerca de su color. Pero examinemos
el enunciado con más detenimiento. Tiene algo extraño: se nos dice que el oso comienza y
termina su recorrido en el mismo punto. Hagamos un diagrama, suponiendo que el oso
parte de A:

A D

10 km 10 km

B 10 km C

Obviamente, esto no puede ser. Aparentemente, el problema está mal planteado, ya que
el oso no empieza y termina su recorrido en el mismo punto, sino en un punto que dista 10
kilómetros de donde partió.
Pero en realidad, el problema es nuestro, ya que este diagrama representa el recorrido
del oso en un plano, y hace ya algún tiempo que la humanidad sabe que no vive en un
planeta con forma de plato. Por lo tanto, una representación más adecuada sería la siguiente:
2 Seguramente, la mejor lista de correo para compartir acertijos en español. Para inscribirse: http://mailman.

uba.ar/mailman/listinfo/snark.
8 Capítulo 1. ¿Lógica?

A D

B
C

W E

Ahora vemos que no es verdad, en general, que el oso termine a 10 kilómetros de donde
empezó. Y también es obvio dónde puede empezar su recorrido el oso para cumplir las
condiciones impuestas por el acertijo:

N
A=D

B
C

W E

Aparentemente, el oso partió del Polo Norte y volvió allí. Nunca estuvo a una distancia
mayor a 10 kilómetros del polo. ¿Es necesariamente esto así? Tal vez el lector no resuelva
problemas de geometría esférica todos los días, de modo que adelantamos la respuesta: no, el
oso también puede moverse en las inmediaciones del Polo Sur. Considere lo siguiente: existe
un paralelo en el hemisferio sur cuya circunferencia mide exactamente 10 kilómetros. El oso
puede haberse encontrado 10 kilómetros al norte de ese paralelo al comenzar su recorrido. Al
caminar 10 kilómetros al sur, llega a ese paralelo, luego lo recorre completamente caminando
siempre hacia el este, con lo que vuelve al punto en que llegó a ese paralelo caminando
10 kilómetros, y al moverse al norte 10 kilómetros vuelve al punto de partida. La figura
siguiente muestra una posible trayectoria del oso (en una escala exagerada):
1.2 Inferencias, proposiciones y argumentos 9

E W

Y no hay más lugares donde pueda estar el oso para cumplir con el enunciado del
acertijo. Entonces, ni siquiera sabemos dónde está el oso. Sin embargo, en la Antártida (que
es donde se mueve el oso si está en el hemisferio sur) no hay osos. Por lo tanto, el oso se
mueve en las inmediaciones del Polo Norte. Así que, ¿de qué color es el oso? La respuesta
parece obvia: si está en las inmediaciones del Polo Norte, debe ser un oso polar, y por lo
tanto, blanco.
Es verdad que se considera que esa es la respuesta correcta al acertijo, y en cierto sentido,
lo es. Pero, ¿realmente el oso tiene que ser blanco?
En realidad, si pensamos bien, el problema es totalmente equivalente, en cuanto a lo
relevante, a “Hay un oso en el Polo Norte o muy cerca del Polo Sur. ¿Cuál es su color?”.
Nadie discutirá que es sumamente razonable responder que es blanco. Pero evidentemente,
no es absolutamente seguro que el oso sea blanco, aun si está en el Polo Norte. Podría ser
un oso grolar, un híbrido raro de oso polar y oso pardo, que tiene características de sus dos
padres y su pelaje a veces no es blanco. Podría ser un oso pardo, perdido por allí. Podría
ser de cualquier color, en realidad. Por improbable que parezca, podría ser un oso polar
al que alguien haya pintado de rojo. Esto sin contar con que el enunciado del problema
es compatible con que el oso esté en el hemisferio sur, en cuyo caso no tendríamos razón
alguna para afirmar que es de un color u otro. Por supuesto, es muy poco razonable decir algo
como que el oso es rojo. Pero es posible que el oso no sea blanco, por más que haya caminado
10 kilómetros al sur, luego 10 kilómetros al este, luego 10 kilómetros al norte y haya vuelto
a su punto de partida.

1.2 Inferencias, proposiciones y argumentos


Revisemos lo que hemos hecho con el nurikabe y el problema del oso. En ambos casos
hemos partido de una información dada (la disposición inicial y las reglas del nurikabe en
un caso; que el animal cuyo color debíamos hallar era un oso y el recorrido que hizo en
otro), y hemos arribado a una conclusión.
¿Y qué es una conclusión? ¿Por qué algo es una conclusión? Parece claro que la conclusión
es lo que afirmamos luego de examinar cuidadosamente la información proporcionada.
Ese examen fue necesario porque hay una determinada relación entre la conclusión y la
10 Capítulo 1. ¿Lógica?

información que nos dieron, una relación que no es fácil de precisar, pero que podemos
presentar, en una primera aproximación así: en caso de que la información proporcionada sea
correcta, la conclusión es muy plausible.
Vamos a llamar inferir a la actividad de extraer una conclusión de una información dada.
La inferencia correspondiente será la información dada junto con su conclusión, siempre que
distingamos la conclusión de la información dada.
Es esta una definición muy amplia. Supongamos que estoy en mi casa, ya acostado, y
siento hambre. Me levanto sin encender la luz y me dirijo a la cocina. Antes de llegar, siento
un ruido de arrastre junto con un agudísimo dolor en el dedo meñique del pie derecho.
Infiero que me llevé por delante un mueble. En este caso, buena parte de la información
relevante para extraer la conclusión está presentada en una forma dolorosamente sensorial,
no lingüística. Por otro lado, si al otro día le cuento a un amigo “Anoche estaba ya acostado
y me vino hambre. Me levanto sin prender la luz, doy un par de pasos y ¡pah! sentí que me
arrancaban el dedo chiquito del pie derecho . . . ”, y mi amigo me interrumpe diciendo “¡Ja!
Te llevaste un mueble por delante.”, él ha concluido lo mismo que yo, pero lo ha hecho desde
información presentada en forma lingüística, mediante un lenguaje, en este caso, el español.
Como veremos en breve, vamos a interesarnos exclusivamente por las inferencias en las que
la conclusión surge o se extrae a partir de fragmentos lingüísticos, es decir, de expresiones
de algún lenguaje, y llamaremos argumentos a estas inferencias. Desde este punto de vista,
un argumento quedará determinado por un conjunto de expresiones lingüísticas: las que
contienen la información dada, y la que contiene la conclusión.
Nos interesa volver a presentar la inferencia del nurikabe bajo esta luz. Para hacerlo,
definamos algunos términos. Por “nurikabe de 5 por 5” entendemos una grilla cuadrada de
5 casillas de lado, en la cual algunas casillas contienen números. En un nurikabe 5 por 5
etiquetamos las columnas como a, b, c, d y e (en ese orden) y las columnas como 1, 2, 3, 4 y
5 (en ese orden). Por “casilla xy” significamos la casilla que se encuentra en la columna x y
en la fila y. Dos casillas diferentes se llamarán contiguas si comparten un lado, y diremos
que dos casillas α y ω están conectadas por negras (blancas) si hay una sucesión de casillas
negras (blancas) tal que cada casilla –excepto la primera– es contigua a la anterior, todas
las casillas de la sucesión son negras (blancas) y la primera casilla de la sucesión es α y la
última es ω.
Podemos mostrar así la inferencia colocando la conclusión bajo una línea horizontal
sobre la cual se encuentran las expresiones que contienen la información dada:
inferencia del nurikabe
En un nurikabe de 5 por 5, en la casilla a2 hay un 1; en las casillas a5 y c5 hay un 2;
en la casilla e5 hay un 3 y ninguna casilla, además de estas, contiene un número. Toda
casilla del nurikabe es blanca o negra (y no ambas cosas). Todas las casillas negras están
conectadas por negras y no hay cuatro casillas negras que ocupen la intersección de dos
filas consecutivas con dos columnas consecutivas. Si una casilla contiene el número n
es blanca y existen exactamente n − 1 casillas blancas que no tienen número y están
conectadas con ella. Además, todas las casillas blancas que no contienen un número
están conectadas por blancas con exactamente una casilla que sí contiene un número.

Las casillas a2, a4, a5, c1, c2, c4, c5, d1, e3, e4, e5 son blancas; las restantes son negras.
1.2 Inferencias, proposiciones y argumentos 11

Y podemos hacer lo mismo para la inferencia del oso:

inferencia del oso


Un oso caminó 10 kilómetros al sur de su punto de partida, giró al este y caminó
10 kilómetros, giró al norte, caminó 10 kilómetros y volvió a su punto de partida.

El oso es blanco.

Ahora veremos qué características tienen las expresiones lingüísticas que nos proporcio-
nan la información necesaria para hacer inferencias y las que sirven como conclusiones.
Hay una clase de expresiones que tienen la característica de que podemos decir de ellas
que son verdaderas o falsas. La clasificación de las expresiones según los cánones de la
gramática española no nos ayudará demasiado a identificarlas. Por lo tanto, apelaremos a
nuestra condición de hablantes competentes de la lengua para identificarlas.
Podemos hacer una lista en dos columnas, y reconocer inmediatamente que de las
expresiones de la izquierda podemos decir que son verdaderas o falsas, mientras que de las
expresiones de la derecha no podemos decir lo mismo.

con valor de verdad sin valor de verdad


Está lloviendo. ¿Está lloviendo?
Salió el sol. Ojalá salga el sol.
Partes el pan. Por favor, parte el pan.
Me duele. ¡Ay!

Los ejemplos podrían multiplicarse indefinidamente, pero no es necesario. La idea está


suficientemente clara. Diremos que esas expresiones de las que podemos decir que son
verdaderas o falsas expresan proposiciones.
Es conveniente que nos detengamos un poco en este punto. Advierta que no decimos
que la expresión es la proposición, sino que expresa la proposición. Determinar qué es una
proposición es un problema filosófico de importante calado, del que se ocupa la filosofía de
la lógica. Sin profundizar en el problema, daremos la principal motivación para no identificar
la proposición con la expresión lingüística que la expresa. Esta es que vamos a querer decir
que las expresiones lingüísticas “Llueve”, “Está lloviendo”, “It’s raining”, expresan todas la
misma proposición, aunque obviamente, como expresiones lingüísticas no son la misma. Es
adecuado pensar que una proposición es aquello que puede ser verdadero o falso en una
expresión lingüística de la que decimos que puede ser verdadera o falsa. La proposición
sería el portador de la verdad o la falsedad. Por supuesto, todo esto puede parecer una
sutileza inútil. En todo caso, el problema existe y no se conoce una solución que obtenga
amplios consensos. Algunos filósofos piensan que las proposiciones son hechos, otros que
son objetos abstractos, otros que son entidades mentales, otros se decantan por la opinión
de que son clases de expresiones lingüísticas. Afortunadamente, para hacer lógica no es
necesario saber qué es una proposición más allá de lo dicho: una proposición es aquello que
puede ser verdadero o falso, y en forma derivada, decimos que una expresión lingüística es verdadera
o falsa cuando lo es la proposición que esta expresa. Por eso, terminamos la discusión acerca de
12 Capítulo 1. ¿Lógica?

la naturaleza de las proposiciones en este mismo punto y continuamos con nuestro camino,
no sin antes indicar al lector interesado que puede encontrar una somera discusión sobre el
problema con referencias para profundizar en [Gra90].
¿Y por qué nos dedicamos a hablar de proposiciones? Estamos interesados en las
proposiciones porque vamos a acotar nuestro análisis a inferencias en las que la información
aportada, así como la conclusión están dadas a través de expresiones lingüísticas que
expresan proposiciones, o sea, a argumentos. Es más, consideraremos que lo esencial en los
argumentos no son las expresiones lingüísticas, sino las proposiciones que expresan. Que
esto es razonable queda claro considerando los dos argumentos siguientes:

Argumento 1 Argumento 2
Está lloviendo. Llueve.
Debo salir a la calle. Tengo que salir a la calle.
No tengo el paraguas aquí. Estoy sin mi paraguas.
Me mojaré. Me voy a mojar.

Hay un sentido en el que nos gustaría decir que ambos argumentos son el mismo. Este
sentido se podría expresar groseramente diciendo que se concluye lo mismo en ambos
a partir de la misma información. Y si aceptamos que los argumentos son conjuntos de
proposiciones con una destacada como conclusión, y que las proposiciones correspondientes
son las mismas, aunque sus expresiones lingüísticas son diferentes, parece indiscutible que
también debemos identificar ambos argumentos.
De ahora en adelante, las expresiones lingüísticas nos interesarán fundamentalmente en
tanto expresan proposiciones, y más aun, cometiendo un abuso de lenguaje, hablaremos de
las expresiones como si fueran proposiciones. Diremos, por ejemplo,
La proposición “Salió el sol”
queriendo significar la proposición expresada por la oración “Salió el sol”.
Continuando con este proceso de acercamiento gradual a nuestro objeto, reformulemos
lo que es un argumento a la luz de lo que hemos dicho sobre proposiciones:
un argumento es un par formado por
1. un conjunto de proposiciones llamadas premisas.
2. una proposición llamada conclusión.

De acuerdo con esto, el esquema general de un argumento será:

Premisa 1
Premisa 2
..
.
Premisa n
Conclusión

Es importante recordar que tanto las premisas como la conclusión son proposiciones.
Por supuesto, los argumentos se expresan lingüísticamente, y así podemos referirnos a un
1.3 El problema de la calidad 13

determinado texto como un argumento. Pero es el mismo caso que el de las proposiciones,
es decir, el argumento, desde nuestro punto de vista, no es el texto que lo expresa sino el
par formado por el conjunto de proposiciones que el texto expresa y se llaman premisas, y
la proposición, también expresada por el texto, que llamamos conclusión.
Nos centraremos en los argumentos, ya que como veremos, de ellos es que se ocupa la
lógica.

1.3 El problema de la calidad


Cuando resolvimos los acertijos del nurikabe y del oso construimos sendos argumentos.
Consideramos las proposiciones que aparecían en el enunciado del acertijo, las tomamos
como premisas y obtuvimos una conclusión. Pero, por supuesto, nos costó cierto trabajo
hacerlo. ¿Para qué nos tomamos ese trabajo? La respuesta es que nos tomamos ese trabajo
para asegurar la calidad del argumento. Veamos qué significa esto, a través de algunos
ejemplos de argumentos de los cuales intentaremos decir algo sobre su calidad.

Todo el dinero que tengo son tres monedas.


Las monedas que existen son de 1, de 2, de 5 y de 10 pesos.
Tengo 35 pesos.

No hay dudas de que este argumento es muy malo, y no vacilamos en decir eso porque
en caso de que las premisas sean verdaderas, es decir, si la información aportada por
las premisas es correcta, entonces la conclusión debe ser falsa. Consideremos este otro
argumento:

Todo el dinero que tengo son tres monedas.


Las monedas que existen son de 1, de 2, de 5 y de 10 pesos.
Tengo 30 pesos.

Este segundo argumento no parece ser tan malo como el anterior, pero sin embargo,
parece bastante malo. La información que las premisas aportan no es incompatible con la
ofrecida por la conclusión, como en el caso anterior. Sin embargo, la verdad de las premisas
no hace plausible la conclusión. Más bien, parece poco razonable afirmar la conclusión
en base a la información aportada por las premisas. Esto es así porque la única forma en
que la conclusión sea verdadera dada la información aportada por las premisas es que
tenga tres monedas iguales de 10 pesos cada una, y la información que las premisas dan es
compatible con muchos escenarios en los que eso no se cumple. Nos parece una conclusión
extremadamente poco segura, muy arriesgada. Veamos el siguiente argumento:

Todo el dinero que tengo son tres monedas.


Las monedas que existen son de 1, de 2, de 5 y de 10 pesos.
Tengo menos que 13 pesos.

Este argumento no parece tan malo como el último. Por supuesto, es una inferencia
arriesgada, ya que la información aportada con las premisas es compatible con que tenga 13,
14 Capítulo 1. ¿Lógica?

14, 16, 17, 20, 21, 22, 25, o 30 pesos, y en cualquiera de esos casos la conclusión sería falsa.
Pero también es compatible con varios casos –no solo con uno, aquí radica la diferencia con
la inferencia anterior– en los que la conclusión sería verdadera. Como sea, la conclusión no
parece firmemente apoyada por las premisas, aunque el apoyo que recibe es mayor que en
la inferencia anterior. Veamos otra inferencia aun:

Todo el dinero que tengo son tres monedas.


Las monedas que existen son de 1, de 2, de 5 y de 10 pesos.
Tengo más que 3 pesos.

Este argumento parece bastante bueno. La información aportada por las premisas parece
apoyar en un grado muy alto la conclusión. En caso que las premisas sean verdaderas, la
conclusión lo será excepto solo en un caso: cuando las tres monedas que tengo sean de 1
peso cada una. Es una conclusión arriesgada, pero “sentimos” que el riesgo que asume es
pequeño. Y consideremos un último argumento con las mismas premisas:

Todo el dinero que tengo son tres monedas.


Las monedas que existen son de 1, de 2, de 5 y de 10 pesos.
No tengo exactamente 10 pesos.

Veamos cómo se articulan las premisas y la conclusión en este caso. Si tenemos tres
monedas, cada una de las cuales es de 1, de 2 , de 5 o de 10 pesos. ¿Cómo podría ser falsa la
conclusión? Un rápido análisis de las posibilidades nos convence de que es imposible que la
conclusión sea falsa si las premisas son verdaderas.
Eso indica que la calidad de este argumento es excelente, inmejorable. No arriesga nada,
la verdad de la conclusión está asegurada si está asegurada la de las premisas. En la próxima sección,
distinguiremos los argumentos que tienen esta característica de los demás.

1.4 Argumentos deductivos e inductivos


Acabamos de ver que no todos los argumentos son igualmente “buenos”. Hay algunos
en los que la verdad de las premisas no asegura la verdad de la conclusión, y entre estos hay
“grados de bondad”, es decir, el grado de apoyo que las premisas prestan a la conclusión
puede ser variable. Estos son muy importantes, y se encuentran en la base de las afirmaciones
que, con un alto grado de certeza, hacen las ciencias naturales. Por ejemplo, cuando se
predice que en el interior de un tubo de vacío, una moneda y una pluma de ave, dejadas caer
desde la misma altura, llegarán al fondo al mismo tiempo, se está haciendo una inferencia
que podríamos representar así:

Las numerosas veces que se han dejado caer dos cuerpos en el interior de un
tubo de vacío desde la misma altura han llegado al fondo al mismo tiempo.
Esta pluma y esta moneda serán dejadas caer desde la misma altura
en el interior de un tubo de vacío.
Esta pluma y esta moneda llegarán al fondo al mismo tiempo.
1.4 Argumentos deductivos e inductivos 15

Es este un argumento fortísimo, dado que muchísimas veces se ha repetido la experiencia


(si la experiencia solo se hubiera hecho una vez, la inferencia no sería tan buena). No es
razonable esperar que la pluma y la moneda no lleguen al mismo tiempo al fondo. Sin
embargo, es claro que no es imposible que ese extrañísimo resultado se dé. Si bien las
premisas apoyan la conclusión en un grado alto, no la apoyan totalmente.
Y no solo la ciencia depende de inferencias de este tipo, sino también muchísimas
decisiones que tomamos en la vida cotidiana: cuando salgo de Facultad y voy a la parada de
siempre a esperar el ómnibus para volver a mi casa, lo hago basado en una inferencia que
tiene como premisa que el 188 ha parado muchas veces allí en un horario determinado, y
concluye que dirigiéndome a esa parada podré tomar un ómnibus que me lleve a casa. Por
supuesto, también se trata de una inferencia muy segura, pero no totalmente segura. Podría
pasar, por ejemplo, que se decida cambiar el recorrido del 188 o que se suprima la línea.
Por otro lado, hay argumentos de los que no cabe decir que son más o menos seguros,
o muy seguros, sino que son absolutamente seguros. La verdad de sus premisas asegura
totalmente la de su conclusión. Es imposible que sean a la vez las premisas verdaderas y
la conclusión falsa. Un ejemplo venerable es el que aparece en la memoria de tanta gente,
asociado con alguna lección de lógica en la enseñanza secundaria:

Todos los hombres son mortales.


Sócrates es hombre.
Sócrates es mortal.

Observemos que la calidad de un argumento no tiene relación con la verdad o falsedad de


las premisas y la conclusión consideradas aisladamente, sino meramente con la consideración
de si la verdad de las premisas impone verdad a la conclusión. Por ejemplo:

Todos los perros tienen plumas.


Sócrates es perro.
Sócrates tiene plumas.

Este argumento es excelente, en el siguiente sentido: tiene la misma virtud que el anterior,
de que la verdad de las premisas hace imposible la falsedad de la conclusión. Frente a este
argumento, si alguien quiere afirmar que la conclusión es falsa, solo tiene el camino de decir
que alguna de las premisas lo es, ya que, necesariamente, si las premisas fuesen verdaderas,
la conclusión también lo sería. Eso no sucede con el argumento de la pluma y la moneda.
Alguien puede a la vez aceptar que hasta el momento los cuerpos lanzados desde la misma
altura han llegado al fondo al mismo tiempo, pero negar que eso sucederá la próxima vez
que se lancen. No es una postura que parezca razonable, pero en principio, es posible que las
premisas sean verdaderas y la conclusión falsa en ese caso.
Vamos a introducir una distinción que a esta altura debe parecer muy natural y reviste
una fundamental importancia. Diremos que un argumento es válido si es imposible que su
conclusión sea falsa siendo verdaderas sus premisas. Otra forma de decir lo mismo es la
siguiente: un argumento es válido si es necesario que su conclusión sea verdadera si sus
premisas lo son.
La validez es, en cierto sentido, un grado máximo de virtud de un argumento: las
premisas dan apoyo total a la conclusión. Y como dado un argumento, sus premisas ofrecen
16 Capítulo 1. ¿Lógica?

apoyo total a su conclusión o no lo hacen, es una característica que los argumentos tienen o
no tienen, no hay grados en ello. No hay argumentos más válidos que otros, solamente hay
argumentos válidos y argumentos inválidos.
Un argumento que, además de ser válido, tiene premisas verdaderas, se llama sólido. Por
supuesto, los argumentos sólidos tienen conclusiones verdaderas.
Las inferencias o argumentos que no son válidos tienen diversos grados de bondad.
En este libro nos ocuparemos solamente de la cuestión planteada por la división de los
argumentos en válidos e inválidos. Básicamente, estaremos interesados en la determinación
de la validez de los argumentos. Cuando un argumento es válido, se lo llama deductivo.
Caso contrario, lo llamaremos inductivo o no deductivo3 . No está de más repetir que esta
cuestión no tiene nada que ver con la verdad de las premisas y la conclusión consideradas
aisladamente, sino con la cuestión de si la conclusión puede ser falsa siendo verdaderas
las premisas. Si la respuesta es “No”, el argumento es válido. Si es “Sí”, se trata de un
argumento inductivo.
El concepto introducido es tan importante que bien vale resaltarlo:

un argumento es válido si es imposible que sus premisas sean verdaderas y su


conclusión falsa, o dicho de otro modo, si es necesario que su conclusión sea
verdadera si sus premisas lo son.

A veces esto mismo se expresa diciendo que en los argumentos válidos hay trasmisión
necesaria de la verdad de las premisas a la conclusión, pero creemos que esta forma de hablar
no es afortunada. Las premisas pueden perfectamente ser falsas, como hemos remarcado
varias veces. Incluso pueden ser tales que en ningún caso pudieran ser verdaderas. Por
supuesto, un argumento con premisas así será válido, porque es imposible que sus premisas
sean verdaderas y su conclusión falsa, ya que es imposible que sus premisas sean verdaderas.

1.5 Lógica: primera aproximación


La lógica es una ciencia, y en esta sección intentaremos aproximarnos a su objeto. Las
ciencias pueden ser consideradas desde diversos puntos de vista, de los cuales dos muy
prominentes son el que las presenta como conjuntos de teorías, un corpus organizado de
conocimientos, y el que las presenta como una actividad humana inserta en la historia.
Desde el punto de vista histórico, hay cierto consenso acerca de que la lógica como ciencia
tiene sus orígenes en la obra de Aristóteles, quien dedicó una serie de tratados pioneros
a su estudio. En estos tratados, Aristóteles intentaba demarcar los “buenos” argumentos
de los “malos”, con independencia de la verdad o falsedad de sus premisas. Por supuesto,
no es que Aristóteles no se interesara en la verdad de las proposiciones, sino que buscaba
las condiciones bajo las que se podía confiar en el resultado de una inferencia, supuesta
la verdad de las premisas. No interesan ahora los detalles de la lógica aristotélica, que fue
sumamente influyente a través de la historia, al punto de que pudo considerarse superada
recién en el siglo XIX, es decir, unos 2500 años después de los tiempos de Aristóteles. Sin
3 Estaclasificación de los argumentos no recoge consenso universal, en el sentido de que no todos los filósofos
están de acuerdo en clasificar como inductivos a todos los argumentos no válidos. Es decir, hay clasificaciones
que encuentran divisiones más finas que la que hemos planteado entre los argumentos no válidos. En estas
clasificaciones, los inductivos son solo una clase de argumentos inválidos.
1.6 Una clase importante de argumentos válidos 17

embargo, este primer impulso es el que ha alentado fundamentalmente a la lógica desde


siempre. Podemos decir que la lógica es una ciencia que se ocupa de los argumentos,
centrándose en las formas de apoyo de las premisas a la conclusión.
Tradicionalmente, la lógica se ha ocupado de distinguir los argumentos válidos de
los inválidos y del estudio de los argumentos válidos -aunque en el propio Aristóteles se
encuentran rudimentos de una lógica que se ocupa de argumentos inválidos-. Una lógica
que se ocupara de los argumentos inductivos debería ser capaz de determinar la fuerza o
bondad relativa de estos, los diversos grados -no absolutos- en que la verdad de las premisas
apoya la de la conclusión y este proyecto, que ha tenido un enorme impulso desde el siglo
XX, es mucho más discutido que el de la lógica tradicional. Especialmente a partir de un
famoso argumento de Hume, que pretende establecer que una inferencia inductiva nunca da
razones para creer en su conclusión4 hay muchos filósofos que dudan incluso de la posibilidad
de una lógica inductiva. A pesar de esto, es de destacar que actualmente se hacen ingentes
esfuerzos en el sentido de desarrollar lógicas inductivas. Estos esfuerzos caen por completo
fuera del interés de este libro, y además el lector debe estar advertido de que cuando se
habla de “lógica” a secas, normalmente se está refiriendo a la lógica que se ocupa de la
clasificación de argumentos en válidos e inválidos y al estudio de los primeros. Cuando
se desea hablar de lógica entendiendo que se intenta la clasificación y calificación de los
argumentos inválidos, se suele decir “lógica inductiva”.
A esta altura del desarrollo, debe estar claro que la lógica de la que nos ocuparemos -de
ahora en más, simplemente “la lógica”- clasificaría la inferencia del nurikabe como válida,
la del oso como inválida y podría arrojar luz sobre algunas cuestiones que aun no sabemos
cuáles son concernientes a la primera. Análogamente, clasificaría como inválidas todas las
inferencias de las tres monedas menos la última, a la que clasificaría como válida. Podría,
además, aclarar algunos aspectos de esta inferencia.
Nuestra caracterización de la lógica, como ciencia que se ocupa de la discriminación de
argumentos válidos e inválidos, y del estudio de los argumentos válidos, está lejos de ser
completa. Veamos algunos aspectos necesarios para seguir comprendiendo qué es la lógica.

1.6 Una clase importante de argumentos válidos


Examinemos ahora algunos argumentos válidos, con el propósito de identificar alguna
característica común que tienen muchos de ellos, y diferenciarlos de otros, también válidos.
Para ello, volveremos nuestra atención a una familia de acertijos, inspirados en la obra del
eminente lógico, mago y escritor Raymond Smullyan, cuya lectura recomiendo con especial
énfasis (el lector hallará referencias en la bibliografía).

La biblioteca
Si el lector ha disfrutado de la estupenda novela El nombre de la rosa, de Umberto Eco,
recordará que en ella el protagonista, Guillermo de Baskerville, debe resolver varios enigmas
en un ambiente dominado por la presencia de una maravillosa biblioteca. Allí hay una rígida
4 Elargumento, uno de los más brillantes de la historia de la filosofía (reconocer la brillantez de un
argumento no significa compartir su conclusión), fue dado por Hume en varias de sus obras, pero se encuentra
en forma compacta y clarísima en Compendio del Tratado de la naturaleza humana, disponible online en http:
//iesplayasanjuan.edu.gva.es/filosofia2bach/selectividad/humecompnh.pdf
18 Capítulo 1. ¿Lógica?

clasificación de las obras, con una sección dedicada a las heréticas, en las que la falsedad
campea y cuya libre circulación se considera muy peligrosa. Para acceder a ellas hay que
solicitar un permiso que rara vez se otorga.
Ficción por ficción, imaginemos que tenemos la suerte de llegar a una biblioteca medieval,
dedicada solamente a guardar las obras de dos famosos escritores, Veratius y Mendacius.
Ambos escribieron sobre temas muy arcanos, desconocidos en su totalidad por casi toda
la humanidad. Es común abrir uno de esos códices y encontrar frases como “El día que
murió Julio César un gladiador llamado Rufus encontró dos sestercios en la Vía Apia”,
o “Dios prefiere las biblias en códice a las biblias en rollo”. En general, casi todo lo que
escribieron está más allá de nuestras posibilidades de verificación. Pero sin embargo, la
posesión de esas obras es muy valiosa, porque todo lo que escribió Veratius es verdadero y todo
lo que escribió Mendacius es falso. Por eso, es muy importante, al leer uno de esos libros, saber
quién fue su autor. Sea el que fuere, la lectura nos dará conocimiento –si es que hacemos la
atribución de autoría correcta–. En esta biblioteca, los códices, manuscritos originales, están
dispuestos en estantes, y no tienen una marca de autoría que sea confiable en principio. En
general, en el primer folio dicen algunas cosas (escritas por el autor) que pueden permitir
hacer la atribución. Nuestro problema es clasificar los libros por autor en cada estante,
tarea que se ve dificultada porque ambos autores eran maestros calígrafos y –quizá por ser
hermanos gemelos– las maravillosas letras unciales que gustaban trazar son indistinguibles.
Recordemos que en esta biblioteca todo libro es de autoría de Veratius o de Mendacius, y
que todo lo que dicen las obras del primero es verdadero, mientras que todo lo que dicen las
del segundo es falso. Llamaremos “reglas de la biblioteca” a estas condiciones.

En los problemas que siguen, la solución se encuentra inmediatamente bajo el


planteo. Quizá el lector quiera resolverlos por sí mismo antes de leer la solu-
ción. Sería bueno que al menos lo intentara, para comparar sus razonamientos
con los que ofrecemos. Estos razonamientos servirán de material de reflexión
en más de una ocasión en el curso.

Un primer problema
En un estante hay tres códices. El título de uno es “Argos”, el de otro “Belerofonte” y
el del último “Casiopea”. Tomamos Argos y lo abrimos, con intención de leer el primer
folio. Para nuestra decepción, ha sido atacado por la humedad y parece haberse perdido
una parte clave de la información que podríamos obtener. Solo llegamos a leer

Argos
Este libro fue escrito por $ius
En buena parte de donde figuraba un nombre encontramos algo ilegible. Abrimos
Belerofonte, el que por suerte está mucho mejor conservado. Su primer folio dice

Belerofonte
En el primer folio de Argos su autor
afirmo que fue escrito por Mendacius

Finalmente, miramos el primer folio de Casiopea:


1.6 Una clase importante de argumentos válidos 19

Casiopea
Belerofonte es un libro lleno de mentiras

Nos interesa especialmente saber quién es el autor de Casiopea, ya que hace mucho
tiempo queremos investigar sobre su tema, que es métodos de maquillaje de las nereidas.
¿Cómo podemos resolver este problema, si ninguno de los libros dice algo que sea
patentemente falso, como por ejemplo, “Dos más dos es igual a cinco” –en cuyo caso
sabríamos que el autor es Mendacius–, o patentemente verdadero, como “Esto es un ejemplo
de escritura” –en cuyo caso sabríamos que el autor es Veratius?
La clave está en imaginar qué es lo que podría haber originalmente en el folio que
encontramos corrompido. Supongamos el autor de Argos fuese Veratius. Si así fuese, no
podría escribir en su libro que el autor era Mendacius, porque estaría escribiendo algo falso.
Ahora supongamos que el autor de Argos fuese Mendacius. ¡Tampoco podría escribir que el
autor era él mismo, ya que Mendacius solo escribe cosas falsas! Y no hay otra posibilidad,
ya que en la biblioteca todos los libros son o bien de Veratius o bien de Mendacius. O sea,
en todos los casos posibles, el primer folio de Argos no podía decir que fue escrito por
Mendacius. Hemos deducido que ese folio no afirmaba que el libro era de Mendacius, aunque
la información dada en el problema no lo dice explícitamente. Es importante notar que
sabemos que en el primer folio de Argos no decía que era de Mendacius, pero no sabemos
si lo es o no. Sin embargo, esto nos permite resolver el problema de averiguar el autor de
Casiopea: en Belerofonte se dice que el primer folio de Argos afirmaba que había sido escrito
por Mendacius. Esto tiene que ser falso, es necesario que Belerofonte sea un libro lleno de
mentiras. Y eso es exactamente lo que afirma Casiopea, de modo que este está diciendo una
verdad, y por lo tanto su autor es Veratius.
Ahora que hemos entendido cómo funcionan las cosas en esa biblioteca tan extraña,
consideremos algunas situaciones particulares, de las cuales encontraremos unas sumamente
sencillas y otras no tanto. En cada caso, luego de resolverlas, haremos alguna reflexión sobre
lo que nos ha permitido hacer la inferencia conducente a la solución.

Todo lo contrario
En un estante se encuentran dos libros muy, muy viejos. Ambos han perdido su primer
folio, ni siquiera sabemos sus títulos, de modo que los llamaremos 1 y 2. A continuación se
muestra la primera oración de cada uno de ellos.

1
Dios existe

2
Dios no existe

¿Qué podemos inferir acerca de estos libros?


Quizá haya entre los lectores algunos teístas, quienes pensarán que el primero fue escrito
por Veratius. Tal vez haya algunos ateos, según los cuales el autor del primero es Mendacius.
Es posible que haya agnósticos, quienes no sabrán qué decir acerca de quién es el autor
20 Capítulo 1. ¿Lógica?

de cada uno de ellos5 . Pero, por más que la creencia acerca de la existencia de Dios pueda
dividir las opiniones, hay algo que está más allá de toda disputa: uno de los libros fue escrito
por Mendacius, y el otro por Veratius.
Stricto sensu, esto es todo lo que podemos inferir a partir de los datos dados con absoluta
seguridad. Es claro que la conclusión de que uno es de Veratius y el otro de Mendacius
surge de que uno niega lo que el otro afirma. La proposición expresada por el segundo es la
negación de la expresada por el primero, y recíprocamente. En un par así, necesariamente una
de las proposiciones es verdadera y la otra falsa. Además, la palabra “no” en la construcción del
enunciado es la que nos indica que se está expresando la negación de la proposición anterior.
De modo que si el primer libro dice la verdad, el segundo miente, y recíprocamente. Por lo
tanto, uno de ellos es de Veratius y el otro de Mendacius. El problema de resolver cuál de
ellos es el de Veratius, queda para los libros de teología.

Los dos mentimos


En otro estante encontramos dos libros, titulados “Dragones” y “Esfinge”. Esfinge está
tan deteriorado que solo es legible la parte superior de cada uno de sus folios, por lo que
apenas si sabemos su título.
Pensamos que la única posibilidad que existe de descubrir quién es su autor –excluyendo
la de encontrar en él una expresión que podamos clasificar como verdadera o como falsa, lo
que no suele suceder en las obras de autores como estos, que se dedican a temas abtrusos–
es que otro libro se refiera a Esfinge. Ya hemos visto que, al igual que en la realidad, en esta
ficción sucede que unos libros hablan de otros, de modo que al abrir Dragones encontramos
que su primer folio (que está rasgado, pero perfectamente legible) tiene estas palabras:

Dragones
Dragones es obra de Mendacius
y
Esfinge es obra de Mendacius
Clasificar estos libros es fácil. Se comprende inmediatamente que Dragones no puede
haber sido escrito por Veratius, porque en ese caso tendríamos a este autor escribiendo
algo falso, al atribuir la autoría del libro que escribe a Mendacius. Ahora que sabemos que
Dragones fue escrito por Mendacius, podemos determinar la autoría de Esfinge. Si Esfinge
también fuese una obra de Mendacius, resultaría que este habría escrito una verdad en el
primer folio de Dragones. Pero eso es imposible, de modo que Esfinge tiene que ser obra
de Veratius. Por lo tanto, la respuesta es que el autor de Dragones es Mendacius, y el de
Esfinge es Veratius.
Esta inferencia se basó en el hecho fundamental –y previamente conocido por nosotros,
como hablantes competentes del español– de que la proposición expresada en Dragones se
construyó a partir de las proposiciones más simples “Dragones es obra de Mendacius” y
“Esfinge es obra de Mendacius” conectadas con un “y”, y en esas condiciones, la proposición
constituida sería verdadera si y solo si lo fueran ambas constituyentes. Es algo que nos puede
parecer trivial, pero sin apelar a eso, hubiera sido imposible resolver el problema.
5 Y quizá haya algún lector de talante positivista, que adhiera al criterio empírico del significado y opine que

en realidad, lo enunciado son pseudoproposiciones y por tanto, carecen de valor de verdad. A un tal lector le
sugiero que sustituya los enunciados dados por “Hay vida en otros planetas” y “No hay vida en otros planetas”.
1.6 Una clase importante de argumentos válidos 21

Acá hay un mentiroso


En otro estante encontramos otros dos libros, uno con el título de “Fe” y el otro titulado
“Gracia”. Miramos el primer pliego de Fe, donde se lee:

Fe
Fe es obra de Mendacius
o
Gracia es obra de Mendacius

Como ya tenemos cierta práctica en esto de inferir la autoría de cada libro, decidimos no
abrir Gracia e intentar deducirla solo a partir de los datos que obtuvimos con Fe. Otra vez
la solución es fácil: supongamos que Fe fuese obra de Mendacius. En ese caso, Mendacius
habría escrito una verdad, ya que lo escrito significa que al menos uno de los dos libros
es de su autoría. Pero no puede ser que Mendacius escriba una verdad y por lo tanto, el
autor de Fe debe ser Veratius. Ahora bien, si Gracia también fuese obra de Veratius, este
habría mentido en el primer pliego de Fe, ya que hubiera escrito algo que implica que al
menos uno de los dos libros es de Mendacius, pero ninguno de los dos lo sería. Por tanto,
Gracia tiene que haber sido escrito por Mendacius. La solución es entonces que Fe es obra
de Veratius y Gracia es de Mendacius.
En esta ocasión, lo que resultó fundamental para encontrar la solución fue el reconoci-
miento de que la proposición expresada en Fe se componía por “Fe es obra de Mendacius”
y “Gracia es obra de Mendacius”, conectadas por un “o”, y de que en esas condiciones, la
proposición constituida sería falsa si y solo si lo fueran ambas constituyentes6 .

Si yo soy, él también
Y por fin encontramos un problema bastante más delicado. En una vitrina había dos
libros, con los hermosos títulos “Hades” e “Infierno”, ambos con fuertes cierres metálicos.
Luego de maniobrar un poco con ellos, encontramos que el primer pliego de Hades reza:

Hades
Si
Hades es obra de Ueratius
entonces
Infierno es obra de Ueratius

Con estos datos podemos inferir la autoría de ambos libros. ¿Cómo? (Se sugiere al lector
pensar cuidadosamente este problema antes de leer la solución; y cuando vaya a leerla,
hacerlo también con cuidado).
Comenzaremos contando una breve anécdota. Cuando yo era pequeño, la ley no prohibía
a los padres dar palmadas a los hijos. Según me contaron, antes de que cumpliera los dos
años, una vez estaba con mis padres caminando por la calle, y bajé de la vereda a la calzada.
Mi padre me levantó, me puso sobre la vereda y me dijo: “Si volvés a bajar a la calle, te
daré una palmada”. Caminamos un poco más, yo volví a bajar a la calle. . . Inmediatamente
6 Así hemos entendido el “o” en este caso. A veces se usa el “o” para significar que lo expresado será verdadero si y solo

si uno y solo uno de los constituyentes es verdadero. Hablaremos de eso más adelante.
22 Capítulo 1. ¿Lógica?

averigüé que mi padre había dicho la verdad. O sea, me dio una palmada. Es obvio también
que si yo hubiera bajado a la calle y mi padre no me hubiera dado la palmada, habría
mentido. ¿Cuál es la moraleja? Bueno, hay varias, pero aquí no nos interesa ni la de que a
veces las palmadas vienen bien, ni la de que los niños deben obedecer a los padres, sino
otra: al bajar a la calle estaba poniendo a prueba la veracidad de lo dicho por mi padre en
una forma en que no podía quedar sin respuesta. Si daba la palmada, había dicho la verdad;
si no la daba, había mentido, lo que podemos resumir en

Bajas a la calle Te daré una palmada Si bajas a la calle, te daré una palmada
Verdadero Verdadero Verdadero
Verdadero Falso Falso

Después consideraremos la posibilidad de que yo hubiera nacido con una predisposición


genética a la obediencia y no hubiera vuelto a bajar a la calle, pero lo dicho por ahora basta
para generar una estrategia que podría resolver el problema de la biblioteca que tenemos
entre manos. La estrategia es la siguiente: así como podríamos saber si mi padre había
dicho la verdad al aseverar que si bajaba a la calle, entonces me daría una palmada imponiendo
la condición de que se cumpliera lo que queda entre el “si” y el “entonces” (en ese caso,
bajando a la calle), podríamos intentar averiguar si bajo la condición de que Hades sea
obra de Veratius, se cumple que Infierno también lo es. Si logramos deducir que bajo esa
condición Infierno es obra de Veratius, podremos afirmar que lo que dice el primer pliego
de Hades es verdadero. Si logramos deducir que bajo esa condición Infierno no es obra
de Veratius, podremos afirmar que lo que dice el primer pliego de Hades es falso. Esto es
análogo a bajar la calle para ver si se da la palmada o no. Con una diferencia: si bajamos
a la calle, nos dan o no nos dan la palmada, es inevitable que averigüemos si la amenaza
era verdadera. Pero si suponemos que el autor de Hades es Veratius, puede pasar que no
logremos deducir que Veratius es también autor de Infierno ni que no lo es. En ese caso,
nuestro intento, aunque bien encaminado, se habría perdido en el vacío. De todas formas,
intentémoslo:
Supongamos que Hades fue escrito por Veratius. Bajo esa suposición, lo que dice su
primer pliego es verdadero. Dice algo equivalente a “Si Hades es obra de Veratius, Infierno
también lo es". Entonces, tenemos que bajo la suposición de que Hades es obra de Veratius
se dan estas dos cosas:

(1) Hades es obra de Veratius. (Obviamente, esta es la propia suposición).


(2) Si Hades es obra de Veratius, Infierno también lo es. (Esto lo acabamos de inferir de
que sería algo escrito por Veratius, y por tanto, verdadero).

Ahora bien, como bajo la suposición de que Hades fue escrito por Veratius se cumplen
(1) y (2), también, bajo esa misma suposición, debe cumplirse:

Infierno fue escrito por Veratius. (Porque así entendemos que se comporta la expre-
sión “si . . . entonces. . . ” de (2) junto con (1)).

Entonces, recapitulemos: Hemos demostrado que bajo la suposición de que Hades fue
escrito por Veratius, Infierno fue escrito por Veratius. Pero esto es lo que entendemos por si
1.6 Una clase importante de argumentos válidos 23

Hades fue escrito por Veratius, entonces Infierno fue escrito por Veratius. Hemos demostrado que
lo que está destacado en la oración anterior es verdadero, de manera que el primer pliego de
Hades dice una verdad. Por lo tanto, Hades fue escrito por Veratius. Y como lo escrito es que
si Hades fue escrito por Veratius, entonces Infierno también lo fue, y efectivamente Hades
fue escrito por Veratius, se sigue que Infierno también es obra de Veratius. La solución, por
tanto, es que ambos libros fueron escritos por Veratius.
Quizá el lector no esté del todo convencido. Habíamos advertido que era este un proble-
ma complicado. Continuemos pensando en él, para despejar algunos aspectos importantes.
Habrá observado que intenté establecer una analogía entre mi traumática experiencia
infantil y la estrategia seguida en la solución del problema. Parece que es correcto decir
que una vez que bajé a la calle, era inevitable saber si lo que mi padre me había dicho era
verdadero o no. Si me daba la palmada, era verdadero, si no me la daba, era falso. También
podemos conceder que no era necesario que yo bajara a la calle para saberlo. Bastaría que
tuviéramos la capacidad de saber una de estas dos cosas:

(3) Bajo la condición de que yo bajara a la calle, mi padre me daría la palmada.


(4) Bajo la condición de que yo bajara a la calle, mi padre no me daría la palmada.

Si sabíamos (3), lo dicho por mi padre hubiera sido verdadero, y si sabíamos (4), lo dicho
por mi padre hubiera sido falso. Ahora bien, es bastante difícil que alguien supiera (3) o (4)
si yo no bajaba a la calle. En el caso del problema pasa algo análogo, y afortunadamente
podemos saber que
(5) Bajo la condición de que Hades sea obra de Veratius, Infierno también lo es.
Podemos saberlo porque la estructura del problema nos permite hacer una deducción
que culmina en (5). Es verdad que esto nos da motivos para afirmar que lo expresado en el
primer pliego de Hades es verdadero. Pero, podría decir alquien, ¿qué pasa si suponemos
que el autor de Hades es Mendacius? ¿Acaso se concluye algo que nos obligue a rechazar
que su autor es Mendacius? ¿Por qué no podemos decir que el autor de Hades es Mendacius,
que por lo tanto lo que dice el primer pliego es falso y dejar indeterminada la autoría de
Infierno o inclusive atribuírsela a Veratius o Mendacius, uno de los dos, a placer?
Una respuesta terminante sería que no podemos suponer que el autor de Hades es
Mendacius, porque ya hemos demostrado que lo que dice el primer pliego de ese libro es
verdad: si el autor de Hades es Veratius, entonces el autor de Infierno es Veratius. Eso nos obliga a
aceptar que Hades fue escrito por Veratius. Pero aun así, resta un sentimiento de extrañeza,
porque no se ve cómo culminaría nuestro razonamiento si supusiéramos que Hades fue
escrito por Mendacius. Intentaremos aclarar eso ahora.
Si nuestro análisis del problema es correcto, Mendacius nunca podría escribir una
proposición de la forma Si el autor de este libro es Veratius, entonces X, donde X es cualquier
proposición, porque si encontramos una proposición así escrita en un libro, razonamos en
forma totalmente análoga a la anteriormente expuesta, y concluimos que el el libro fue
escrito por Veratius y X es verdadera.
Entonces, alguien podría pensar así:

El hecho de que Mendacius nunca pueda escribir Si el autor de este libro es Veratius,
entonces X indica que esa proposición, suponiendo que la escribiera Mendacius,
24 Capítulo 1. ¿Lógica?

sería siempre verdadera, sin importar lo que sea X. En ese caso, lo que tenemos
es una proposición en la que lo que está entre el si y el entonces es falso, y la
proposición resulta ser verdadera, sin importar si X es verdadera o falsa. ¿Será
que todas las proposiciones del tipo Si A, entonces B, donde A es una proposición
falsa son verdaderas? Eso obligaría a aceptar que expresiones tan extrañas como
Si el sol es un planeta, entonces la Tierra es un planeta, o Si el sol es un planeta, entonces
la tierra es una estrella o aun Si los chanchos vuelan, los burros estudian filosofía, son
verdaderas. Aquí hay algo muy raro.

Efectivamente, aquí hay algo raro. Para considerarlo adecuadamente retrocedamos un


poco y veamos cómo resolvimos los problemas anteriores. En ellos, sabíamos bajo qué
condiciones es verdadera y bajo qué condiciones es falsa una proposición constituida por
dos proposiciones conectadas por un “y” o por un “o”. Ahora se trata de saber bajo qué
condiciones es verdadera y bajo qué condiciones es falsa una proposición que se construye
de la siguiente manera: empezamos con la palabra “Si”, continuamos con una proposición
p, a la que llamaremos el antecedente, colocamos la palabra “entonces” y terminamos con
una proposición q a la que llamaremos el consecuente.
Estamos entonces analizando una proposición de la forma

Si p, entonces q.

Por lo que habíamos considerado, los casos en que el antecedente es verdadero no


presentan problema. La proposición analizada es verdadera si tanto el antecedente como
el consecuente son verdaderos, y es falsa si el antecedente es verdadero y el consecuente
es falso. Pero el cuestionamiento hecho sobre el problema, al preguntar “¿Y qué pasa si
Hades fue escrito por Mendacius?” apunta a que no está claro si la proposición analizada es
verdadera o falsa en los casos en que el antecedente es falso. Y es un cuestionamiento muy
inteligente, que ha hecho correr ríos de tinta. Vamos a dar aquí un algunos de argumentos
tendientes a convencer al lector de que, cuando el antecedente es falso, la proposición
analizada debe considerarse verdadera. Después agregaremos algunos comentarios.
El primer argumento es el siguiente: consideremos la proposición

Si llueve y truena, entonces llueve.

Por supuesto que estamos dispuestos a afirmar que esta proposición es verdadera, y no
necesitamos para ello saber el estado meteorológico. Veámoslo en general: supongamos que
el antecedente es una proposición construida conectando dos proposiciones con un “y”, y el
consecuente es una de esas mismas proposiciones. Si llamamos a esas dos proposiciones r y
s, la proposición que estamos analizando será de una de las dos formas:

(6) Si r y s, entonces r.
(7) Si r y s, entonces s.

La clave de este asunto es que parece obligado admitir que proposiciones de ese tipo
tienen que ser siempre verdaderas, sin importar si r es verdadera o falsa y si s es verdadera
o falsa. Supongamos entonces que r fuese verdadera y s falsa. En ese caso, tendríamos que
el antecedente de (6) es falso, y su consecuente verdadero; pero hemos acordado que (6) es
1.6 Una clase importante de argumentos válidos 25

verdadera. Por otro lado, tenemos que el antecedente de (7) es falso y su consecuente falso,
pero hemos acordado que (7) es verdadera. De aquí, si aceptamos que todas las proposiciones
con la forma Si p, entonces q dependen, para ser verdaderas o falsas, únicamente de si p y q
lo son, debemos aceptar que todas las proposiciones de esa forma con antecedente falso son
verdaderas.
Consideremos otro argumento: supongamos que se da lo siguiente, que no es una
proposición

Si A es el padre de B, entonces A nació antes que B.

Esto no es una proposición, ya que A y B no son nombres, sino que están para indicar
que los podemos sustituir por nombres. “A es el padre de B” no tiene valor de verdad. Pero
si se sustituyen A y B por nombres de personas, se obtendrá una proposición. Y estamos
muy inclinados a decir que sin importar por cuáles nombres de personas sustituyamos A y B en
el esquema de oración destacado, obtendremos una proposición verdadera.
Bien, sustituyamos A por “Sócrates” y B por “Wittgenstein”. Obtenemos una proposición
del tipo analizado, con antecedente falso y consecuente verdadero. Pero habíamos acordado
que la proposición obtenida sería verdadera. Si sustituimos A por “Sócrates” y B por “Tales”,
obtenemos una proposición con antecedente y consecuente falsos, pero habíamos acordado
que sería verdadera. Del mismo modo que en el argumento anterior, bajo la suposición de
que todas las proposiciones con la forma de la analizada son verdaderas o falsas solo según
si su antecedente y consecuente, debemos aceptar que todas las proposiciones con de esa
forma con antecedente falso son verdaderas.
Un último argumento: supongamos que aceptamos

1. Las proposiciones de la forma Si p entonces q solo dependen, para ser verdaderas o


falsas, de cómo son p como q en cuanto a verdad o falsedad, y dependen de la verdad
o falsedad de ambas, no de una sola de ellas.
2. Cuando p es verdadera, Si p entonces q es verdadera si q lo es y es falsa si q lo es.
3. En algunos casos, la proposición Si p entonces q es verdadera a la vez que la proposición
Si q entonces p es falsa.

Las tres condiciones que acabamos de listar parecen aceptables. Tal vez no sea evidente,
pero si las aceptamos estamos obligados a aceptar que las expresiones de la forma Si p,
entonces q, en las que p es falsa, son verdaderas. Veámoslo:
Si no aceptamos que esas expresiones serán verdaderas cuando p es falso, solo tenemos
tres posibilidades, que consideraremos de a una.
Supongamos que aceptamos que la proposición Si p, entonces q será falsa si p es falsa y q
verdadera, y será verdadera si tanto p como q son falsas. Nos quedaría este esquema:

p q Si p entonces q
verdadera verdadera verdadera
verdadera falsa falsa
falsa verdadera falsa
falsa falsa verdadera
26 Capítulo 1. ¿Lógica?

Pero esto viola la condición 3, como el lector sabrá apreciar. Dadas p y q cualesquiera,
se le atribuye la misma calidad de verdadero o falso tanto a Si p, entonces q como a Si q,
entonces p.
Otra posibilidad sería aceptar el esquema siguiente:

p q Si p entonces q
verdadera verdadera verdadera
verdadera falsa falsa
falsa verdadera falsa
falsa falsa falsa

Pero nuevamente se viola la condición 3. De modo que sin aceptar que el antecedente
falso haga que el compuesto sea verdadero solo nos queda probar este esquema:

p q Si p entonces q
verdadera verdadera verdadera
verdadera falsa falsa
falsa verdadera verdadera
falsa falsa falsa

Esta posibilidad no viola la condición 3, pero sí la condición 1, porque el valor de verdad


de p no importa en este caso, y resultaría que para evaluar la verdad o falsedad de Si p
entonces q solo habría que atender al consecuente, y en realidad, no sería distinto, desde el
punto de vista de lo verdadero o lo falso, afirmar el compuesto que solo afirmar el segundo
componente.
Es esta una interpretación de la expresión “Si . . . entonces . . . ”, que se llama interpre-
tación del condicional material. Hay otras interpretaciones, e históricamente este tipo de
expresiones han provocado muchas controversias7 . Pero nadie ha podido dar una interpre-
tación generalmente más adecuada -al menos para nuestros propósitos, que incluyen por lo
menos abarcar los razonamientos comunes en las ciencias deductivas- que la que acabamos
de ofrecer. Más adelante estudiaremos las precauciones que debemos adoptar al trabajar
con el condicional material. Desde un punto de vista más general y profundo, no es este el
lugar para discutir el problema, que básicamente se reduce a que las expresiones de ese tipo
cumplen múltiples funciones en el español, y remitimos al lector interesado en introducirse
al problema a [Sai90], donde se analiza extensamente la adecuación de la interpretación del
condicional material sobre expresiones del tipo “Si . . . entonces . . . ” (en inglés, la mayor
parte del análisis es pertinente para el español).
Volviendo al problema, entendemos que si Mendacius escribiera “Si esta obra es de
Veratius, entonces Infierno también lo es”, estaría expresando una proposición del tipo
examinado con antecedente falso (ya que el antecedente afirma que el autor es Veratius,
cuando en realidad es Mendacius), y acabamos de ver que estas proposiciones son verdade-
ras, de modo que no la podría escribir. En general, Mendacius jamás podría escribir una
7 Estas controversias son milenarias. En [Mat61] se puede leer acerca de las diferentes interpretaciones que

expresiones de este tipo recibieron en la escuela estoica.


1.6 Una clase importante de argumentos válidos 27

proposición del tipo “Si esta obra es de Veratius, entonces X”, ya que sin importar cuál
proposición sea X, estaría escribiendo una verdad. También vemos que si yo no hubiera
bajado a la calle, mi padre hubiera dicho la verdad, me diera la palmada o no.

Todos o ninguno
Y finalmente llegamos a un estante con dos libros, cuyos títulos son “Koiné” y “Lenguas”.
En el primer pliego de Koiné se leía

Koine
Koine es obra de Ueratius
si y solo si
Lenguas es obra de Ueratius

Pensando un poco, podemos darnos cuenta de que lo que esta oración expresa es que
tanto Koiné como Lenguas fueron escritos por el mismo autor. Separemos el enunciado en
dos partes:

Koiné es obra de Veratius si Lenguas lo es.

O sea, según lo que dice, si Lenguas es obra de Veratius, Koiné también lo es. No puede ser
que Lenguas sea obra de Veratius y Koiné de Mendacius.

Koiné es obra de Veratius solo si Lenguas lo es.

Esta expresión, “solo si” está diciendo que la única circunstancia bajo la que Koiné es obra
de Veratius es la de que Lenguas lo sea. En otras palabras, no puede ser que Koiné sea obra
de Veratius y Lenguas de Mendacius. Quedan excluidos los dos casos en los que los libros
son de autores distintos. Por lo tanto, la proposición escrita en el primer pliego de Koiné
equivale a la que afirma que ambos libros son del mismo autor.
Supongamos entonces que Koiné fue escrito por Veratius. Como el enunciado escrito
es verdadero, Lenguas también fue escrito por Veratius. Supongamos ahora que Koiné
fue escrito por Mendacius. En este caso el enunciado es falso, y por lo tanto, Lenguas no
puede haber sido escrito por él, sino que debe haber sido escrito por Veratius. Entonces, no
podemos saber quién escribió Koiné, pero en todos los casos posibles Lenguas fue escrito
por Veratius, y eso es lo que deducimos.

Nigra sum, sed formosa: la forma


Después de esta maratón de acertijos que hemos resuelto, conviene recuperar el aliento
reflexionando sobre lo que acabamos de hacer. ¿Qué hicimos al resolverlos? ¿Y por qué
pudimos hacerlo? La respuesta a la primera pregunta debería ser obvia a esta altura: al
resolverlos hicimos inferencias, planteamos argumentos. Además, podemos advertir que
estos argumentos fueron deductivos8 .
La respuesta a la segunda pregunta es bastante más compleja, y eso porque no está
muy precisamente formulada. En realidad, lo que se pretende al plantearla es llamar la
atención sobre un aspecto prominente en esos argumentos que llevaron a la solución de
8 Queda para el lector dar una explicación de por qué esos argumentos son deductivos.
28 Capítulo 1. ¿Lógica?

los problemas de la biblioteca. Ese aspecto se puede expresar así: las inferencias se basaron
fundamentalmente en nuestro entendimiento de la función de ciertas palabras en expresiones
complejas9 . Y estas palabras son muy particulares, porque si bien es casi imposible encontrar
un texto largo que no contenga alguna de ellas, si le preguntamos a alguien qué significan,
es muy probable que lo pongamos en un aprieto. Las palabras y expresiones a las que me
refiero son –considerando el acertijo en el que tienen un papel fundamental– no (Todo lo
contrario), y (Los dos mentimos), o (Acá hay un mentiroso), si . . . entonces . . . (Si yo soy, él
también) y . . . si y solo si . . . (Todos o ninguno). Como tal vez se haya quedado pensando en
el significado de una palabra “no”, consultemos el diccionario. Por supuesto, el lector bien
sabe que la palabrita “no” es salvajemente polisémica, de modo que nos quedaremos con la
primera acepción según el Diccionario de la Real Academia:

no.
(Del lat. non).
1. adv. neg. U. para negar, principalmente respondiendo a una pregunta.

Esa “U.” quiere decir “usado”. El diccionario nos dice para qué se usa. Es una palabra
que se usa para negar. Y esto es algo que ya sabíamos, pero sucede que muchas veces es
bueno reflexionar sobre las cosas que ya sabemos. Se usa para negar, y claramente, cualquier
proposición se puede negar. La negación de una proposición es otra proposición. Y además,
si una proposición es verdadera, su negación es falsa, y si una proposición es falsa, su
negación es verdadera. Esta reflexión nos indica algo obvio: si una proposición es verdadera,
la negación de su negación también lo será. De ese modo, este argumento es válido:
Los perros son mamíferos.
No es verdad que los perros no son mamíferos.10
Es válido porque es imposible que la premisa sea verdadera y la conclusión sea falsa,
ya que esta es la negación de la negación de aquella. Por supuesto, este otro argumento
también es válido:
La Tierra es plana
No es verdad que la Tierra no es plana.
Estamos viendo que hay toda una familia de argumentos válidos: aquellos que constan
de una premisa, y tienen como conclusión la negación de la negación de la premisa. Es
fácil considerar que este es un paso trivial, pero en realidad, es imposible sobrestimar su
importancia. Porque al darlo, nos estamos independizando del contenido concreto de las
proposiciones, y aseguramos que cualquier inferencia que tenga una determinada forma será
válida. Esa forma identificada es, siendo p cualquier proposición:

p
negación de la negación de p
9 Es
importante remarcar que lo fundamental no son esas palabras en sí, sino la función que ellas cumplen
contribuyendo a las condiciones de verdad de los enunciados en que se encuentran.
10 Observe las contorsiones lingüísticas necesarias para que la negación de la negación de “Los perros son

mamíferos” quede expresada en una forma estilísticamente aceptable.


1.6 Una clase importante de argumentos válidos 29

A partir de aquí, nos resulta natural requerir un modo cómodo y compacto de indicar la
negación de una proposición a la que se está designando con p. Los lógicos han adoptado
varios, y en este libro lo haremos anteponiendo el símbolo ¬ a la letra p. Así, podemos decir,
por ejemplo, que todos los argumentos de la forma

p
¬¬p
son válidos. Hemos trabajado partiendo de la palabra “no”, pero podemos hacerlo igual-
mente con las expresiones restantes sobre las que llamábamos la atención al principio. Cada
una de ellas determina, en los contextos que hemos analizado, aspectos formales que tienen
un impacto absolutamente central en la evaluación de algunos argumentos.
El problema llamado “Los dos mentimos” gira alrededor de la palabra “y”. Allí fun-
ciona conectando dos proposiciones, y basamos nuestra inferencia en el hecho de que la
proposición obtenida al conectar las dos anteriores por medio del “y” es verdadera si las
dos que se conectan lo son y falsa en otro caso. Llamemos “conjunción” a esa conexión
y simbolicemos la conjunción de dos proposiciones designadas con p y q como p ∧ q. El
lector podrá convencerse fácilmente de que todos los argumentos que tengan las siguientes
formas son válidos:
forma 1 forma 2 forma 3 forma 4 forma 5
p ¬¬p
q p∧q p∧q q ¬p
p∧q p q p∧q ¬(p ∧ q)
Por ejemplo, un argumento de la forma 4 es válido porque siempre que ¬¬p y q sean
verdaderas, serán ¬p falsa y q verdadera, o sea que tanto p como q serán verdaderas, y
en ese caso, p ∧ q es verdadera. Observe que al intentar expresar de esta manera la última
inferencia presentada, recurrimos a los paréntesis. Una reflexión ligera le mostrará qué
hubiera ocurrido en caso de no colocarlos. Trataremos el punto más adelante.
En el problema llamado “Acá hay un mentiroso” razonamos sobre lo que imponía la
palabra “o” en ese contexto. Al igual que “y”, sirve para conectar dos proposiciones. Allí
entendimos que la proposición que se obtenía sería verdadera si una de las conectadas lo
era: es decir, que solo sería falsa si las dos conectadas eran falsas. Es este un sentido inclusivo.
Por supuesto, en español a veces se usa la palabra “o” en un sentido exclusivo, significando
que lo afirmado es verdadero solo cuando exactamente una de las proposiciones conectadas
es verdadera. Un ejemplo claro de esto es cuando un padre le dice a un hijo, “Te compro
la tableta o te doy dinero para que viajes con tus amigos.” Quizá el padre tiene dinero
suficiente para hacer las dos cosas, pero está implícito que no hará las dos. Aclarado esto,
consignemos que si llamamos disyunción a la conexión hecha por el “o” inclusivo y la
simbolizamos mediante ∨, todos los argumentos con las formas siguientes serán válidos,
como el lector sabrá reconocer:
forma 1 forma 2 forma 3 forma 4 forma 5
¬p ¬p
p q p∧q p∨q ¬q
p∨q p∨q p∨q q ¬(p ∨ q)
30 Capítulo 1. ¿Lógica?

Por ejemplo, una inferencia de la forma 4 será válida, porque es imposible que q sea
falsa siendo ¬p y p ∨ q verdaderas: si q fuera falsa, al ser ¬p verdadera, sería también falsa
p. Así, p ∨ q sería falsa.
El problema llamado “Si yo soy, él también” fue el más trabajoso, y por mucho. En
él examinamos lo que sucedía con la proposición que se obtenía conectando otras dos
por medio de la expresión “si . . . entonces . . . ”. Afirmamos que, al menos en ese contexto,
entenderíamos que la proposición formada solo sería falsa en un caso: cuando la proposición
que llamábamos antecedente fuese verdadera y la que llamábamos consecuente fuese falsa.
Si llamamos “condicional” a esa conexión que se establece, y simbolizamos como p → q
a la proposición de antecedente p y consecuente q, todos los argumentos con las formas
siguientes serán válidos:
forma 1 forma 2 forma 3 forma 4 forma 5
p ¬q
p→q q ¬p ¬(p ∨ q) p→q
q p→q p→q p→q ¬p
Por ejemplo, todo argumento con la forma 5 será válido, ya que si ¬q y p → q son
verdaderas, tenemos, por un lado, que q es falsa y por otro que no se da a la vez que p sea
verdadera y q falsa. Entonces tiene que ser p falsa, y por lo tanto, ¬p verdadera.
Y el último acertijo ambientado en la biblioteca que consideramos, el titulado “Todos
o ninguno” fue resuelto una vez que establecimos que la expresión “. . . si y solo si . . . ”
conecta dos proposiciones de modo que la proposición formada es verdadera si las dos
proposiciones conectadas son verdaderas o si las dos son falsas; y es falsa si entre las dos
proposiciones conectadas una es verdadera y la otra falsa. Llamamos bicondicional a esa
conexión. Simbolizándola mediante ↔, podemos ver que todos los argumentos de las formas
siguientes son válidos:
forma 1 forma 2 forma 3 forma 4 forma 5
p ¬p p p↔q ¬p
q ¬q ¬q q p∨q
p↔q p↔q ¬(p ↔ q) p ¬(p ↔ q)
Podríamos examinar la forma 5 considerando nuevamente el comportamiento de la dis-
yunción, pero preferimos hacerlo de la siguiente manera: Observe la forma que numeramos
4 al ejemplificar la disyunción. Tiene el mismo esquema de premisas que esta, y conclusión
q. Entonces, sabemos que si las premisas son verdaderas, q tiene que ser verdadera. Pero
además, si las premisas son verdaderas, obviamente ¬p es verdadera, de modo que p es
falsa. De modo que, al ser q verdadera y p falsa, es p ↔ q falsa, y por lo tanto, ¬(p ↔ q)
verdadera.
A esta altura, debería ser evidente que gracias a la identificación de la forma, tenemos
la posibilidad de afirmar que algunas inferencias son válidas, de darles “certificado de
calidad”, por decirlo de algún modo. Por ejemplo, podemos decir que el argumento
Miguel se levantará temprano hoy si y solo si entra a trabajar temprano hoy.
Miguel entra a trabajar temprano hoy.
Miguel se levantará temprano hoy.
1.7 ¿Qué es la lógica? 31

es válido porque tiene la forma que se muestra bajo el número 4 en los ejemplos vistos sobre
el bicondicional.
Por supuesto, son infinitas las formas debido a las cuales un argumento puede ser válido.
Hemos visto solo una pequeña colección de ellas. Lo fundamental de este apartado es que
hay argumentos o inferencias que son válidos en virtud de su forma.

1.7 ¿Qué es la lógica?


Acabamos de ver que hay inferencias o argumentos que son válidos en virtud de su
forma. Una pregunta sumamente interesante es si todos los argumentos válidos lo son en
virtud de su forma. Una ligera reflexión parece indicar que no es ese el caso. Considere el
siguiente:

Miguel tenía un perro llamado Sócrates.


Miguel tenía un animal llamado Sócrates.

Sin dudas, se trata de un argumento válido. No es posible que Miguel no tuviese un


animal llamado Sócrates bajo la condición de que tenía un perro llamado Sócrates, porque
los perros son animales. Pero el argumento es válido no gracias a su forma, sino a esa
relación que se da entre la clase de los perros y la de los animales. Un ejemplo clásico en la
literatura de argumento válido pero no en virtud de la forma es:

Miguel es soltero.
Miguel no está casado.

¿En qué se distingue la forma de ese argumento de la del siguiente?

Miguel es bajo.
Miguel no está acostado.

Si bien, por razones que veremos más adelante, se debe ser muy cauto al dictaminar que
un argumento válido no lo es en virtud de su forma, podemos advertir que hay argumentos
válidos cuya validez no relacionamos con su forma. La distinción es importantísima, porque
apunta a un rasgo central de la lógica, que destacaremos ahora, para terminar de caracterizar
a esa ciencia, al menos en forma preliminar.

lógica es la ciencia que, a través de la consideración de la forma los argumentos,


discierne entre válidos e inválidos y estudia las condiciones bajo las cuales, en
virtud de su forma, un argumento es válido.

Hemos hablado de “forma” de una manera muy laxa. Precisar la noción de forma será
nuestra próxima tarea, antes de ingresar al estudio de la Lógica.
32 Capítulo 1. ¿Lógica?

1.8 Ejercicios
1. Resuelva el siguiente nurikabe. Explicite el razonamiento hecho para resolverlo.

7 2 1 2
6
5 4 2 1
4 2
3 3
2 1
1 1
a b c d e f g

2. La vida del lógico y matemático Augustus De Morgan transcurrió en el siglo XIX. Se


sabe que tuvo la siguiente particularidad: uno de sus cumpleaños fue en el año que era
el cuadrado de la edad que estaba cumpliendo. ¿En qué año nació? ¿El razonamiento
que resuelve este problema impone que necesariamente la respuesta sea la dada? ¿La
respuesta se obtiene por una inferencia deductiva o inductiva?

3. De una secuencia se sabe que sus primeros términos son los que se muestran, y que
todos sus términos son letras. ¿Cuál es el primer término que no se muestra?

A, B, A, C, D, A, E, F, G, . . .

Explicite la inferencia por la que dio la respuesta. ¿Es deductiva o inductiva?

4. En los ejercicios 2 y 3 usted respondió si las inferencias hechas para resolver los
problemas planteados son deductivas o inductivas. ¿Realizó inferencias para saber si
las inferencias que le permitieron resolver los problemas son deductivas o inductivas?
En caso afirmativo, ¿estas segundas inferencias fueron deductivas o inductivas? ¿Debe
hacer alguna inferencia para saberlo? ¿De qué tipo es esta última inferencia, si es que
la hay? ¿Sugiere esto un regreso al infinito? ¿Podemos estar alguna vez seguros de que
una inferencia es inductiva? ¿Y deductiva?

Para llegar a la solución de algunos problemas es necesario hacer inferencias que tienen
como objeto otras inferencias. Ejemplos famosos son los planteados en los dos ejercicios
siguientes.

5. En una cárcel hay tres prisioneros y los carceleros prometen darle un premio a quien
logre deducir el color de un disco que le colocan en la espalda en las siguientes
condiciones: eligen discos de un conjunto de 5 entre los cuales hay 3 blancos y 2
negros, y le colocan uno en la espalda a cada prisionero. Ponen a estos en fila, de
modo que el último de la fila ve los discos de sus dos compañeros, el del medio ve
1.8 Ejercicios 33

el disco del primero, y el primero no ve ningún disco. Los carceleros le preguntan al


último de la fila si sabe de qué color es el disco que tiene en la espalda. Este responde
“No sé.”, lo que es escuchado por sus dos compañeros. Seguidamente preguntan al del
medio si sabe de qué color es el disco que tiene en su espalda. Este responde “No sé.”,
lo que es escuchado por el primero de la fila. Finalmente, preguntan al primero de
la fila si sabe de qué color es el disco que tiene en su espalda. Este responde que sí y
dice cuál es el color. ¿De qué color era ese disco?

6. Un encuestador se dirige a una casa y es atendido por una mujer. “¿Cantidad de


hijos?”, pregunta él. “Tengo tres hijas”, dice ella. “¿Cuáles son las edades de sus hijas?”,
pregunta el encuestador. La mujer responde: “El producto de las edades es 36 y la
suma es igual al número de ventanas del edificio de la esquina”. El encuestador se
va, pero al rato vuelve y le dice a la mujer que los datos que le dio no son suficientes.
La mujer piensa y le dice: “Tiene razón, la mayor tiene ojos azules”. Esto es suficiente
para que el encuestador sepa las edades de los hijos. ¿Cuáles son esas edades?

Los siguientes tres ejercicios están ambientados en la biblioteca donde solo se encuentran
obras de Veratius y Mendacius, y todo lo escrito por el primero es verdadero mientras que
todo lo escrito por el segundo es falso.

7. En la biblioteca encontramos tres libros en un estante. El primero, llamado Azur, tiene


el primer folio ilegible. El segundo, titulado Baroco, dice en su primer folio: “Azur
empieza diciendo que de los libros de su estante, exactamente dos fueron escritos por
Mendacius”. El tercero, cuyo título es Camestrop, dice en su primer folio: “Baroco fue
escrito por Mendacius”. ¿Quién escribió Camestrop?

8. En otro estante de la biblioteca hay tres libros. Uno de ellos dice que de los libros del
estante, exactamente uno fue escrito por Mendacius, otro dice que de los libros del
estante, exactamente dos fueron escritos por Mendacius y el último dice que los tres
libros del estante fueron escritos por Mendacius. ¿Quién escribió cada uno?

9. Uno de los libros de la biblioteca guarda el secreto de la vida. Los bibliotecarios


no saben cuál es ese libro, pero sí saben que se trata de uno entre cinco, llamados
Abbadon, Baal, Crocell, Decarabia y Empusa.
No permiten acceder a ellos libremente, como a los demás libros, y han establecido
la regla de que si alguien solicita uno, se le dará, pero con eso quedará impedido de
acceder a los otros cuatro. Como queremos conocer el secreto de la vida, sobornamos
a un bibliotecario, que accede a darnos información acerca de lo que está escrito en
esos libros.
Nos da una hoja donde se indica el libro y una frase textual copiada de él:

abbadon Decarabia no explica el secreto de la vida.


baal Crocell explica el secreto de la vida.
crocell En mis páginas se encuentra el secreto de la vida.
34 Capítulo 1. ¿Lógica?

decarabia El secreto de la vida está explicado en mis páginas, o en las de Abbadon o en las
de Baal.
empusa El secreto de la vida se explica en Baal o en Decarabia.

Al leerla nos damos cuenta de que el bibliotecario solo extrajo oraciones que mencio-
naban el secreto de la vida pero no nos trajo nada que nos permita guiarnos en el
problema de determinar la autoría. Se lo explicamos y nos dice que nos puede traer
menos datos que la otra vez, porque teme que lo encuentren copiando de los libros,
cosa que tiene prohibida.
Nos trae lo siguiente:

abbadon Decarabia fue escrito por Veratius.


baal Decarabia fue escrito por Mendacius. De hecho, de entre Abbadon, Baal, Crocell,
y Decarabia, Baal es la única obra de Veratius.
crocell Empusa fue escrito por Veratius.

¿Qué libro debemos pedir para conocer el secreto de la vida?

En los siguientes ejercicios se trabajará con textos que se alejan de la asepsia común en
los textos de lógica.

10. Considere los dos textos siguientes:


a) En el principio creó Dios los cielos y la tierra. Y la tierra estaba desorde-
nada y vacía, y las tinieblas estaban sobre la faz del abismo, y el Espíritu
de Dios se movía sobre la faz de las aguas. Y dijo Dios: Sea la luz; y fue la
luz. Y vio Dios que la luz era buena; y separó Dios la luz de las tinieblas.
Y llamó Dios a la luz Día, y a las tinieblas llamó Noche. Y fue la tarde y la
mañana un día.
b) El universo tal como lo conocemos debe haber tenido un principio, ya
que las galaxias parecen alejarse de nosotros a velocidades proporcionales
a su distancia. Esta observación apoya la idea de que el universo se está
expandiendo y si consideramos que esto ha estado sucediendo en el pasado,
el universo debe haber estado compactado. Por otra parte, si el universo
estuvo inicialmente muy caliente, como la teoría del Big Bang sostiene,
deberíamos ser capaces de encontrar algún resto de esa energía. En 1965,
Penzias y Wilson descubrieron una Radiación de Fondo de Microondas
Cósmica de 2,725 grados Kelvin ubicua en el universo observable. Esa es la
huella que ha dejado aquel estado increíblemente energético.
¿Se expresan proposiciones en las oraciones de ambos textos? ¿Expresan argumentos
ambos textos? ¿Hay un argumento válido expresado en alguno de los textos? Explique.

11. Los siguientes textos expresan argumentos. Explicite la conclusión y las premisas.
a) El país debe mejorar urgentemente su sistema educativo aunque más no
sea porque necesita combatir en el largo plazo la pobreza y la delincuencia.
1.8 Ejercicios 35

Desde hace muchos años, todos los observadores coinciden en que la edu-
cación se encuentra en un proceso de deterioro acelerado. Sin ciudadanos
formados, la democracia se convertirá en un circo. Solo podremos evitarlo
dando educación de calidad a nuestros jóvenes.
b) El problema de la corrupción aparece en los medios todos los días. La
gente lo comenta en las redes sociales, reproduce editoriales y entrevistas.
Algunos candidatos prácticamente no se expresan sobre otra cosa. La corrup-
ción es una amenaza para el correcto funcionamiento de la democracia, pero
a pesar de su importancia, este tema no debería ocupar un lugar central en
las campañas políticas. Los candidatos y partidos tienen diferencias sobre
varios temas, algunos de los cuales son mucho más importantes para nuestro
destino que una corrupción que hasta ahora el poder judicial ha podido
descubrir y castigar. Si no atendemos a problemas como la educación, la
seguridad y la salud, sencillamente no valdrá la pena ningún sistema de
gobierno que nos podamos dar. No debería haber un criterio único para
tomar decisiones políticas en nuestra situación tan compleja e inestable.
El siguiente ejercicio presenta reconstrucciones de argumentos importantes en la historia
de la filosofía. No están en la forma original presentada por sus autores, sino que su
presentación se adapta a los propósitos de este curso.

12. Identifique premisas y conclusión. Represente los siguientes argumentos con los
símbolos que se han presentado informalmente en este capítulo.
Si la ética depende de la voluntad de Dios, entonces las cosas buenas son
buenas porque Dios las quiere. Las cosas buenas no son buenas porque Dios
las quiere. La ética no depende de la voluntad de Dios.
[Platón (ca. 428 a.C./427 a.C.– 347 a.C.) en el Eutifrón. Este argumento hace honor a
Platón en su indiscutida brillantez para encontrar problemas filosóficos. Lo que este
argumento pone en cuestión es, en algún sentido, más básico que el problema del mal
para los creyentes en un Dios providente y omnipotente. Las posibilidades parecen ser
dos: Una es que las cosas buenas sean buenas porque Dios las quiere y en ese caso, si
Dios quisiera la mentira, el asesinato y la violación ¿esas cosas serían buenas? (esto
es inaceptable para Platón –y probablemente para cualquier persona decente, el grito
del fanático es “Dios lo quiere”, seguido de una atrocidad). Otra es que Dios quiera
algunas cosas porque son buenas en sí (esto es lo que plantea el argumento), y en ese
caso ¿quién manda acá, Dios o la Ética?]
Si Dios existe en el entendimiento y no en la realidad, es concebible un ser
mayor que Dios. Es falso que se puede concebir un ser mayor que Dios. Dios
existe en el entendimiento. Dios existe en la realidad.
[San Anselmo (1033-1109) en el Proslogion. Esta es la primera versión del argumento
ontológico (se llama “argumento ontológico” a aquel que pretende demostrar la exis-
tencia de Dios a partir de premisas a priori, es decir, independientes de la experiencia)
a favor de la existencia de Dios, retomado posteriormente por filósofos célebres como
Descartes, Leibniz, Spinoza y en nuestros días, Plantinga y nada menos que Gödel.
36 Capítulo 1. ¿Lógica?

Refutado por filósofos no menos célebres como Santo Tomás, Hume, Kant. Es uno de
los argumentos más discutidos en la historia de la Filosofía.]
Si la existencia es una perfección y Dios, por definición, tiene todas las
perfecciones, entonces Dios, por definición, debe existir. Dios por definición
tiene todas las perfecciones. La existencia es una perfección. Por definición,
Dios debe existir.
[Descartes (1596-1650) en las Meditaciones metafísicas (1641). Descartes necesitaba a
Dios para salir de los problemas que él mismo había generado con la duda metódica,
al crear argumentos escépticos de una fuerza desconocida hasta entonces. Más allá
del contexto histórico en que surge el cartesianismo, (con lo que a veces se intenta
explicar la introducción de Dios) la función que este cumple en su sistema es la de
garante de conocimiento. Esta es la versión cartesiana del argumento ontológico. A
pesar de haber sido publicada 600 años después del primer argumento ontológico, es
mucho más débil que esa primera versión. Presenta una falla que mostraremos más
adelante en el curso.]
Si tenemos conocimiento, entonces o algunas cosas son conocidas sin prueba
o podemos probar toda premisa mediante premisas previas, y así sucesiva-
mente. No podemos probar toda premisa mediante premisas previas y así
sucesivamente pero tenemos conocimiento. Algunas cosas son conocidas sin
prueba.

[Aristóteles (384 a. C. – 322 a. C.). Esta concepción aristotélica, que lleva directamente
a los sistemas axiomáticos, ha sido probablemente una de las ideas más influyentes en
la historia de la ciencia. El sistema axiomático más famoso y que fue considerado por
dos milenios como el paradigma de la perfección científica es también un producto
griego, los Elementos de Euclides. El libro más editado en la historia es por supuesto
la Biblia, en segundo lugar se encuentran los Elementos.]

En el siguiente ejercicio se mostrará un ejemplo de la relación entre forma y validez.

13. Considere el siguiente texto, aceptando que las palabras que no conoce expresan
proposiciones. Intente evaluar si el argumento que en tal caso se expresaría es válido,
ayudándose con los símbolos que hemos presentado informalmente.
Si wu shu o miao entonces wu-wei. Pero no wu-wei. Además, wu shu si y solo
si chung. Por otro lado, chung o ping. Por lo tanto, ping.

Finalmente, se considerará una dificultad frecuente a la hora de identificar argumentos.


Las premisas y la conclusión a veces no se presentan con marcas lingüísticas inequívocas.
En tales casos, una buena guía para el estudiante de filosofía es el principio de benevolencia.
Este indica que al reconstruir un argumento, se debe elegir de entre todas las posibilidades,
aquella que hace que el apoyo de las proposiciones que tomamos como premisas a la
proposición que tomamos como conclusión sea el máximo posible.
1.8 Ejercicios 37

14. Explicite premisas y conclusión de los argumentos expresados en los siguientes textos
utilizando el principio de benevolencia. Represente los argumentos con los símbolos
que hemos presentado informalmente. Argumente acerca de su validez.
a) Te sentirás muy mal si fracasas. Si le das demasiada importancia al éxito,
te sentirás muy mal si fracasas. Le das demasiada importancia al éxito.
b) Si dices tonterías, bebiste mucho. No dices tonterías. No bebiste mucho.
2 | Naturaleza, artificio y forma

i bien la lógica como ciencia comienza con los trabajos de Aristóteles ([Ari82] y [Ari95]),

S la preocupación por la calidad de los argumentos es anterior a él, como puede verse
claramente en algunos pasajes de la obra de Platón1 .
La evaluación de la calidad argumentativa tiene múltiples facetas, de las cuales la lógica
es apenas una de ellas. Un argumento puede ser impecable desde el punto de vista lógico;
es decir, sus premisas pueden apoyar en máximo grado a su conclusión, pero sin embargo,
es posible que ese argumento no sea en absoluto convincente. Eso sucederá en el caso de
que las premisas sean evidentemente falsas, por ejemplo. Otro caso en el que sucedería eso
sería el siguiente: imagine a un teísta discutiendo con un ateo, intentando convencerlo de la
existencia de Dios, y proponiendo para eso este argumento

Dios existe o dos más dos es igual a cinco.


Dos más dos no es igual a cinco.
Dios existe.

El argumento es, como el lector sabrá apreciar, válido. Impecable desde el punto de vista
lógico. Pero no es de extrañar que el ateo no se sienta impresionado por él. Sencillamente
responderá que la primera premisa es falsa. Si bien la primera premisa no es evidentemente
falsa, no es en modo alguno más segura que la conclusión, de modo que quien dude de esta
antes de enfrentarse al argumento, rechazará aceptar esa premisa cuando se la expresen.
Así como hay argumentos que, aunque son impecables desde el punto de vista lógico,
tienen muy poco valor persuasivo y cognitivo, como el acabamos de ver, también hay
argumentos defectuosos desde el punto de vista lógico que se han mostrado extremadamente
persuasivos. Un ejemplo que se ve frecuentemente en las redes sociales, también asociado
con discusiones religiosas, es el siguiente:

Todas las cosas tienen una causa.


Hay una causa de todas las cosas.

Este último argumento ha convencido a mucha gente a través de la historia, y sigue


haciéndolo hoy. Pero no es válido: perfectamente puede pasar que cada cosa tenga una
causa (que es lo que afirma la premisa), y no haya algo que sea causa de cada una de las
1 Especialmente recomendable es la lectura del divertido diálogo titulado Eutidemo, que se encuentra en

[Pla87], en el que se contraponen dos formas muy diferentes de argumentar: la sofística y la socrática o platónica.
Se debe recordar al leerlo, por supuesto, que el autor del diálogo es parte interesada.
40 Capítulo 2. Naturaleza, artificio y forma

cosas. Si el lector tiene dudas, piense que cada ser humano tiene una madre, pero no hay
nada que sea madre de cada uno de los humanos.
La preocupación por la calidad lógica de los argumentos surge de que los humanos
somos falibles y no lo sabemos todo. Debemos inferir, y a veces lo hacemos en formas que
nos llevan de premisas verdaderas a conclusiones falsas, aun en casos en los que estamos
convencidos de que la verdad de las premisas asegura la de la conclusión. No estamos
pensando en los casos en que se proponen malos argumentos desde el punto de vista lógico
con intención de engañar a los demás, que los hay. Estamos pensando en que simplemente,
a veces caemos en error sin advertirlo. Y como la actividad inferencial y argumentativa está
en la base de nuestra sobrevivencia y de las posibilidades de mantener la civilización, el
control de la calidad argumental es de primordial importancia.

2.1 Las lenguas naturales


Aristóteles no fue el primero en pensar en la calidad de los argumentos, pero sí fue
el primero en hacerlo del modo sistemático y característico de la lógica. Siendo el más
prominente intelectual de la civilización griega2 , la que había alcanzado un altísimo grado de
desarrollo en las actividades intelectuales, Aristóteles tenía acceso a multitud de inferencias
de diversos tipos y provenientes de diferentes campos. Se argumentaba en el ágora, en
la matemática, en la filosofía. Aristóteles mismo tenía un proyecto de ciencia, y en él la
inferencia válida tenía un papel explícito y central.
La lógica aristotélica en sí no es nuestro centro de interés aquí –veremos más tarde que
puede ser reinterpretada como un pequeño fragmento de la lógica que vamos a estudiar
en este libro–, pero nos interesa remarcar algo obvio: las inferencias a las que Aristóteles
tuvo acceso como material primario para iniciar sus reflexiones sobre la calidad argumental
estaban expresadas en dialectos griegos. Es decir, en lenguas naturales. Es de notar que
Aristóteles consideró que el pródromo necesario para embarcarse en el estudio de la calidad
argumental era un examen cuidadoso de la lengua. Así, el primer libro del corpus de
trabajos de Aristóteles sobre lógica se llama Categorías y en él se clasifican de diversas formas
los vocablos. Este estudio se ha visto también como un tratado con fuertes tintes metafísicos,
pero el hecho es que dio pie, por ejemplo, a vastas investigaciones gramaticales. En el curso
de sus reflexiones, Aristóteles se percató de que le convenía apartarse, en cierta medida,
del lenguaje natural para evaluar la calidad de los argumentos. Uno de los motivos que
tuvo para ello es bastante obvio. Recordemos la famosa inferencia que todos sufrimos en la
educación secundaria

Todos los hombres son mortales.


Sócrates es hombre.
Sócrates es mortal.

Aristóteles advirtió que se trata de un argumento válido, y más aun: advirtió que se trata
de un argumento válido en virtud de su forma. (Se trata de una forma que no vimos en el
capítulo anterior pero estudiaremos más adelante). Si se sustituye “hombres” y “mortales”
2 Según la opinión del autor, Aristóteles es el más grande intelecto que la humanidad ha dado, y la especie

humana es la que da los intelectos mayores que se conocen.


2.1 Las lenguas naturales 41

por el nombre de otros dos colectivos, y “Sócrates” por el nombre de otro individuo, sean
estos los que fueren, la inferencia resultante será válida:

Todos los estafadores son poetas.


Empédocles es estafador.
Empédocles es poeta.

Aristóteles dio un paso fundamental al sustituir por letras los nombres de colectivos,
afirmando que todas las inferencias de la forma

Todos los A son B.


s es A.
s es B.

son válidas. Este primer paso era un avance enorme, porque si algo es la forma, tiene que ser
una estructura compartida por una clase de argumentos, y esta representación la muestra en
forma mucho más clara que la repetición de una cantidad arbitraria de ejemplos en griego,
en español o en cualquier lengua natural. Decimos que Aristóteles se apartó un poco del
uso de su lengua materna porque, obviamente, la gente no anda diciendo por ahí cosas
como “Todos los A son B”. Persiste el marco de la lengua natural, pero se han introducido
elementos que no pertenecen a ella.
Había además otros motivos de preocupación acerca la adecuación del lenguaje natural
como instrumento para la evaluación argumental, algunos de los cuales fueron advertidos
por el propio Aristóteles. Por ejemplo, en el lenguaje natural se dan fenómenos como
la polisemia y la ambigüedad estructural. La polisemia puede ser utilizada para generar
argumentos aparentemente buenos pero que en realidad son de pésima calidad, en los que
se entiende una palabra de un modo en una premisa y de otro modo en la conclusión:

El banco de la plaza tiene cuatro patas.


Los bancos son instituciones financieras.
Hay una institución financiera que tiene cuatro patas.

La ambigüedad estructural puede hacer que una oración asertiva, correctamente construi-
da desde el punto de vista gramatical, adopte una forma que impida saber qué proposición
está expresando:
Juan estudia filosofía y artes marciales o tarot.
No sabemos si lo que esa oración expresa es que Juan estudia filosofía y además, al
menos una de entre las dos otras disciplinas nombradas, o si la oración expresa que al
menos una de estas dos posibilidades se cumple: Juan estudia filosofía y artes marciales a la
vez y Juan estudia tarot.
Estas características, que no parecen deseables para los propósitos de la evaluación
argumental, al menos desde el punto de vista lógico (es muy posible que sean muy valiosas,
por ejemplo, desde un punto de vista retórico) no son evitables en el marco de las lenguas
naturales. No se puede someter a las lenguas naturales a reformas impulsadas por la conve-
niencia o el deseo de las elites intelectuales. Como dijo un gramático al emperador romano
42 Capítulo 2. Naturaleza, artificio y forma

Tiberio, se puede dar ciudadanía a los hombres, pero no a las palabras3 . En reconocimiento
de esta realidad, el aliento normativo de la Real Academia está muy debilitado, pretende
ahora registrar los usos, ya no “limpia, fixa y da esplendor” a la lengua.
Las lenguas naturales no surgen de un convenio explícito entre los hombres, no tienen
una sintaxis y una semántica regida por reglas fijas, no son inmutables. Se parecen a
especies de seres vivos, están sometidas a procesos de evolución natural. Permiten la
metáfora, todos los tropos, la función poética. Y esta misma riqueza y ductilidad es la que
los hace instrumentos de muy difícil manejo para el estudio de la corrección argumental
desde el punto de vista lógico.

2.2 Lenguas artificiales


Se podría decir que hasta la modernidad los hombres más avisados advirtieron, en
algunos casos, las complejidades propias del uso de los lenguajes naturales. Por ejemplo, la
Edad Media fue testigo del surgimiento de teorías muy refinadas, como las de la significación,
de la suposición, de la distribución, que lograban en buena medida dar cuenta de esas
complejidades. Hacia el siglo XIV se disponía de dispositivos teóricos que permitían tratar
perfectamente la diferencia entre decir que los perros están comiendo carne, que los perros
son una especie y que los perros son dos palabras4 .
Con el advenimiento de la modernidad surge una actitud decididamente inconformista
y revolucionaria con respecto al lenguaje natural. Hasta ese momento, los pensadores que
habían considerado imperfectas las lenguas naturales, habían creído que las “imperfeccio-
nes” se debían a un proceso de degradación sufrido por una lengua perfecta originaria,
seguramente la lengua que Adán hablaba en el paraíso, la lengua común de la humanidad
antes de que Dios castigara la arrogancia humana en Babel. Con los nuevos esquemas de
pensamiento aparece una fuerte denuncia de las limitaciones de las lenguas naturales, junto
con el reclamo de la construcción de una lengua universal que superase esas deficiencias.
No todos los pensadores cultivaron ambas facetas, la crítica y la propositiva, pero la época
agudizó la primera y prohijó la segunda.
Francis Bacon, en su obra Novum Organum5 , publicada en 1620, dedica una buena parte
a la discusión de lo que llama “ídolos”. Estos son ilusiones, obstáculos o impedimentos
de diversas clases que perturban o inclusive imposibilitan el razonamiento correcto. Bacon
distingue cuatro clases de ídolos, entre las cuales hay una, los ídolos del foro, que está
directamente relacionada con el lenguaje natural.

Aforismo XLIII: Hay también ilusiones que surgen por acuerdo y de la asociación
de los hombres entre sí, a las que llamaremos ídolos del foro (...). Los hombres
se asocian a través del habla, y las palabras son elegidas para que se acomoden
3 La única referencia que he encontrado de esta maravillosa anécdota es [Mül61]
4 Talvez el lector eche de menos las comillas en la última oración. No fueron colocadas porque su utilización
para distinguir entre uso y mención no fue conocida por los medievales. Ellos dirían que “los perros” está en
suposición material. Quien haya leído la novela El nombre de la rosa, de Umberto Eco, recordará que en ella
Guillermo resuelve un enigma a partir de un relato casual de Adso y de su conocimiento de la suposición
material.
5 El título alude directamente a los trabajos sobre lógica de Aristóteles, cuya compilación es conocida como

Organum, “instrumento”. Aristóteles no creía que la lógica fuese una ciencia, sino un pródromo necesario para
todas las ciencias, un instrumento indispensable en todas ellas.
2.2 Lenguas artificiales 43

al entendimiento de la gente común. Y así un código pobre e inepto obstruye en


forma increíble el entendimiento. . .

Aforismo LIX: Pero los ídolos del foro son los que mayores perturbaciones
causan, porque se han ocultado en el entendimiento a partir del convenio
sobre palabras y nombres. Porque los hombres creen que su razón controla
las palabras. Pero también es verdad que las palabras reaccionan y dirigen su
fuerza contra el entendimiento: y así la filosofía y las ciencias se han vuelto
sofísticas e improductivas. Y las palabras (. . . ) disecan las cosas a lo largo de las
líneas más obvias al sentido común. Y cuando un entendimiento más agudo, o
una observación más cuidadosa intenta dirigir esas líneas en mejor acuerdo con
la naturaleza, las palabras resisten.

Aforismo LX: Las ilusiones que las palabras imponen al entendimiento son de
dos clases. O bien son nombres de cosas que no existen (. . . ) o bien son nombres
de cosas que existen pero son confusas y están mal definidas (. . . )6

Las lenguas filosóficas


Unos cuarenta años después, también en las islas británicas, aparecen los esbozos de
lenguas filosóficas que, de tener éxito, superarían todas las maldiciones del lenguaje natural
denunciadas por Bacon. George Dalgarno y John Wilkins son los nombres de quienes
presentaron esos esbozos. La idea de las lenguas filosóficas, que explicaremos brevemente,
está inspirada en algo que había ya llamado la atención de Descartes: a pesar de que un
alemán y un francés hablan lenguas diferentes, ambos, frente a la cadena de caracteres
92357865 reconocen el mismo número, aunque nunca la hayan visto antes, y aunque cada
uno en su lengua la nombre en forma diferente. El objetivo era lograr algo análogo con una
lengua creada justamente con ese propósito: los nombres debían codificar de alguna manera
sus referentes –Descartes, luego de considerar la idea, no la consideró realizable–. Esto se
conseguiría de la siguiente manera: se clasificarían los conceptos, asociando un carácter
a cada uno de ellos. Lo que sigue es un ejemplo totalmente ficticio, inventado solo con
el propósito de que se comprenda la idea. Supongamos que hemos dividido las cosas en
materiales e inmateriales. A “materiales” le asignamos el carácter µ. Supongamos además
que convenimos en que las cosas materiales se dividen en varias especies, una de las cuales
es “artefactos”. A esta especie le asignamos el carácter α. También los artefactos, como
género, presentan especies: una de ellas podría ser “con mango”, a la que asignamos el
carácter γ. A su vez, de aquí podrían surgir subdivisiones, una de las cuales podría ser
“para golpear”, a la que le asignamos el carácter λ. Así, una lengua en la que el nombre de
los martillos fuera µαγλ tendría a su favor que si alguien no sabe lo que es un martillo, el
simple hecho de nombrárselo mediante esa palabra le explicará qué es.
Esto muestra también la dificultad básica de la empresa. Como Dalgarno advirtió, antes
de diseñar la lengua en sí se debe disponer de una clasificación adecuada de las cosas
de las que se desea hablar. No podemos distraernos con las dificultades que presentan
los proyectos taxonómicos, pero en resumen la dificultad de encontrar una clasificación
adecuada parece irremontable –fue brillantemente utilizada por J. L. Borges en su escrito El
6 Los aforismos fueron traducidos de [Bac03].
44 Capítulo 2. Naturaleza, artificio y forma

idioma analítico de John Wilkins [Bor74], el que a su vez fue fermental, según consigna el autor,
en la creación de Las palabras y las cosas [Fou02], de Michel Foucault. Pero además de la
dificultad taxonómica, plagada de complicadísimas cuestiones metafísicas y gnoseológicas,
parece inevitable dar la clasificación en una lengua natural, introduciendo los defectos que
se querían evitar. El lector interesado puede saciar su curiosidad leyendo el excelente libro
de Umberto Eco [Eco99].
Una de las mentes más brillantes del siglo, Leibniz, soñó con una lengua universal de
propiedades asombrosas. Aunque el proyecto leibniciano presenta dificultades hermenéuti-
cas y hay una copiosa literatura al respecto, existe consenso acerca de que se trataría de un
sistema lingüístico basado en caracteres sobre los que se pudiese aplicar un cálculo de modo
que solamente se pudieran producir proposiciones verdaderas. Si le suena familiar, no se
asombre: la lógica matemática es hija de ese sueño de Leibniz, solo que este era muchísimo
más complexivo. En palabras del propio Leibniz

Todo razonamiento humano se realiza por medio de ciertos signos o caracteres.


No solamente las cosas mismas, de hecho, sino ni siquiera las ideas de las cosas
pueden siempre, ni deben, ser observadas distintamente, y por tanto, en lugar
de éstas, por razones de brevedad, se utilizan signos (. . . ) Por esto se ha llegado
a asignar nombres a los convenios, a las figuras y a las distintas especies de
cosas, signos, signos a los números de la aritmética y a las magnitudes del
álgebra . . . En la categoría de los signos, pues, incluyo las palabras, las letras,
las figuras químicas, astronómicas, chinas, jeroglíficas, las notas musicales, los
signos esteganográficos, algebraicos, aritméticos y todos los otros que usamos en
lugar de las cosas en nuestros razonamientos. Los signos escritos, o dibujados,
o esculpidos, se llaman caracteres... Las lenguas comunes, aunque sirven para
el razonamiento, no obstante están sometidas a innumerables equívocos, y
no pueden ser utilizadas para el cálculo, de manera que se puedan descubrir
los errores de razonamiento remontándose a la formación y a la construcción
de las palabras, como si se tratase de solecismos o barbarismos. Esta ventaja
admirabilísima hasta ahora solo la proporcionan los signos empleados por los
aritméticos y los algebristas, para quienes todo razonamiento consiste en el uso
de caracteres, y todo error mental equivale a un error de cálculo. Meditando
profundamente sobre este tema, de pronto vi claro que todos los pensamientos
humanos podían resumirse completamente en unos pocos pensamientos que
deben considerarse como primitivos. Si luego se les asignan los caracteres a
estos últimos, a partir de aquí se pueden formar los caracteres de las nociones
derivadas, de donde siempre es posible extraer sus requisitos y las nociones
primitivas que las componen, es decir, las definiciones y los valores, y por lo
tanto, también sus modificaciones que se pueden derivar de las definiciones.
Una vez hecho esto, quien se sirva de los caracteres así descritos a la hora de
razonar o de escribir, o bien no cometerá nunca errores, o los reconocerá siempre
por sí mismo, ya sean suyos o de otros, mediante comprobaciones muy simples.
[Eco99]

Para entender las motivaciones que Leibniz podría tener para sostener este grandioso
proyecto, conviene recordar algunos elementos:
2.2 Lenguas artificiales 45

Él fue uno de los creadores del cálculo diferencial e integral. Lo hizo en forma
independiente de Newton, utilizando una notación mucho más práctica que este. La
notación leibniciana estaba tan adecuadamente elegida –es, básicamente, la que se usa
hoy universalmente– que facilitaba enormemente los cálculos.
Produjo modelos aritméticos de la lógica aristotélica. Por ejemplo, si a animal se le
asigna el número 2, a racional el 3, dado que hombre es, por definición, un animal
racional, se le asignará el 6, producto de 2 y 3. La pregunta acerca de si el hombre es
animal, racional, o las dos cosas, queda respondida al factorizar el 6.
Además, Leibniz consideraba que la razón podría descubrir todas las verdades. La
explicación de esto no nos interesa aquí, pero está intrínsecamente relacionada con su
concepto acerca de cómo Dios había creado el mundo.

No es objetivo de este libro decir más sobre las lenguas filosóficas, excepto que todos
estos proyectos parecen tener un punto débil común, sobre el que pronto confluyó la
crítica: necesitan codificar de alguna manera conceptos primitivos, y la identificación de
estos presupone una estructura en la naturaleza que parece al menos, extremadamente
dudosa, y es muy razonable pensar que el conocimiento humano puede organizarse de
muchos modos diferentes, de modo que un objeto que se incluye en una clase por algunas
propiedades, se considera también miembro de otra por otras propiedades. Un ejemplo
simple aclarará el punto: si se desea tener un lenguaje en el que nombres diferentes
correspondan a objetos diferentes, si se nombra al número 2 en una lengua filosófica por
la propiedad de ser el menor par, debería prohibirse nombrarlo como el menor primo,
o si no introduce esta interdicción, debería ser posible identificar ambos nombres como
correferenciales. En el caso del lenguaje matemático parece razonable esperar esta posibilidad
en principio, mediante el cálculo, aunque profundos descubrimientos del siglo XX arrojan una
larga sombra de duda sobre este optimismo restringido a lenguajes que pretendan hablar
“simplemente” de la aritmética. Pero además de este problema, ¿cómo hallar esos caracteres
primarios, reales, que se relacionen directamente con la estructura de la realidad? ¿Cuáles
son las propiedades básicas a partir de las cuales se pueden describir todas? Problemas
aparentemente insuperables que bloquearon el camino a la realización de los sueños de
lenguas filosóficas universales.

Las lenguas internacionales


Mencionamos brevemente aquí otro intento de apartarse del lenguaje natural, pero
con propósitos diferentes a los de las lenguas filosóficas. Las lenguas internacionales son
creaciones que se proponen con el único objeto de facilitar la comunicación entre personas
con lenguas maternas diferentes. Es de observar que durante siglos, el latín cumplió esta
función en Occidente. Pero en la época del auge de las lenguas internacionales –el siglo
XIX–, el latín había dejado de cumplirla, y se consideraba impensable que alguna de las
lenguas vivas pudiera hacerlo. De ese modo, algunas personas consideraron que la solución
al problema de la comunicación de todos los humanos podría resolverse mediante una
lengua artificial.
Existen varias de estas lenguas, de las cuales tal vez las más importantes son el volapük y
el esperanto. Toman raíces léxicas de diversas lenguas naturales, y tienden a tener gramáticas
absolutamente regulares. El volapük, surgido en 1879, tuvo un momento de auge hacia
46 Capítulo 2. Naturaleza, artificio y forma

fines del siglo XIX, pero las disensiones entre sus hablantes sobre la conveniencia o no de
introducir reformas, y la competencia con el esperanto, surgido en 1887 con una gramática
más sencilla, determinaron que paulatinamente se fuera reduciendo la comunidad que lo
sostenía. Hoy se calcula que lo hablan menos de una centena de personas en el mundo.
El esperanto conoció un éxito mucho mayor. Posiblemente más de un millón de personas
lo hablen actualmente, y se supone que unos pocos miles lo han aprendido en su entorno
familiar, no como resultado de un estudio; de modo que se los puede considerar hablantes
nativos.
Las lenguas internacionales sufren siempre la tensión de su transformación con el uso,
como le sucede a las lenguas naturales. Desde determinado punto de vista, no es incorrecto
decir que las palabras que usted está leyendo están escritas en latín transformado. Si bien el
español tiene como ancestro al latín, no hubo un momento en el que la gente decidió crear el
español, sino que surgió como resultado de un lento proceso natural, de un modo análogo a
como una especie surge de otra como resultado de la evolución. Pero el español no es la
única lengua romance. Si el esperanto diera origen a lenguas tan distantes como el español y
el rumano, su propósito original se vería totalmente traicionado. Por ese motivo, las lenguas
internacionales se normativizan fuertemente, y eso hace que, al decir de algunos, se parecen
a las lenguas filosóficas en su rigidez, pero sin tener las ventajas que estas pretendían tener
al vincular estrechamente morfología y semántica, mientras que, debido a esa rigidez, no
poseen las ventajas expresivas del lenguaje natural.

Otras lenguas artificiales

Existen otras lenguas artificiales, que tienen propósitos diferentes. Todos conocemos
que algunas lenguas han sido creadas por motivos artísticos, tales como el sindarin o élfico
gris, creado por Tolkien, que aparece en El señor de los anillos. Obviamente, no cumplen otra
función aparte de su pertenencia a una obra literaria.
Inclusive, sin propósitos artísticos, hay personas que crean lenguas. El lector puede
encontrar un manual de construcción de lenguas artificiales en la página The Language
Construction Kit, cuya URL es http://www.zompist.com/kit.html.
Diferente es el caso de la lengua Lincos (nombre que abrevia la expresión latina lingua
cosmica). Esta lengua, creada por Hans Freudenthal en 1960, tiene como propósito la co-
municación con inteligencias extraterrestres. Se trata de un proyecto científico serio, no de
una fantasía ovnivológica. El proyecto SETI rastrea desde hace años el cielo en busca de
señales de exointeligencia. Si encontrásemos una señal electromagnética de la que la mejor
explicación fuese que ha sido emitida por seres inteligentes, ¿cómo podríamos intentar
comunicarnos con sus emisores? Dado que esos emisores presumiblemente sean muy dife-
rentes a los humanos, la tarea no es sencilla. Lincos está pensada para poder “enseñarse”,
y buena parte del programa consiste en la secuenciación de emisiones con ese fin. Es de
destacar que la lengua comenzaría a enseñarse con términos de aritmética en base 2, y luego
continuaría con las lógicas que vamos a estudiar en este libro. Esto es un reconocimiento
implícito de la consideración –que tal vez no recoja unanimidades entre los filósofos– de
que la aritmética y la lógica son universales, compartibles por todas las inteligencias del
universo.
2.3 Lenguajes formales 47

2.3 Lenguajes formales


Los lenguajes formales no son lenguas naturales ni artificiales. No están pensados
para ser hablados, ni para expresar todo. Son lenguajes que se crean con propósitos muy
específicos. En nuestro caso, el propósito está relacionado con la evaluación de las inferencias
o argumentos. Veamos la motivación que impulsó a Gottlob Frege, considerado el más
grande lógico de la historia después de Aristóteles (veremos por qué, cuando estudiemos la
lógica de primer orden) a crear un lenguaje formal, cuando se enfrentó a la tarea de evaluar
inferencias que se daban en matemática:

. . . para que no pudiera introducirse inadvertidamente algo intuitivo, se debió


llegar a suprimir toda laguna en la cadena de inferencias. Al procurar cumplir lo
más rigurosamente posible con este requerimiento, me encontré, junto a todas
las dificultades que surgen de la expresión, un obstáculo en la inadecuación del
lenguaje: cuanto más complicadas eran las relaciones tanto menos podía alcanzar
la exactitud requerida por mi propósito. De estas necesidades nació la idea de la
presente conceptografía [este es el nombre que Frege dio a su sistema formal.
Un sistema formal está basado en un lenguaje formal, como veremos]. Por lo
tanto, esta debe servir para probar de la manera más segura la precisión de una
cadena de inferencias . . . [Fre72]

He aquí el propósito de Frege para crear su lenguaje formal. ¿Pero qué es un lenguaje
formal? Según la caracterización que se hace en [Hun73],
un lenguaje formal es un lenguaje que puede ser completamente descrito sin
hacer referencia a ninguna interpretación o apelación a significados.

¿Cómo puede ser eso? Obviamente, la forma de hacerlo es ver el lenguaje formal como
un conjunto de cadenas de caracteres. Todo lo que cuenta es poder decidir si una cadena
dada de caracteres pertenece o no al lenguaje, sin que la significación que se le pueda dar
tenga algo que ver con esto. Observe que en las lenguas naturales y en las artificiales, las
cadenas de caracteres –las palabras– forman parte del lenguaje en tanto significan algo.
¿Por qué querría uno hacer un lenguaje formal? se preguntará el lector. La respuesta es
que, al menos en nuestro caso, al relegarse en su construcción toda consideración material,
de contenido, la forma queda evidenciada en forma inequívoca.
Para construir un lenguaje formal, entonces, se debe hacer lo siguiente:

Dar un alfabeto, esto es, un conjunto de símbolos que servirán para construir las
fórmulas de nuestro lenguaje, o sea, las cadenas símbolos que pertenecerán a él.
Caracterizar inequívocamente las fórmulas, de manera que frente a cualquier cadena
de símbolos, se sepa si es una fórmula o no.

El lenguaje será el conjunto de las fórmulas. Observe que la caracterización de las


fórmulas equivale al establecimiento de una sintaxis, o sea, a dar reglas de combinación de
símbolos.
Una vez hecho esto, según nuestros propósitos, podemos asignarle significados a las
fórmulas, esto es, dar una semántica para el lenguaje. Pero el lenguaje formal queda
establecido con prioridad a la semántica que se le asigna. Un mismo lenguaje formal
48 Capítulo 2. Naturaleza, artificio y forma

puede soportar semánticas diferentes. Con las lenguas naturales no pasa esto, si existiera
un lenguaje en el que las palabras se escribiesen exactamente como en español pero no
significaran lo que significan en español, no diríamos que se trata del español.
Veamos algunos ejemplos simples de lenguajes formales:
 Ejemplo 2.1 — Lenguaje formal 1.
alfabeto: {♣, ♦}
Llamaremos “trébol” al símbolo ♣ y “diamante” al símbolo ♦.

fórmulas: Serán fórmulas todas las cadenas finitas en las cuales la cantidad de trébo-
les sea superior a la de diamantes. Ninguna cadena que no cumpla lo anterior será fórmula.

Lo precedente describe en forma completa el lenguaje formal. Debido a la extrema


precisión de su descripción, siempre podemos, sistemáticamente, saber si una cadena dada
es fórmula (un elemento del lenguaje) o no lo es. Presentamos algunos ejemplos:
1. ♣♣♦♥♣ no es fórmula porque uno de sus símbolos no pertenece al alfabeto del
lenguaje.
2. La cadena formada por cinco diamantes seguidos por infinitos tréboles no es fórmula
porque no es finita.
3. ♣ es fórmula.
4. ♣♦ no es fórmula porque la cantidad de diamantes iguala a la de tréboles.

Es posible obtener resultados generales sobre el lenguaje:


 Ejemplo 2.2 — Fórmulas con cuatro símbolos.
¿Cuántas fórmulas con exactamente cuatro símbolos hay?
Podemos razonar así: una posibilidad de tener una fórmula con cuatro símbolos es que
todos sean tréboles. Eso da una única fórmula. Otra posibilidad es tener una fórmula con tres
tréboles y un diamante. Hay cuatro fórmulas así, según el lugar que ocupe el diamante. No
podemos tener fórmulas con otras cantidades, porque en ese caso los tréboles no superarían
los diamantes. Por lo tanto, hay exactamente cinco fórmulas con cuatro símbolos. Es posible,
aunque mucho más trabajoso, resolver el problema de cuántas fórmulas con k símbolos hay,
siendo k un natural dado.
Llamemos concatenar a la operación de formar una cadena a partir de dos dadas (en un
orden) colocando la segunda a continuación de la primera. Por ejemplo, la concatenación
de las cadenas ♦♦♣♦ y ♣♦ da como resultado ♦♦♣♦♣♦. Dos resultados sencillos cuya
demostración encarecemos al lector son los siguientes: El resultado de concatenar dos
fórmulas es una fórmula y si en una fórmula con al menos un diamante se elimina un
diamante y un trébol, se obtiene una fórmula.
Ejemplo 2.3 Si una fórmula comienza con dos diamantes contiguos, debe tener también
dos tréboles contiguos.
Supongamos que tenemos una fórmula

♦♦S1 S2 ...Sn
2.3 Lenguajes formales 49

donde S1 S2 ...Sn son los símbolos que siguen a los dos diamantes iniciales (sabemos que
deben ser al menos tres porque si no, la cadena no es una fórmula), y que no hay dos
tréboles consecutivos entre estos símbolos. Eso quiere decir que si recorremos esa cadena
de símbolos, después de un trébol siempre encontraremos al menos un diamante, con la
única excepción del símbolo final. En esas condiciones, hay al menos tantos diamantes
como tréboles en la cadena examinada, excepto en un único caso: cuando S1 es un trébol, y
luego se van alternando diamantes y tréboles hasta llegar a Sn , que es también un trébol, o
sea, cuando la cadena S1 S2 ...Sn empieza con trébol, sigue con diamante, sigue con trébol,
y así hasta que termina en trébol. Pero en este caso, en la cadena los tréboles superan a
los diamantes por uno. Si agregamos los dos diamantes del principio, en la cadena total
los diamantes superan a los tréboles y no es fórmula. Por otro lado, si no se alternan así,
en la cadena examinada hay al menos tantos diamantes como tréboles, y por lo tanto, en
la cadena total, que agrega dos diamantes al principio, hay más diamantes que tréboles.
Entonces, si la cadena que empieza con dos diamantes es fórmula, debe tener dos tréboles
contiguos en algún lado.
 Ejemplo 2.4 — Lenguaje formal 2.
alfabeto: {a, b}
fórmulas: Esta vez caracterizaremos las fórmulas en forma inequívoca, como debe ser, pero
siguiendo un procedimiento distinto al seguido en el Lenguaje formal 1. Lo que haremos
será lo siguiente:
Daremos explícitamente las fórmulas más simples.
Daremos reglas que permitirán construir fórmulas más complejas a partir de fórmulas
de menor complejidad.
Explicitaremos que las únicas fórmulas son las que se pueden obtener comenzando
por las más simples de todas y aplicando las reglas sucesivamente hasta llegar a
ellas. Cualquier cadena que no se pueda obtener mediante ese procedimiento, no será
fórmula.
Siguiendo el plan establecido, las reglas de formación son las siguientes:

1. Las cadenas a y b son fórmulas.


2. Si X es una fórmula, entonces aaX es una fórmula.
3. Si X es una fórmula, entonces Xb es una fórmula.

A esto agregaremos una estipulación que se suele llamar cláusula de cierre:


4. Todas las fórmulas se pueden obtener por las reglas 1 – 3.
Este modo de caracterizar el lenguaje nos permite ir construyendo las fórmulas siguiendo
un orden:
a es fórmula, b es fórmula (Lo establece directamente la especificación).
Si aplicamos la regla 2 a la fórmula a, obtenemos aaa. Si aplicamos la regla 3 a la
fórmula a, obtenemos ab. Si aplicamos la regla 2 a la fórmula b, obtenemos aab. Si
aplicamos la regla 3 a la fórmula b, obtenemos bb.
50 Capítulo 2. Naturaleza, artificio y forma

Podemos seguir aplicando las reglas 2 y 3 a cada una de las fórmulas obtenidas en el
paso anterior. Repitiendo el procedimiento, llegamos a obtener cualquier fórmula del
lenguaje.

Esto se puede mostrar con esta estructura arborescente:

a b

aaa ab aab bb

aaaaa aaab aaab abb aaaab aabb aabb bbb

En la parte superior tenemos las dos cadenas que se nos dice explícitamente son fórmulas.
En el siguiente nivel, las fórmulas que podemos formar a partir de ellas con la aplicación de
una regla; en el siguiente nivel, las que podemos obtener de estas últimas y así podríamos
seguir. Toda fórmula tiene algún lugar en esa estructura de la que se muestran los primeros
tres niveles.
Se observa que la cadena aaa es fórmula y solo puede obtenerse de una manera:
comenzando con la fórmula a y aplicando la regla 2. (Está claro que las fórmulas que
quedan en niveles superiores en la estructura –o sea, más abajo si se piensa gráficamente–
tienen más símbolos, de modo que esa cadena no aparece en ningún otro lugar). Por otro
lado, la fórmula aaab se puede obtener de dos modos: comenzando con la fórmula a,
aplicando la regla 2 y luego aplicando la regla 3 al resultado, o comenzando con la fórmula
a, aplicando regla 3 y luego la regla 2 al resultado.

Podemos probar resultados generales sobre este lenguaje, mediante un método que
será importante en variadas ocasiones. Para comprender el método, hay que observar
que la estructura arborescente es muy similar a un árbol genealógico. Cada fórmula tiene
dos “hijos”, que son las fórmulas que resultan de aplicarle la regla 2 y la regla 3. Hemos
observado que algunas fórmulas tienen más de un “padre”, como aaab, que desciende de
aaa por regla 3 y también desciende de ab por regla 2.
Supongamos ahora que hay una propiedad que cumple la característica siguiente: si
una fórmula la tiene, sus hijos la tienen. En forma inexorable, es algo que se trasmite a
los dos descendientes, siempre que el padre lo tenga. Se puede pensar, sobre la estructura
arborescente, como algo que pasa en forma inevitable por las líneas hacia abajo. ¿Asegura
eso que todas las fórmulas lo tienen? No, de ninguna manera, solo dijimos que si una
fórmula tiene la propiedad, sus hijos la tendrán, pero eso no asegura que haya siquiera
una fórmula que tenga la propiedad. Sin embargo, hay una condición bajo la cual se puede
asegurar que todas las fórmulas del lenguaje tendrán la propiedad “hereditaria”. Y es una
condición obvia: si las fórmulas que están en la parte superior de la estructura tienen esa
propiedad, entonces todas las fórmulas la tendrán. Al tenerlas las de la parte superior (a y
2.3 Lenguajes formales 51

b), la tendrán las que están en el segundo nivel para abajo, y estas la trasmitirán a las del
tercer nivel, y así siguiendo.
De esta manera, si queremos probar que una propiedad es tenida por todas las fórmulas,
tenemos la posibilidad de hacerlo, aunque hay una infinidad de ellas. El método consiste en:

1. Probar que las fórmulas más básicas, a partir de las cuales se construyen todas las
demás, las que están en el tope de la estructura arborescente, (a y b en nuestro caso,
pero esto es de aplicación general cuando el lenguaje formal se explicita en la forma
en que lo fue este) cumplen la propiedad.
2. Probar que si una fórmula cualquiera tiene esa propiedad, sus descendientes la tienen
(en nuestro caso, probar que si una fórmula cualquiera tiene la propiedad, las fórmulas
que se obtienen al aplicar las reglas 2 y 3 a ella también la tienen).

Apliquemos el método para probar que todas las fórmulas del lenguaje cumplen la
siguiente propiedad: Si la fórmula tiene una b, a la derecha de esa b no hay ninguna a.
Primero trabajamos sobre las fórmulas más simples, a y b, y vemos que se cumple: la
fórmula a no tiene ninguna b, y la fórmula b no tiene ninguna a a la derecha de su única b.
Ahora tenemos que demostrar que si una fórmula cualquiera tiene la propiedad, sus
descendientes la tienen. No podemos tomar una fórmula específica, como aabb, para hacer
la prueba, porque en ese caso no estaríamos probando que la propiedad es trasmitida por
todas las fórmulas, sino solo que es trasmitida por la fórmula que elegimos. De modo que
consideramos cualquier fórmula (la llamamos X) y suponemos que cumple la propiedad. Es
decir:
Sea X una fórmula que o bien no tiene ninguna b o bien no tiene ninguna a a la derecha
de una b.
¿Cuáles son sus descendientes?
Uno de ellos es aaX. Es claro que aaX también cumple la propiedad, es decir: o bien no
tiene ninguna b (en el caso en que X no tuviera ninguna, ya que lo que hicimos fue agregar
dos aes), o bien tiene bes, pero a la derecha de ellas se encuentra lo mismo que en X, es
decir, ninguna a, porque agregamos las dos aes en el extremo izquierdo de la fórmula.
El otro descendiente es Xb. Pero también es claro que Xb no tiene ninguna a a la derecha
de una b, porque X no las tenía, y ahora lo que se ha hecho es agregar una b en el extremo
derecho, de manera que a la derecha de una b cualquiera de Xb (excepto la que acabamos
de agregar) hay lo mismo que había en X más una b, o sea, ninguna a, y a la derecha de la
que acabamos de agregar no hay nada.
De este modo, hemos demostrado que la propiedad es “hereditaria”, o sea, siempre que
una fórmula la tenga, la trasmite a las que se pueden formar a partir de ella por aplicación de
las reglas. Esto completa la demostración de que todas las fórmulas tienen la propiedad. Eso
nos permite decir, sin ninguna clase de dudas, que aaaaaaaaaaaaaaaaaaaaababbbbbbbbbb
no es una fórmula.
 Ejemplo 2.5 — Lenguaje formal 3.
alfabeto: {a, b, c, d, e, f, g, h, i, X, O, V, F}
fórmulas: Será fórmula cualquier letra mayúscula seguida de una letra minúscula.
Si X e Y son fórmulas, XFY es una fórmula.
Todas las fórmulas se pueden obtener por el procedimiento descrito.
52 Capítulo 2. Naturaleza, artificio y forma

Por ejemplo, Oe es una fórmula, así como XaFVaFOeFVb.


Llamemos “estrella” al símbolo F y demostremos lo siguiente: Ninguna fórmula tiene
dos estrellas consecutivas.
Para hacerlo, procedemos como en el ejemplo anterior: consideramos las fórmulas más
básicas (que en este caso son 27, cada una de ellas formada por una de las tres letras
mayúsculas seguida por una de las letras minúsculas) y demostramos que ellas cumplen la
propiedad de no tener dos estrellas consecutivas.
Esto es evidente, ya que estas fórmulas no tienen siquiera una estrella.
Una vez probado esto, tendríamos que probar que la propiedad se conserva sobre
la relación de descendencia. En este caso, un par de fórmulas da origen a una fórmula
descendiente. O sea, habría que probar que si dos fórmulas X e Y tienen la propiedad, la
fórmula que con ellas se puede formar, XFY, también la tiene. Intentémoslo:
Sean X e Y fórmulas del lenguaje que no tienen estrellas consecutivas. Debemos probar
que XFY tampoco tiene estrellas consecutivas.
Se nos presenta un problema: es claro que si el último símbolo de la fórmula X o el
primero de la fórmula Y es una estrella, la fórmula XFY tiene estrellas consecutivas. ¿Será
que estamos intentando demostrar una propiedad que no se cumple? No, la propiedad se
cumple, pero para demostrarla, debemos demostrar que no ocurre lo que acabamos de decir,
o sea, demostrar que ninguna fórmula empieza o termina con una estrella. Y a esta altura,
ya sabemos cómo hacerlo.
Demostración de que ninguna fórmula empieza o termina con una estrella:
Ninguna de las 27 fórmulas básicas empieza o termina con una estrella, porque estas
fórmulas no tienen estrellas. Sean X e Y fórmulas que no empiezan con estrellas. Entonces
la fórmula XFY no empieza con estrella, porque empieza con el mismo símbolo que X,
que hemos supuesto no es una estrella. Sean X e Y fórmulas que no terminan con estrella.
Entonces XFY no termina con estrella, porque termina con el mismo símbolo que Y, que
hemos supuesto no es estrella. Esto demuestra que ninguna fórmula del lenguaje empieza
ni termina con estrella.
Ahora podemos volver a la demostración de que ninguna fórmula tiene dos estrellas
consecutivas: Sean X e Y dos fórmulas que no tienen estrellas consecutivas. Entonces la
fórmula XFY solo puede tener estrellas consecutivas en el caso de que X termine en estrella
o Y comience con una estrella. Pero sabemos que ninguna fórmula empieza o termina
con estrella, por lo que XFY no puede tener dos estrellas consecutivas. Esto termina la
demostración.

Hemos trabajado con tres lenguajes formales, y una pregunta sumamente pertinente es:
“Todo esto está muy bien, pero, ¿qué significan esas fórmulas?”.
La respuesta es que en principio no significan nada. Estos lenguajes fueron elegidos
para explicar qué son los lenguajes formales, y algunos métodos para trabajar con ellos.
Pero cuando uno construye un lenguaje formal, normalmente lo hace para un propósito no
meramente didáctico, sino que en verdad desea atribuir algún significado a las fórmulas.
Por ejemplo, el lenguaje formal 3, el último que hemos visto, puede servir para describir
2.3 Lenguajes formales 53

disposiciones en una partida de tatetí:

g h i

d e f

a b c

Interprete las letras minúsculas como nombres de las casillas de un tatetí. Interprete
además las letras mayúsculas como “tener una cruz marcada” para la X, “tener un círculo
marcado” para la O, y “estar sin marcar” para la V. Así, la fórmula Oe significará que
la casilla central del tablero está marcada con un círculo, y Va significará que la esquina
inferior izquierda está sin marcar. Interprete además la estrella como un “y”. Entonces,
XaFXeFXi significará que la diagonal que va de izquierda a derecha en sentido ascendente
está marcada con cruces, lo que según las reglas del juego, quiere decir que las cruces ganan.
De este modo, se pueden interpretar todas las fórmulas del lenguaje, inclusive una
fórmula como OaFXa que “dice” que la esquina inferior izquierda está marcada tanto con
un círculo como con una cruz. Por supuesto, en el transcurso de una partida normal, una
fórmula así nunca representará una proposición verdadera.
Si suponemos además que la fórmula muestra con el orden en que aparecen sus compo-
nentes el orden de las jugadas empezando con un tablero vacío, la fórmula

XgFOdFXeFOcFXhFOiFXb

representará una partida ganada por las cruces. Esto es así porque la fórmula contiene Xb,
Xe y Xh, lo que significa que la columna central fue ocupada por las cruces. La posición
final es

X X O

O X

X O

También se puede usar el lenguaje para especificar con toda precisión una situación
dada en el tablero, y para eso usaríamos el símbolo V con el objetivo de señalar las casillas
no marcadas.
Ejercicio 2.1
a) Especificar completamente, con ayuda del lenguaje formal 3 y la interpretación hecha,
la posición siguiente:
54 Capítulo 2. Naturaleza, artificio y forma

X X

b) En la posición anterior, juega círculo. Muestre, valiéndose de fórmulas de nuestro


lenguaje formal para expresarse, que cruz tiene una estrategia ganadora.

Por supuesto, otras interpretaciones de este lenguaje formal son posibles. Podríamos
interpretar que a, b, c, d, e, f, g, h, i representan los números naturales del 1 al 9 en
ese orden, que X representa “cuadrado de”, que O significa “doble de”, que V significa
“siguiente de” y que F significa suma. Así, la fórmula Vd significará el siguiente de d, o sea
el 5, y Vi significará 10. La fórmula

XaFObFVc

se interpretará como 12 + 2.2 + 4, o sea como 9. Observe que bajo esta interpretación, las
fórmulas XaFObFVc, Vh, OcFVb tienen todas el mismo significado.

Ejercicio 2.2 Encuentre tres fórmulas diferentes del lenguaje formal 3 que signifiquen el
número 14 en la última interpretación dada.

Lenguaje y metalenguaje
Para hablar se necesita un lenguaje. Nosotros, hispanoparlantes, hablamos normalmente
en español, una lengua natural, y haciendo uso de los recursos que ella nos proporciona,
hablamos de infinidad de cosas. Si bien los poetas suelen quejarse de la poca expresividad
de las palabras, suelen decir que hay algo inefable que escapa a la posibilidad de ser
expresado, las lenguas naturales son los medios más expresivos de que disponemos. Esa
expresividad permite que hablemos, como lo venimos haciendo, de, entre otras cosas, los
lenguajes formales. Todos los discursos están en un lenguaje, y a veces el discurso versa
sobre un lenguaje. Se establecen así dos posiciones diferentes que un lenguaje puede ocupar:
como objeto del discurso y como medio del discurso. Por ejemplo, si digo:
En latín no hay palabras agudas.
estoy usando el español como medio de expresión (obviamente, la oración está expresada
en español) y estoy tomando al latín como objeto del que hablo. En casos así, cuando el
discurso refiere a un lenguaje O y está expresado en un lenguaje M, se dice que el lenguaje O
es el lenguaje objeto y que el lenguaje M es el metalenguaje. Por supuesto, ningún lenguaje es
lenguaje objeto o metalenguaje de por sí, es algo relativo a ciertos discursos sobre lenguajes.
En el caso anterior, el latín era el lenguaje objeto, y el español el metalenguaje, pero en
Hispanica lingua barbara est.
el lenguaje objeto es el español y el metalenguaje el latín.
2.3 Lenguajes formales 55

Inclusive puede suceder que el lenguaje objeto y el metalenguaje sean el mismo, como
podrá comprobar el lector abriendo una gramática española escrita en español. Esta posi-
bilidad es una muestra de la riqueza expresiva del español (de las lenguas naturales en
general). Intente dar una interpretación de alguno de los tres lenguajes formales que hemos
visto que pueda servir para describir el propio lenguaje, y aunque no consiga demostrar
que es imposible, será muy fácil que se convenza de ello. Es más, no pueden darse las reglas
de construcción de un lenguaje formal en el propio lenguaje formal, por la obvia razón de
que sería como intentar levitar tirándose del pelo.
De este modo, se debe distinguir entre lenguaje y metalenguaje. La importancia será
obvia más adelante, pero en particular podemos remarcar un aspecto. Cuando hablamos
de un lenguaje formal, muchas veces enriquecemos el idioma español con expresiones que
también simbolizamos.
Supongamos que queremos decir que dos fórmulas del lenguaje formal 3 son equiva-
lentes si en la última interpretación dada significan el mismo número. Entonces, Vh es
equivalente a OcFVb. Para no estar escribiendo siempre “es equivalente a” creamos un
símbolo, digamos ≈. Ahora podemos escribir

Vh ≈ OcFVb

Esto tiene apariencia de fórmula, pero claramente no lo es. El símbolo ≈ no pertenece al


alfabeto del lenguaje, lo hemos introducido para tener un metalenguaje más cómodo.
A partir del próximo capítulo, describiremos y estudiaremos dos lenguajes formales que
son básicos para la lógica, y lo haremos en un español enriquecido con expresiones técnicas
definidas para nuestros propósitos, a las que les atribuiremos símbolos. Será importante
entonces distinguir entre las expresiones del lenguaje y las del metalenguaje.
Relacionada con la distinción lenguaje – metalenguaje existe otra: la distinción uso –
mención. Considere las siguientes oraciones:

(1) Wittgenstein era bastante excéntrico.


(2) Wittgenstein es muy difícil de pronunciar correctamente.

Está claro que la primera palabra de ambas oraciones funciona en ellas de dos formas
muy distintas. En la primera refiere a un hombre, el genial Ludwig Wittgenstein, quien,
entre otras cosas, renunció a heredar una de las fortunas más grandes de Europa, amenazó
con un atizador a Popper y pasó por largos períodos de aislamiento. Pero en la segunda,
esa misma palabra no está refiriendo a un hombre, sino a una palabra, que es ella misma,
y es justamente, el nombre de Wittgenstein. Se dice que en la oración (1) la palabra en
cuestión se está usando, y en la oración (2) se está mencionando. Los medievales dirían que
la palabra en cuestión está en (1) en suposición formal, y en (2) en suposición material, y
no llevarían la distinción a la forma de escribir ambas oraciones. Nosotros sí lo hacemos.
Cuando mencionamos una palabra o expresión, y no la usamos, al escribir la encerramos
entre comillas. Así, lo correcto es escribir

“Wittgenstein” es muy difícil de pronunciar correctamente.

Es claro que usamos la cadena de caracteres “Wittgenstein” para referirnos a la propia


palabra que está entrecomillada. Así, podemos escribir correctamente
56 Capítulo 2. Naturaleza, artificio y forma

“Wittgenstein” es un apellido.7
¿Estará bien escrita la siguiente oración?
XaFXeFXi es una fórmula.
¿No debería ir la fórmula entre comillas, recomendación que no he seguido nunca en
este capítulo, cuando hablaba de fórmulas?
La respuesta podría ser la siguiente: Podría hacerse así, por supuesto, la fórmula se está
mencionando y no usando. Pero al ponerle comillas lo que haríamos sería indicar que no
estamos refiriendo a lo que la fórmula refiera, sino a la fórmula misma. Es decir, usaríamos
la fórmula entre comillas como un nombre de la fórmula. Y ya que las fórmulas no pertenecen
(naturalmente) a nuestro metalenguaje, que es el español, podemos optar por enriquecer
este diciendo que en el metalenguaje, las fórmulas son nombres de sí mismas. Así evitamos
nombrar a las fórmulas encerrándolas entre comillas. Cuando las escribimos directamente,
en medio de un texto en español, las estamos nombrando. Y seguiremos esa práctica, que es
muy cómoda.

2.4 Lógica y lenguajes formales


Habíamos hecho una primera caracterización de la lógica como la ciencia que se ocupa
de discernir y estudiar las inferencias o los argumentos válidos en virtud de su forma.
También observamos que la enorme expresividad de las lenguas naturales tiene como
contrapartida inevitable la existencia de fenómenos que pueden entorpecer el logro de los
objetivos declarados de la lógica.
Al comienzo de nuestro estudio de los lenguajes formales, vimos una cita de Frege que
ampliaremos con otra proveniente del mismo texto, el prólogo de la Conceptografía, donde
después de explicar las razones que lo llevaron a crear un lenguaje formal, apartándose
del lenguaje natural para el análisis de las inferencias, precisa, con una bella y acertada
comparación, la relación entre el lenguaje natural y el formal que acababa de crear, y
establece un programa para la ciencia:
Creo poder hacer muy clara la relación de mi conceptografía con el lenguaje
común si la comparo con la que hay entre el microscopio y el ojo. Este último, por
el campo de su aplicabilidad y la movilidad con que se sabe adaptar a las más
diversas situaciones, posee gran superioridad frente al microscopio. Considerado
como aparato óptico, muestra sin duda muchas imperfecciones, las cuales pasan
desapercibidas, por lo común, solo como consecuencia de su estrecha relación
con la vida mental. Pero tan pronto como los propósitos científicos establecen
mayores exigencias en la precisión de las distinciones, el ojo resulta insuficiente.
Por el contrario, el microscopio es lo más apropiado para tales fines, aunque, por
ello, no es utilizable para otros.
Así, esta conceptografía ha sido ideada como un auxiliar para determinados
propósitos científicos y no se la puede sentenciar porque no sirva para otros. Si
7 Lasrecomendaciones de la Real Academia española no son estas. Indica que cuando una palabra sea
mencionada, se la escriba con un tipo diferente al del resto del texto. Aparentemente, es la práctica corriente en
lingüística. En filosofía el uso que hemos indicado es universal, y para casos más complicados, que los hay, se
utiliza una creación de Quine llamada quasi quotation con sus marcas particulares.
2.4 Lógica y lenguajes formales 57

de algún modo corresponde a estos fines, no importa que se puedan echar de


menos verdades nuevas en mi trabajo. Me consolaría, sobre todo, la conciencia
de que también un desarrollo del método hace prosperar a la ciencia. Pues
Bacon consideró preferible inventar un medio por el cual se pudiera descubrir
fácilmente cualquier cosa, a descubrir algo particular, y, por cierto, todos los
grandes progresos científicos han tenido su origen en un perfeccionamiento del
método. [Fre72]

Frege afirma que la ciencia de la lógica necesita de un lenguaje formal, establece una
comparación entre este y el lenguaje natural, y expresa la esperanza de que su método
promueva el avance de la ciencia. A pesar de que su libro no fue inmediatamente reconocido
como la obra invalorable que es, actualmente podemos decir que Frege fue, sin dudas,uno de
los más grandes lógicos de la historia, probablemente la persona que más hizo avanzar a la
lógica desde los tiempos de Aristóteles. La senda que marcó, al inventar un lenguaje formal
capaz de examinar una enorme clase de inferencias como examina el microbiólogo sus
especímenes con el microscopio, es la que ha seguido esta ciencia hasta hoy. Tan profundo es
el impacto de su obra, que podemos caracterizar a la lógica de la siguiente manera:

la lógica es la ciencia que se ocupa de la identificación y el estudio de los


argumentos válidos mediante la utilización de lenguajes formales.

En el próximo capítulo comenzaremos el estudio de la primera de las dos lógicas que


vamos a tratar en este libro, y tendremos que empezar, obviamente, construyendo un
lenguaje formal apto para llevar adelante la identificación referida.
58 Capítulo 2. Naturaleza, artificio y forma

2.5 Ejercicios
1. El lenguaje W se define de la siguiente forma:

Alfabeto: {4, }
Fórmulas: cualquier cadena finita de símbolos del alfabeto W que termine con 4
es una fórmula. Nada más es fórmula.

¿Es W un lenguaje formal?

2. El lenguaje X se define de la siguiente forma:

Alfabeto: {a, b, c, d, e, f, g}
Fórmulas: toda cadena finita de símbolos del alfabeto de X que sea una palabra
del castellano es una fórmula. Nada más es fórmula.

¿Es X un lenguaje formal?

3. El lenguaje Y se define de la siguiente forma:

Alfabeto: {a, b, c, d, e, f, g}
Fórmulas: toda cadena finita de símbolos del alfabeto de Y que aparezca en la
última edición del Diccionario de la Real Academia es una fórmula. Nada más es
fórmula.

¿Es Y un lenguaje formal?

4. Las partidas de ajedrez se registran sirviéndose de un sistema en el que las columnas


del tablero se indican con las letras a, b, c, d, e, f, g, h (de izquierda a derecha desde el
lado de las blancas) y las filas con las cifras 1, 2, 3, 4, 5, 6, 7, 8 (siendo la fila 1 aquella
en la que se colocan al inicio las piezas blancas). De esa manera se puede referir
individualmente a las casillas, mediante una de las letras listadas seguidas por una de
las cifras listadas. Por ejemplo, la casilla h8 es aquella donde al inicio va la torre del
lado del rey de las negras y d2 es la casilla donde al inicio las blancas tienen un peón
frente su dama. Las piezas se indican con los símbolos R, N, B, Q, K, r, n, b, q y
k. Para indicar una jugada, se dispone el símbolo de la pieza movida (excepto si es
un peón), la casilla de donde parte, un guión (una cruz de San Andrés si la movida es
una captura) y la casilla a la que llega. En caso de que sea un enroque corto, se registra
con dos círculos separados por un guión. El enroque largo se registra con tres círculos
separados por guiones. Si en una jugada se da jaque, se coloca el signo + luego de su
registro y si la jugada es jaque mate, es seguida por el signo #. Numerando los pares
de jugadas alternativas se registra una partida. Por ejemplo, lo siguiente registra una
de las partidas más famosas de la historia, llamada “La Inmortal”, jugada entre Adolf
Anderssen (blancas) y Lionel Kieseritzky en Londres el 21 de junio de 1851:
2.5 Ejercicios 59

1. e2–e4 e7–e5 2. f2–f4 e5Xf4 3. Bf1–c4 Qd8–h4+ 4. Ke1–f1 b7–b5 5. Bc4Xb5


Ng8–f6 6. Ng1–f3 Qh4–h6 7. d2–d3 Nf6–h5 8. Nf3–h4 Qh6–g5 9. Nh4–f5
c7–c6 10. g2–g4 Nh5–f6 11. Rh1–g1 c6Xb5 12. h2–h4 Qg5–g6 13. h4–h5 Qg6–g5
14. Qd1–f3 Nf6–g8 15. Bc1Xf4 Qg5–f6 16. Nb1–c3 Bf8–c5 17. Nc3–d5 Qf6Xb2
18. Bf4–d6 Bc5Xg1 19. e4–e5 Qb2Xa1+ 20. Kf1–e2 Nb8–a6 21. Nf5Xg7+ Ke8–d8
22. Qf3–f6+ Ng8Xf6 23. Bd6–e7#

¿Considera que los ajedrecistas se comunican sus partidas utilizando un lenguaje


formal?

5. Las partidas de go se registran por medio de planillas llamadas kifus. El kifu representa
un tablero de go por medio de líneas, y los jugadores registran sus jugadas colocando
el número de jugada en las intersecciones de las líneas. Al publicarse en libros o
revistas, el kifu muestra además círculos blancos y negros allí donde se ha colocado
una piedra del color correspondiente. Por ejemplo, este es el kifu de la partida entre
Honinbo Shusai Meijin8 (con blancas) y Kitanu Minoru, jugada entre el 26 de junio y
el 4 de diciembre de 1938 en Japón, y que sirve de trasfondo a la maravillosa novela
del Nobel de literatura Yasunari Kawabata El maestro de go. Shusai perdió por cinco
puntos, aunque la partida se considera una de sus obras maestras.

¿Considera que los jugadores de go se comunican sus partidas usando un lenguaje


formal?

6. Los momentos en que las computadoras han vencido a los humanos que se desem-
peñan en el más alto nivel en juegos como las damas, el ajedrez o el go son hitos
importantes en la historia del desarrollo de la inteligencia artificial.
8 Honinbo y Meijin son títulos.
60 Capítulo 2. Naturaleza, artificio y forma

Con respecto a las damas, la historia es la siguiente: en 1990 el mejor programa de


ese entonces, llamado Chinook, ganó una plaza para competir por el campeonato del
mundo. Las federaciones del juego estaban en contra de esa participación, lo que llevó
al campeón mundial, el matemático Marion Tinsley, considerado el mejor jugador
de la historia, a renunciar a su título. Forzadas por esta decisión, las federaciones
crearon un título mundial Hombre contra máquina. Chinook y Tinsley se enfrentaron,
ganando el hombre cuatro partidos, perdiendo dos, y empatando treinta y tres.
En 1994 se comenzó a jugar el match revancha. Luego de seis empates, Tinsley hubo
de retirarse por motivos de salud (murió de cáncer pancreático seis meses después de
retirarse del match), con lo que Chinook fue declarado campeón. Al año siguiente se
enfrentó por el título en un match a treinta y dos partidos con Don Lafferty (quien era
notoriamente más débil que Tinsley) y la máquina ganó un partido, empatando treinta
y uno. Luego de defender su título, Chinook no compitió más, y sus creadores se
dedicaron a resolver el juego. El 19 de julio de 2007 el equipo programador de Chinook
publicó un artículo en la revista Science demostrando que lo mejor que cualquier
oponente podría lograr al enfrentarse al programa es un empate.

Con respecto al ajedrez, en la década del 90 el mejor jugador del mundo con distancia
era Garry Kasparov. En 1996, el mejor programa de ajedrez, Deep Blue, logró vencerlo
en la primera partida de un match a seis, con lo que por vez primera un programa
vencía al mejor jugador humano. Sin embargo, Kasparov se impuso convincentemente
en el match, ganando tres y empatando dos de las partidas restantes.
Al año siguiente se jugó el match revancha, con Deep Blue mejorado, también a seis
partidas. Kasparov ganó un partido, Deep Blue dos, y hubo tres tablas9 . Deep Blue no
volvió a jugar con humanos.

El go es un juego mucho más complejo que el ajedrez (y muchísmo más que las
damas). Entre el 9 y el 15 de marzo de 2016 un programa llamado Alphago se enfrentó
a Lee Sedol en un match a cinco partidas. Lee Sedol había sido el mejor jugador en los
diez años anteriores y al momento de realizarse el match estaba rankeado tercero en
el mundo. El match terminó con la victoria de Alphago, que obtuvo cuatro victorias y
fue derrotada una vez.

¿Considera que es condición necesaria para programar una computadora que juegue a
este tipo de juegos el desarrollo de un lenguaje formal que permita la comunicación
del hombre y la máquina? Explique. Si contestó afirmativamente, ¿considera además
que si la máquina va a jugar a un buen nivel es necesario que sobre ese lenguaje formal
se pueda efectuar un cálculo, destacando algunas fórmulas sobre otras, de modo de
elegirlas como próxima jugada? Explique.

7. Euler (1707-1783), uno de los más grandes matemáticos de la historia, conjeturó que si
n es un natural mayor que 2, ninguna suma de menos de n potencias n-ésimas tendrá
como resultado una potencia n-ésima. Por ejemplo, según Euler se necesitan al menos
9 La última partida, ganada por Deep Blue, despertó muchas sospechas. Duró apenas diecinueve jugadas,

luego de un grosero error de Kasparov en la apertura.


2.5 Ejercicios 61

tres cubos para que sumados den un cubo, y al menos siete potencias séptimas para
que sumadas den una potencia séptima.
Esta conjetura fue refutada en 1967 por Lander y Parkin, en lo que se considera el
artículo matemático más corto jamás publicado (disponible en http://www.ams.org/
journals/bull/1966-72-06/S0002-9904-1966-11654-3/S0002-9904-1966-11654-3.
pdf). Tiene apenas dos oraciones :

A pesar de su brevedad,podemos considerar que este artículo cumple todos los


requisitos para ser una comunicación estándar de un matemático a otros matemáticos
de los resultados por él descubiertos o construidos. Si esto es así ¿se comunican los
matemáticos los resultados de su labor por medio de lenguajes formales? Explique su
respuesta. Si su respuesta fue negativa; ¿le parece adecuado llamar a la matemática una
ciencia formal? ¿Qué razones tendrán los matemáticos para no desprenderse totalmente
del lenguaje natural en sus comunicaciones?

8. Considere un lenguaje cuyo alfabeto quede determinado así:


Alfabeto: {|, ||, |||, ||||}
Sean fórmulas aquellas cadenas finitas tales que sus símbolos contiguos difieren solo
en una barra.
a) Muestre que hay fórmulas de cualquier longitud mayor que 1.
b) Muestre que todas las fórmulas de cinco símbolos que contienen todos los
símbolos del alfabeto tienen repetido el primer o el último símbolo.

9. Suponga que: (i) se define un lenguaje con un alfabeto finito, (ii) se establece que una
cadena finita determinada es fórmula, (iii) se establece que serán fórmulas todas las
cadenas que se obtengan agregando dos símbolos diferentes (siempre los mismos)
al final de una fórmula ya disponible en cualquier orden, y (iv) todas las fórmulas
pueden obtenerse por este procedimiento a partir de la cadena finita dada.
a) Muestre que si existe una fórmula de 5 símbolos, no puede existir una fórmula
de 16 símbolos.
b) Suponga que hay una fórmula de 5 símbolos. ¿Cuántas fórmulas de 6, 7, 8 y 9
62 Capítulo 2. Naturaleza, artificio y forma

símbolos hay cuyo segmento inicial de 5 símbolos sea idéntico al de la fórmula


dada?

10. Suponga que se define un lenguaje con un alfabeto finito, se establece que una cadena
finita determinada es fórmula y que serán fórmulas todas las cadenas que se obtengan
agregando dos símbolos al final de una fórmula ya disponible o las cadenas que se
obtengan eliminando 4 símbolos del principio de una fórmula ya disponible (si tiene 5
o más símbolos), y que todas las fórmulas pueden obtenerse por ese procedimiento.
Suponga además que aabbccc es una fórmula. ¿Podría ser ccccmm fórmula?

11. Establezca si los siguientes enunciados son verdaderos o falsos:


a) ““Juan”” tiene dos pares de comillas.
b) Ni Juan ni “Juan” son nombres.
c) “Juan” es un nombre de Juan, y ““Juan”” nombra a “Juan”.
d) Podemos hallar a “Juan” en una lista de nombres, pero no podemos hallar a
Juan en una lista de nombres.
e) Cuando nos referimos a una cosa, hablamos de una cosa, y cuando nos referi-
mos a “una cosa” hablamos de ““una cosa””.
II
Lógica proposicional
3 Sintaxis;. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.1 Alfabeto
3.2 Fórmulas
3.3 El bloqueo de la ambigüedad estructural
3.4 El teorema de lectura única
3.5 Árbol de formación de una fórmula
3.6 Ejercicios

4 Semántica; . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.1 Verdadero, falso e interpretaciones
4.2 Tautologías, contradicciones y contingencias
4.3 Tablas de verdad
4.4 Asignaciones proposicionales e interpretaciones
4.5 Modelos y contramodelos
4.6 Vuelta a la biblioteca
4.7 ¿Decir lo mismo? Equivalencia
4.8 ¿Será suficiente? Conjuntos adecuados de conectivos
4.9 Ejercicios

5 Conectivos lógicos y lenguaje natural;107


5.1 El conectivo ¬
5.2 El conectivo ∧
5.3 El conectivo ∨
5.4 El conectivo →
5.5 El conectivo ↔
5.6 Ejercicios

6 Consecuencia semántica; . . . . . . . . . . . . 121


6.1 La validez en el lenguaje formal
6.2 La relación de consecuencia semántica
6.3 Conjuntos insatisfacibles y contradicciones
6.4 Conjunto vacío y tautologías
6.5 Monotonía
6.6 El condicional asociado
6.7 El teorema de deducción (versión semántica)
6.8 El “absurdo”
6.9 Ejercicios

7 Consecuencia sintáctica;. . . . . . . . . . . . 137


7.1 Tras las huellas de los humanos
7.2 El sistema de deducción natural para LP
7.3 Consecuencia sintáctica
7.4 Heurística
7.5 Errores frecuentes al intentar hacer derivaciones
7.6 Propiedades de la relación de consecuencia sintáctica
7.7 Aparatos deductivos
7.8 Excurso filosófico: Lógica intuicionista
7.9 Ejercicios
3 | Sintaxis

a sintaxis de un lenguaje formal lo determina completamente, indicando cómo

L podemos combinar los símbolos para obtener fórmulas. Por eso, para definir un
lenguaje formal lo primero que se debe establecer es cuál es el conjunto de símbolos
con que contamos, y luego debemos explicitar las reglas de combinación para la obtención
de fórmulas.

3.1 Alfabeto
El alfabeto será el conjunto de símbolos de que dispondremos para la construcción de
fórmulas, y tanto este como las reglas de combinación deben darse teniendo en cuenta los
propósitos para los que se crea el lenguaje formal. En nuestro caso, el propósito es poder
distinguir las inferencias válidas en virtud de su forma, en tanto esa forma dependa de la
función de palabras y expresiones como “no”, “y”, “o”, “si . . . entonces . . . ” y “si y solo si”,
según vimos en el capítulo 1.
Debemos entonces definir el alfabeto. ¿Qué cosas queremos incluir en él? Para decidirlo,
debemos preguntarnos qué tendremos que representar con los símbolos de nuestro lenguaje
formal.
Hemos visto que nos interesa poder representar proposiciones o enunciados. Ahora bien,
a este respecto se presenta una complicación. Hay ciertas proposiciones que consideraremos
como más básicas que otras, en el sentido de que no podremos, con nuestro lenguaje,
representar un análisis de ellas. Un ejemplo aclarará el punto:
Si consideramos las proposiciones
(1) Lueve.
(2) Lueve y truena.
es claro que (2) es más compleja que (1), ya que (2) aparece como el resultado de conectar
dos proposiciones, (1) y
(3) Truena.
a través de la palabra “y”, cuya función ya hemos discutido informalmente. O sea que un
análisis de (2) nos muestra que está compuesta por proposiciones más básicas, a saber (1) y
(3), y estas últimas proposiciones no arrojan como resultado proposiciones más simples al
ser analizadas. Obsérvese que la simple complejidad gramatical no es un indicador fiable en
esta cuestión: consideremos
(4) Lueve en Montevideo.
66 Capítulo 3. Sintaxis

(5) Lueve a baldes en Montevideo.

¿Qué sucede si intentamos encontrar componentes más simples de estas proposiciones?


Podríamos creer que (4) es, en realidad, algo que desde el punto de vista lógico equivale a
“Llueve y llueve en Montevideo”, pero es obvio que este análisis lo que hace es decir que (4)
equivale a (1) y (4) conectadas por un “y”. La aparición de (4) para explicar (4) hace que
el análisis sea insatisfactorio, y que consideremos que, desde nuestro punto de vista, (4)
no es analizable. Con (5) pasa algo idéntico, ya que si se piensa con cuidado, no podemos
decir que (5) sea equivalente a “Llueve y llueve a baldes y llueve en Montevideo” (entre
otros motivos, porque podría llover a baldes en Pando, pero mansamente en Montevideo,
con lo que diríamos algo verdadero al decir la última expresión entrecomillada, pero (5)
sería falso). Es por esto que consideramos que (5), desde el punto de vista proposicional, no
admite ulteriores análisis. Aceptamos entonces que necesitaremos representar proposiciones
o enunciados que no sean analizables, es decir, los que consideraremos más básicos. Como
resulta intuitivamente evidente que hay una cantidad infinita de tales proposiciones (en
realidad, es muy fácil generar un esquema que arroje como resultado infinitas de tales
proposiciones ¿podrá el lector hallar uno?), requeriremos que nuestro lenguaje tenga infinitos
símbolos para representarlas.
Estos símbolos serán llamados letras proposicionales o letras de enunciado, y tendrán todos
la misma forma: una letra “p” con un subíndice añadido. Incluiremos en nuestro alfabeto
todos los símbolos que constan de una letra “p” y un subíndice que sea un numeral natural.
Nada obsta para que se represente una proposición compleja mediante una letra propo-
sicional. Podemos representar (2) simplemente como p1 . Pero en muchos casos, obrar de
esta manera no nos permitirá capturar el funcionamiento lógico de lo que tengamos entre
manos. Por ejemplo, si alguien dice

Llueve y truena. Si llueve me quedo en casa. Por lo tanto, me quedo en casa.

la representación de “Llueve y truena” como p1 no será adecuada, porque no captura la


proposición “Llueve” que tiene un papel fundamental en el argumento. Pero si el argumento
fuera

Llueve y truena. Si llueve y truena me quedo en casa. Por lo tanto, me quedo en


casa.

al representar “Llueve y truena” como p1 no se perdería nada en cuanto a la evaluación del


argumento.
Aun en caso de que estemos trabajando una situación en la que solo aparezcan p1 , p2
y p3 , debemos recordar que nuestro alfabeto incluye a p4 , p5 , . . . y en general, a cualquier
letra “p” subindizada con un numeral natural.
Por supuesto, esto no es suficiente. Sabemos que es posible construir proposiciones
nuevas a partir de otras proposiciones, conectándolas de maneras muy diversas en lenguaje
natural, pero que comparten la característica siguiente:

el valor de verdad de la proposición resultante de conectar las proposiciones


dadas depende de los valores de verdad de las proposiciones constituyentes.
3.1 Alfabeto 67

En nuestro ejemplo anterior, el valor de verdad de (2) depende de los valores de verdad
de (1) y (3). Es por esto que agregaremos a nuestro alfabeto símbolos que sirvan para poner
de manifiesto esas conexiones. Los símbolos que agregaremos para este cometido serán:

¬ (negador)
∧ (conjunción)
∨ (disyunción)
→ (condicional)
↔ (bicondicional)

los cuales son llamados “constantes lógicas”1 .


Podría parecer que ya tenemos todos los símbolos necesarios. Pero recordemos este
enunciado, que ya consideramos cuando hablamos sobre el lenguaje natural:

(6) Juan estudia filosofía y artes marciales o tarot.

Un análisis muestra que el valor de verdad de (6) dependería del valor de verdad de

Juan estudia filosofía, que representaremos con p1 .


Juan estudia artes marciales, que representaremos con p2 .
Juan estudia tarot, que representaremos con p3 .

Aparentemente, podemos representar (6) como

(7) p1 ∧ p2 ∨ p3

pero esto es totalmente insatisfactorio, porque estamos reflejando el fenómeno de la ambi-


güedad estructural en nuestro lenguaje, como mostraremos. ¿Cuáles son las condiciones
de verdad de (6), representado por (7)? No hay forma de decidirlo. Podemos entender el
enunciado de dos maneras:

1. El enunciado expresa que al menos una de estas dos posibilidades se da:


a) Juan estudia filosofía y artes marciales.
b) Juan estudia tarot.
2. El enunciado expresa que se cumplen estos dos hechos:
a) Juan estudia filosofía, y además
b) Juan estudia artes marciales o tarot.

Adviértase que si alguien adhiere a la interpretación 1, dirá que el enunciado es verda-


dero en el caso de que Juan solo estudie tarot, pero no filosofía ni artes marciales, y quien
opte por la interpretación 2, dirá que es falso en ese caso.
1 Este nombre deriva de que su comportamiento —su significado– es invariable, como se verá al estudiar la

semántica del lenguaje.


68 Capítulo 3. Sintaxis

Si no deseamos que la ambigüedad estructural quede reflejada en nuestro lenguaje


formal, debemos hacer algo al respecto. Nuestra solución2 consistirá en la introducción de
nuevos símbolos: los paréntesis derechos e izquierdos, que nos permitirán distinguir entre
las dos posibilidades con expresiones así:
Para la primera interpretación: (p1 ∧ p2 ) ∨ p3
Para la segunda: p1 ∧ (p2 ∨ p3 )
(Esto no es exacto, como se verá un poco más adelante, pero en este momento el detalle no
tiene importancia).
Hemos terminado el listado de los símbolos de nuestro alfabeto.
alfabeto de la lógica proposicional
consta de los siguientes símbolos:
letras proposicionales p1 , p2 , p3 , . . .
conectivos proposicionales ∧, ∨, →, ↔, ¬
paréntesis (, )

3.2 Fórmulas
Para proseguir debemos responder la siguiente pregunta, y con ella entramos de lleno
en los problemas de sintaxis, o sea, en el estudio de las formas en que vamos a permitir que
los símbolos se combinen.
¿Qué distingue las cadenas de símbolos que son fórmulas de aquellas que no lo son?
Intuitivamente, es claro que una cadena como ¬p1 “debería” ser una fórmula, y una como
pq → ∧ no. Sin embargo, por más que parezca suficiente manejarse a un nivel intuitivo
examinando cada caso, eso no es satisfactorio. Por un lado, podríamos enfrentarnos a
cadenas de símbolos muy complejas, ante las que nuestra intuición no nos ayudara; y por
otro, necesitamos un criterio claro y objetivo que nos permita, en todos los casos, determinar
si una cadena dada es una fórmula o no, sin ambigüedades de tipo alguno.
Nuestro alfabeto ha sido elegido con el propósito de representar determinadas estruc-
turas proposicionales, a través de cadenas de símbolos cuyo conjunto será el lenguaje de
la lógica proposicional. Para construirlo, recordemos que la negación de una proposición
es una proposición, que la conjunción de dos proposiciones es una proposición, así como
su disyunción, su implicación y su doble implicación. Por eso, resulta razonable exigir lo
siguiente:

1. Las letras proposicionales serán fórmulas.


2. Si A es una fórmula, ¬A también será una fórmula.
3. Si A y B son fórmulas, (A ∧ B) también será una fórmula.
4. Si A y B son fórmulas, (A ∨ B) también será una formula.
2 Hay otras soluciones, entre las cuales destaca la llamada notación polaca, que prescinde de los paréntesis
y de introducir otros símbolos para resolver el problema. Se genera así un lenguaje formal diferente al que
presentaremos aquí. Ármese el lector de paciencia, de mucha paciencia, si algún día debe leer un libro que
utilice la notación polaca.
3.2 Fórmulas 69

5. Si A y B son fórmulas, entonces (A → B) también será una fórmula


6. Si A y B son fórmulas, entonces (A ↔ B) también será una fórmula3 .

¿Por qué en 3–6 se introducen paréntesis? (Considerar qué sucedería si se fuera a aplicar
la regla 4 sobre p ∧ q y r sin los paréntesis).4 Por esto dijimos que la representación de una
proposición como p1 ∧ (p2 ∨ p3 ) no era exacta, ya que le faltan los paréntesis exteriores.
Esto es decir, básicamente, que si partimos de las letras proposicionales, y aplicamos
negaciones y conectivos binarios (cuidando la colocación de paréntesis) a lo que ya tengamos
y vayamos obteniendo, nunca obtendremos algo que no sea una fórmula. Pero en realidad,
nuestra intuición es más fuerte: nos dice que no solamente no obtendremos algo que no sea
una fórmula, sino además que cualquier fórmula se puede obtener mediante ese procedimiento
consistente en partir de letras proposicionales e ir aplicando negaciones y conectivos binarios,
ya que las proposiciones o bien son inanalizables o bien son compuestos en los términos
que venimos tratando. De esa manera, tenemos una caracterización completa de fórmula:
Fórmula es aquello que puede obtenerse a partir de ese procedimiento, y toda fórmula se
puede obtener con este procedimiento. Con esto in mente, presentamos la siguiente
Definición 3.2.1 — Secuencia de formación para la lógica proposicional.
Una secuencia de formación (S. F.) es una secuencia finita en la que cada elemento:

(i) O bien es una letra proposicional.


(ii) O bien es de la forma ¬A, siendo A un elemento anterior en la propia secuencia.
(iii) O bien es de la forma (A ∧ B) siendo A y B elementos anteriores en la propia
secuencia.
(iv) O bien es de la forma (A ∨ B) siendo A y B elementos anteriores en la propia
secuencia.
(v) O bien es de la forma (A → B) siendo A y B elementos anteriores en la propia
secuencia.
(vi) O bien es de la forma (A ↔ B) siendo A y B elementos anteriores en la propia
secuencia.
Por ejemplo, una secuencia de formación, en la que al lado de cada elemento se ha
justificado su inclusión, es la siguiente:

1. p1 Es letra proposicional. Definición de S. F. (i).


2. p5 Es letra proposicional. Definición de S. F. (i).
3. ¬p1 Definición de S. F. (ii) aplicada al elemento 1.
4. (p1 ∧ ¬p1 ) Definición de S. F. (iii) aplicada a los elementos 1 y 3.
5. (p5 → (p1 ∧ ¬p1 )) Definición de S. F. (v) aplicada a los elementos 2 y 4.
6. p3 Es letra proposicional. Definición de S. F. (i).
3 Obsérvese que A y B no pueden pertenecer al lenguaje, sino que se usan para representar cualquier
elemento del lenguaje. Son metavariables, y, como tales, pertenecen al metalenguaje.
4 En caso de que p ∧ q fuese una fórmula. Según lo que estamos discutiendo, no lo es, pues le faltan los

paréntesis exteriores.
70 Capítulo 3. Sintaxis

7. ((p5 → (p1 ∧ ¬p1 )) ∨ p3 ) Definición de S. F. (iv) aplicada a los elementos 5 y 6.

De la discusión anterior, resulta claro que aquellas cadenas que deseamos sean fórmulas
son exactamente aquellas que pueden obtenerse a través de secuencias de formación. Por lo
tanto, definimos:
Definición 3.2.2 — Fórmula de la lógica proposicional.
A es una fórmula de la lógica proposicional si y solo si existe una secuencia de formación
para la lógica proposicional de la cual A es el último elemento.

Notación 3.1. Al lenguaje de la lógica proposicional, o sea, al conjunto de las fórmulas de la lógica
proposicional lo notaremos LP.

Así, podemos demostrar rigurosamente que una cadena dada es una fórmula exhibiendo
una secuencia de formación de la cual la cadena dada sea el último elemento.
Supongamos que queremos demostrar que la cadena ((p1 → (p1 ∧ p1 )) ∨ (p2 ∨ p3 )) es
una fórmula.
Ejercicio 3.1 Justificar que lo siguiente se trata de una secuencia de formación, explici-
tando en cada elemento, qué ítem de la definición 3.2.1 asegura que la construcción es
correcta.

1. p1
2. (p1 ∧ p1 )
3. (p1 → (p1 ∧ p1 ))
4. p2
5. p3
6. (p2 ∨ p3 )
7. ((p1 → (p1 ∧ p1 )) ∨ (p2 ∨ p3 ))

Esto demuestra que la cadena dada es una fórmula del lenguaje LP.

3.3 El bloqueo de la ambigüedad estructural


Acabamos de demostrar que una cadena de símbolos, ((p1 → (p1 ∧ p1 )) ∨ (p2 ∨ p3 )), es
una fórmula, exhibiendo una secuencia de formación. Pero ¿es esta la única secuencia de
formación que la tiene como último elemento? Obviamente no. Por ejemplo, esta también es
secuencia de formación de la misma fórmula:

1. p1 Es letra proposicional. Definición de S. F. (i).


2. ¬p1 Definición de S. F. (ii) aplicada al elemento 1.
3. p17 Es letra proposicional. Definición de S. F. (i).
4. (p1 ∧ p1 ) Definición de S. F. (iii) aplicada a 1.
5. (p1 ∨ ¬p1 ) Definición de S. F. (iv) aplicada a 1 y 2.
3.3 El bloqueo de la ambigüedad estructural 71

6. (p1 → (p1 ∧ p1 )) Definición de S. F. (v) aplicada a 1 y 4.


7. p2 Es letra proposicional. Definición de S. F. (i).
8. p3 Es letra proposicional. Definición de S. F. (i).
9. (p2 ∨ p3 ) Definición de S. F. (iv) aplicada a 7 y 8.
10. (p3 → (p2 ∨ p3 )) Definición de S. F. (v) aplicada a 8 y 9.
11. ((p1 → (p1 ∧ p1 )) ∨ (p2 ∨ p3 )) Definición de S. F. (iv) aplicada a 6 y 9.

Esta nueva secuencia de formación contiene elementos que en algún sentido, caen
fuera de nuestro interés. Pero hay algo bastante profundo que podemos observar aquí. Si
rastreamos cómo se construyó la fórmula en la última secuencia, vemos que el onceavo
elemento, o sea nuestra fórmula, se construyó con los elementos (p1 → (p1 ∧ p1 )) (número
6) y (p2 ∨ p3 ) (número 9). A su vez, el elemento número 6 se construyó con los elementos
p1 (número 1) y (p1 ∧ p1 ) (número 4), mientras que el elemento número 9 se construyó
con los elementos p2 (número 7) y p3 (número 8). Por su parte, el elemento número 4
fue construido a partir de p1 (número 1). No hemos explicado cómo se construyeron los
elementos numerados con el 1, el 7 y el 8 pero obviamente, son letras proposicionales,
elementos básicos que no han sido construidos a partir de otros. Los elementos que nos
parecían inútiles no aparecen en este análisis. Es más, si miramos la primera secuencia de
formación para esta fórmula, que parece ser de máxima economía –en el sentido de que
ninguna secuencia más breve será de formación para esa fórmula–, y hacemos el mismo
trabajo, encontramos que la fórmula se ha construido usando exactamente los mismos
elementos (pruébelo el lector).
Sin embargo, esto no tendría por qué haber sido así si no hubiéramos tomado ciertos
recaudos relacionados con la utilización de paréntesis. Veámoslo con un ejemplo de otro
lenguaje formal, que ya conocemos. Reconsideremos el Lenguaje formal 2 del capítulo
anterior. Ese lenguaje tenía como alfabeto el conjunto {a, b} y podríamos reformular su
definición de fórmula así:
Una secuencia de formación (S.F) es una secuencia finita en la que cada elemento cumple
lo siguiente:

(i’) O bien es a.
(ii’) O bien es b.
(iii’) O bien es de la forma aaA, siendo A un elemento anterior en la propia secuencia.
(iv’) O bien es de la forma Ab, siendo A un elemento anterior en la propia secuencia.

Definimos igualmente fórmula como cualquier elemento final de una secuencia de


formación.
Es claro que la cadena aaab es fórmula, ya que podemos presentar esta secuencia de
formación:

1. a Definición de S.F. (i’).


2. aaa Definición de S.F. (iii’) aplicada a 1.
3. aaab Definición de S.F. (iv’) aplicada a 2.
72 Capítulo 3. Sintaxis

Pero también podemos presentar esta secuencia de formación para la misma fórmula:

1. a Definición de S.F. (i’).


2. ab Definición de S.F. (iii’) aplicada a 1.
3. aaab Definición de S.F. (iv’) aplicada a 2.

Advertimos que en la primera secuencia de formación aaab ha sido construida usando


la cadena aaa, y en la segunda, esta cadena no aparece, sino que lo hace ab, la cual no
aparece en la primera.
Esto está íntimamente relacionado con el fenómeno que ya hemos mencionado un par
de veces y que llamamos ambigüedad estructural.
Supongamos que no hubiéramos incluido los paréntesis en el alfabeto de LP, y que
hubiésemos definido secuencia de formación como una secuencia finita en la que cada
elemento

1. O bien es una letra proposicional.


2. O bien es de la forma ¬A, siendo A un elemento anterior en la propia secuencia.
3. O bien es de la forma A ∧ B siendo A y B elementos anteriores en la propia secuencia.
4. O bien es de la forma A ∨ B siendo A y B elementos anteriores en la propia secuencia.
5. O bien es de la forma A → B siendo A y B elementos anteriores en la propia secuencia.
6. O bien es de la forma A ↔ B siendo A y B elementos anteriores en la propia secuencia.

En este caso, la cadena p1 ∧ p2 ∨ p3 (que, según vimos, habíamos propuesto como


traducción a nuestro tentativo lenguaje formal de, por ejemplo, “Juan estudia filosofía y
artes marciales o tarot”, estructuralmente ambigua) sería una fórmula:

1. p1
2. p2
3. p3
4. p1 ∧ p2
5. p1 ∧ p2 ∨ p3

¿Cómo es que se refleja la ambigüedad estructural en este lenguaje formal tentativo


que venimos manejando? Observe que según esta secuencia de formación, la fórmula es
la disyunción de p1 ∧ p2 y p3 . Sin embargo, tenemos otra secuencia de formación para la
misma fórmula:

1. p1
2. p2
3. p3
4. p2 ∨ p3
5. p1 ∧ p2 ∨ p3
3.4 El teorema de lectura única 73

Según esta secuencia de formación, la fórmula es algo que debería ser muy diferente: la
conjunción de p1 con p2 ∨ p3 . Debería ser diferente, pero no lo es en este lenguaje tentativo.
Para evitar esto fue que se introdujeron los paréntesis en el alfabeto del lenguaje LP. Pero,
¿cómo podemos estar seguros de que ninguna fórmula de LP es ambigua en el sentido
que venimos tratando? En el caso particular que estudiamos, se trataba de una fórmula
que podía ser leída como una conjunción y también como una disyunción. Deberíamos
demostrar un teorema que nos asegurase que en el lenguaje LP ninguna fórmula puede ser
leída de dos maneras diferentes. ¿De qué herramientas disponemos para ello?

Inducción sobre fórmulas


Para contestar esa pregunta, repasemos algunas consideraciones ya hechas en el capítulo
anterior. Habíamos visto allí que en los casos en que tenemos una especificación de las
fórmulas del lenguaje proporcionada a través de una lista o descripción de algunas fórmulas
básicas, y de reglas para la construcción de fórmulas a partir de otras, y una cláusula que
especifique que toda fórmula se puede obtener a partir de las más básicas por aplicación
sucesiva de las reglas de construcción, podíamos demostrar que todas las fórmulas del
lenguaje tienen una propiedad determinada si demostramos que todas las fórmulas básicas
tienen esa propiedad, y que cada vez que se construye una fórmula a partir de algunas que
tienen esa propiedad, la fórmula construida también la tendrá. Aplicado a nuestro lenguaje
LP, eso resulta en lo siguiente:
Supongamos que queremos demostrar que todas las fórmulas de nuestro lenguaje tienen
una propiedad P.
si demostramos que

todas las fórmulas que son una única letra proposicional tienen la propie-
dad P.
siempre que la fórmula A tenga la propiedad P, la fórmula ¬A tendrá la
propiedad P.
siempre que las fórmulas A y B tengan la propiedad P, la fórmula (A B)
(siendo uno cualquiera de estos símbolos: ∧, ∨, → o ↔) tendrá la propiedad
P.

habremos demostrado que todas las fórmulas de LP tienen la propiedad P.

Esto es así porque, evidentemente, en esas condiciones, cualquier término de una secuencia
de formación tendrá la propiedad P. Este procedimiento se conoce como inducción sobre
fórmulas.

3.4 El teorema de lectura única


Quisiéramos demostrar que toda fórmula de LP tiene la propiedad de admitir una única
lectura. No nos conviene en este punto un abordaje demasiado directo, sino que será mejor
demostrar un par de resultados relativos a los paréntesis en las fórmulas –a fin de cuentas,
la introducción de paréntesis fue motivada por el deseo de evitar las lecturas múltiples–.
Comencemos entonces demostrando algo muy fácil, a lo que le pondremos el humilde mote
74 Capítulo 3. Sintaxis

de “Lema”.

Lema 3.4.1 — Paréntesis derechos e izquierdos.


En toda fórmula del lenguaje LP hay la misma cantidad de paréntesis derechos que de
paréntesis izquierdos.
demostración: Es claro que las fórmulas que son una letra proposicional tienen la misma
cantidad de paréntesis izquierdos y derechos, cero de cada uno de ellos.
Sea A una fórmula con la misma cantidad de paréntesis izquierdos y derechos. Clara-
mente, la fórmula ¬A tiene también la misma cantidad de paréntesis izquierdos y derechos
que A, y en A estas cantidades son iguales.
Sean A y B fórmulas en cada una de las cuales la cantidad de paréntesis izquierdos iguala
a la de paréntesis derechos. Consideremos la fórmula (A B) siendo uno cualquiera de
los símbolos ∧, ∨, → o ↔, y veamos que tiene la misma cantidad de paréntesis derechos e
izquierdos: si A tiene m paréntesis derechos y m paréntesis izquierdos, mientras B tiene n
paréntesis derechos y n izquierdos, en la nueva fórmula están los mismos símbolos que en
A y B más un paréntesis derecho, uno izquierdo y , por lo que en (A B) habrá m + n + 1
paréntesis izquierdos y la misma cantidad de paréntesis derechos.
Demostraremos ahora otro lema que nos dirá que si partimos una fórmula en dos partes,
izquierda y derecha –ninguna de las dos vacía–, o bien la parte izquierda es una cadena que
consta solo de negadores, o bien tiene más paréntesis izquierdos que derechos.
 Ejemplo 3.1 Podemos dividir la fórmula ¬¬¬((p1 ∧ p2 ) → p3 ) en una parte izquierda, ¬¬,

y una derecha, ¬((p1 ∧ p2 ) → p3 ). En este caso la parte izquierda consta solo de negadores.
Otra posibilidad es que la parte izquierda sea ¬¬¬((p1 ∧ p2 ) → y la derecha p3 ). En este
caso la parte izquierda consta de dos paréntesis izquierdos y uno derecho.
Lema 3.4.2 — Partes derechas e izquierdas de las fórmulas.
Si en una fórmula de más de n símbolos se considera la cadena formada por los primeros
n de ellos –a la que llamaremos “parte izquierda de la fórmula”– se tiene que o bien esa
cadena consta solamente de negadores o bien en esa cadena hay más paréntesis izquierdos
que paréntesis derechos.
demostración: Es claro que no tenemos que probar nada sobre las letras proposicionales,
porque no pueden dividirse en parte derecha e izquierda.
Sea A una fórmula tal que cada vez que se divide en parte derecha e izquierda, o bien
la parte izquierda consta solo de negadores o bien la parte izquierda tiene más paréntesis
izquierdos que derechos.
Consideremos la fórmula ¬A y dividámosla en una parte izquierda y una derecha. La
parte izquierda que hemos obtenido es o bien el negador que la encabeza o bien una parte
izquierda de A precedida de un negador. En el primer caso, es claro que la parte izquierda
tiene solo negadores. En el segundo caso, si la parte izquierda de A que consideramos solo
tiene negadores, lo mismo pasa con la parte izquierda de ¬A. Si la parte izquierda de A
que consideramos tiene más paréntesis izquierdos que derechos, lo mismo pasa con la parte
izquierda de ¬A, ya que solo difieren en un negador.
Sean ahora dos fórmulas, A y B, que cumplen la propiedad que venimos considerando:
cualquiera de sus partes izquierdas consta solo de negadores o tiene más paréntesis izquier-
3.4 El teorema de lectura única 75

dos que derechos. Formemos la fórmula (A B), siendo uno cualquiera de los conectivos
binarios, y dividamósla en una parte izquierda y una derecha.
Tenemos varios casos:

La parte izquierda de (A B) que consideramos es (. En este caso obviamente consta


de más paréntesis izquierdos que derechos.
La parte izquierda de (A B) que consideramos es (X siendo X una parte izquierda
de A. Tanto si X consta solo de negadores como si X tiene más paréntesis izquierdos
que derechos, (X tiene más paréntesis izquierdos que derechos.
La parte izquierda de (A B) que consideramos es (A o (A . En ambos casos la
cantidad de paréntesis izquierdos supera en 1 a la cantidad de paréntesis derechos en
esa parte izquierda, ya que según el lema 3.4.1, la cantidad de paréntesis izquierdos y
derechos en A –que es una fórmula– es la misma.
La parte izquierda de (A B) que consideramos es (A X siendo X una parte izquierda
de B. Si X consta solo de negadores, por la misma razón que en el caso anterior, la
cantidad de paréntesis izquierdos supera en 1 a la de paréntesis derechos en (A X. Si
X tiene más paréntesis izquierdos que derechos, y la diferencia entre esas cantidades
es k, es claro que en (A X hay k + 1 paréntesis izquierdos más que derechos.
La parte izquierda de (A B) que consideramos es (A B. En este caso, como A y B
son fórmulas, por el lema 3.4.1, tienen la misma cantidad de paréntesis izquierdos que
derechos, de modo que en (A B la cantidad de paréntesis izquierdos supera en 1 a
la de paréntesis derechos.

¿Por qué nos hemos tomado el trabajo de demostrar estos tediosos lemas? La respuesta
es que juntos dan un corolario que nos será fundamental para demostrar que hemos
evitado completamente la ambigüedad estructural: dado que ninguna fórmula consta solo
de negadores o tiene más paréntesis izquierdos que derechos,

Corolario 3.4.3 Ninguna parte izquierda de una fórmula es una fórmula.

Estamos en condiciones de demostrar que no hay ninguna fórmula de nuestro lenguaje


que admita dos lecturas diferentes. Eso es exactamente lo que establece el

Teorema 3.4.4 — Lectura única.


Toda fórmula de LP tiene una y solo una de las siguientes formas:

1. pk (o sea, es una letra proposicional)


2. ¬A, siendo A una única fórmula.
3. (A ∧ B), siendo A y B fórmulas únicas.
4. (A ∨ B), siendo A y B fórmulas únicas.
5. (A → B), siendo A y B fórmulas únicas.
6. (A ↔ B), siendo A y B fórmulas únicas.
76 Capítulo 3. Sintaxis

Observemos, antes de demostrarlo, que nos asegura lo que su título pregona: toda
fórmula puede leerse de una manera única y determinada. Si una fórmula es de la forma
2, diremos que su conectivo principal es una negación, y también que la fórmula es una
negación. Si es de la forma 3, diremos que su conectivo principal es una conjunción y
también que la fórmula es una conjunción; y análogamente con las formas 4 – 6. Así,
estamos seguros, por ejemplo, de que ninguna conjunción es también una disyunción.
Procedamos ahora a la
demostración: Es obvio que cualquier fórmula debe tener una de las formas 1 – 6, ya
que todos los elementos en una secuencia de formación son de alguna de esas formas. El
problema es mostrar que ninguna fórmula tiene más de una de esas formas. Es claro además
que si una fórmula tiene la forma 1 (es una variable proposicional) no tiene ninguna de las
otras formas, y lo mismo si tiene la forma 2 (es una negación) no tiene ninguna de las otras
formas. Además, si pn = pm , obviamente n = m, y si ¬A = ¬X, obviamente A = X.
Supongamos ahora que tenemos una fórmula que podemos expresar de dos maneras
en un par de las formas 3 – 6, es decir, una fórmula que se puede escribir como (C  D)
y también como (E  F), donde  y  son conectivos binarios, C, D, E y F fórmulas.
Mostraremos que debe ser C = E,  =  y D = F.
Como las cadenas (C  D) y (E  F) son iguales, también son iguales las cadenas que se
obtienen al quitar los paréntesis iniciales de cada una:
C  D) = E  F)
Pero entonces es claro que si C y E fueran distintas, C sería parte izquierda de E o E
sería parte izquierda de C, lo que es imposible por el Corolario 3.4.3 dado que ambas son
fórmulas. Entonces E = C, y por lo tanto
D) = F)
De aquí es inmediato
=
y entonces
D) = F)
y nuevamente, si D y F fuesen diferentes, una sería parte izquierda de la otra, lo que es
imposible. Por lo tanto, D = F.

3.5 Árbol de formación de una fórmula


Podemos, a partir de este resultado, idear un procedimiento que nos garantizará, dada
una fórmula, obtener una secuencia de formación para ella que sea mínima, es decir, sin
elementos innecesarios, a la vez que nos proporciona una comprensión perspicua de su
estructura sintáctica. Ese procedimiento es la construcción de un árbol de formación. Conside-
raremos que el árbol generado por una fórmula es un diagrama5 construido mediante las
siguientes reglas:
5 En puridad el árbol no es el diagrama, sino el grafo –una estructura matemática– que se representa con el

diagrama. Pero para nuestros propósitos es suficiente considerarlo un diagrama.


3.5 Árbol de formación de una fórmula 77

1. En la raíz del árbol se coloca la fórmula en cuestión.


2. Como es una fórmula, o bien:
a) Es una letra proposicional (en cuyo caso no tiene descendientes)
b) Es de la forma ¬A, en cuyo caso tiene como descendiente a A.
c) Es de la forma (A ∧ B), (A ∨ B), (A → B), (A ↔ B), en cuyo caso tiene como
descendientes a A y a B.
3. Se repite el proceso con los descendientes obtenidos, hasta que solo queden letras
proposicionales en los nodos terminales del árbol.

Los árboles de formación desafían la ley de la gravedad: convencionalmente, la raíz está


arriba, y los descendientes de cada nodo se colocan debajo de él. Disponiendo del árbol, se
puede construir una secuencia de formación sin elementos innecesarios, cuyos elementos
serán los nodos, comenzando por los más bajos, y teniendo siempre el cuidado de no incluir
nunca un nodo hasta tanto no se hayan incluido todos sus descendientes.
Los nodos del árbol (incluyendo la propia fórmula) se llaman subfórmulas de la fórmula
dada. Son los componentes mínimos requeridos para una secuencia de formación cuyo
último elemento sea la fórmula dada. Es claro que todas las subfórmulas de una fórmula
son, a su vez, fórmulas y que toda fórmula es subfórmula de sí misma.
 Ejemplo 3.2 Árbol de formación de la fórmula (((p1 ∧ ¬p2 ) → p4 ) ↔ (p2 ∨ p1 ))

(((p1 ∧ ¬p2 ) → p4 ) ↔ (p2 ∨ p1 ))

((p1 ∧ ¬p2 ) → p4 ) (p2 ∨ p1 )

(p1 ∧ ¬p2 ) p4 p2 p1

p1 ¬p2

p2

 Ejemplo 3.3 ¿Es (p1 → p2 ) subfórmula de (¬p1 → p2 )?


El árbol de formación de esta última fórmula es:

(¬p1 → p2 )

¬p1 p2

p1

Como en ningún nodo del árbol se encuentra (p1 → p2 ), la respuesta es negativa.


78 Capítulo 3. Sintaxis

3.6 Ejercicios

1. ¿Son fórmulas de LP las siguientes cadenas? (En caso de que lo sean, demostrarlo a
través de una secuencia de formación; en caso de que no lo sean, justificarlo).
a) p385716
b) pi
c) (p ∧ q)
d) (A → B)
e) (p12 ∨ p11 )¬p4
f ) ((¬(p12 ∨ p11 ) ↔ ((¬p4 ∧ p3 ) → p5 )))

2. Presentar el árbol de formación y una secuencia de formación de las siguientes


fórmulas de LP:
a) (¬(p2 ∨ p1 ) → p3 )
b) ¬((p2 ∨ p1 ) → p3 )
c) (¬¬(p1 ∧ ¬p1 ) → (¬¬p1 ∨ ¬p1 ))
d) (¬((((p2 ∨ p3 ) ∨ p2 ) ∨ p3 ) ∨ p2 ) ∨ p3 )
e) ¬¬(¬p1 ↔ ¬p2 )
f ) ((p1 ∧ p2 ) ∨ ¬¬¬¬(p1 → p14 ))
g) (p1 → (p1 → (p1 → (p1 → p1 ))))

3. Demostrar que una fórmula que tiene exactamente n símbolos (contando repeticiones)
no tiene n − 1 subfórmulas.

4. Escriba una fórmula de LP que no pueda aparecer como quinto elemento de ninguna
secuencia de formación.

5. ¿Puede una fórmula de LP constar de cinco letras proposicionales diferentes y de


cinco pares de paréntesis, además de otros símbolos que no sean letras ni paréntesis?
Explique.

6. Si una fórmula de LP tiene doce pares de paréntesis y cinco conjunciones, ¿Cuál es el


máximo de disyunciones que puede tener? ¿Y de negaciones?

7. ¿Cuáles símbolos no pueden aparecer contiguos en una fórmula de LP? Explique.

8. Demuestre que ninguna fórmula de LP que no tiene negadores tiene 4000, 4002, 4003
o 4004 símbolos.

9. Suponga que tiene una fórmula de LP, y que la coloca entre paréntesis (es decir, coloca
un paréntesis izquierdo precediéndola y un paréntesis derecho siguiéndola). ¿Es la
cadena así obtenida una fórmula de LP en algún caso? Justifique.

10. Busque información sobre la notación polaca para la lógica proposicional. Traduzca a
3.6 Ejercicios 79

ella cinco fórmulas que aparezcan en esta sección de ejercicios.


4 | Semántica

e acuerdo a la caracterización de la lógica que hicimos, nuestro propósito al cons-

D truir el lenguaje formal LP que presentamos, es lograr distinguir algunas inferencias


como correctas. En nuestro marco, que una inferencia sea correcta significa que si
sus premisas son verdaderas, entonces necesariamente su conclusión también debe serlo.
Esto es suficiente para mostrar que debemos considerar el problema de asignar valores
de verdad a los correlatos formales de las proposiciones, ya que necesitamos establecer un
criterio que nos permita distinguir, al menos en ciertos casos1 , aquellas inferencias en las
que es imposible que las premisas sean verdaderas y la conclusión falsa, de aquellas en las
que puede darse que la conclusión sea falsa aunque las premisas sean verdaderas. Es por
esto que no basta simplemente con “otorgar” un valor de verdad a todas las fórmulas, sino
que, para nuestros propósitos, esto debe hacerse teniendo en cuenta algunas restricciones
muy fuertes.
Consideremos la siguiente inferencia de cuño platónico:

Si el conocimiento es sensación, entonces los cerdos tienen conocimiento.


Los cerdos no tienen conocimiento.
El conocimiento no es sensación.

Alguien podría decir que las dos premisas son verdaderas y que la conclusión es falsa.
Sin embargo, hay algo que rechazamos en esta posibilidad, ya que tenemos la fuerte intuición
de que la inferencia es correcta, es decir que, sin tomar partido sobre si las premisas son
verdaderas o no, no nos parece admisible que si las premisas fuesen verdaderas, no lo fuese
la conclusión. Es más, supongamos que alguien nos expresa las dos proposiciones que
fungen de premisas en el argumento:

Si el conocimiento es sensación, entonces los cerdos tienen conocimiento.


Los cerdos no tienen conocimiento.

Ni siquiera necesitamos que nos explicite oralmente que su opinión es que el conocimiento
no es sensación. Lo suponemos, porque aceptamos que esa opinión es consecuencia lógica de
lo que ya nos ha dicho. Si luego agregara
El conocimiento es sensación.
1 En ciertos casos porque esto depende de la capacidad expresiva del lenguaje que construyamos. Habrá

inferencias correctas cuya corrección no se podrá capturar con el lenguaje de la lógica proposicional, y sí con
otros lenguajes más ricos.
82 Capítulo 4. Semántica

entenderíamos que ha habido algún tipo de error. Tal vez, en un caso así, pensemos que
hemos oído mal, o que nuestro interlocutor ha pronunciado mal alguna oración, o que
ha dicho las cosas a la ligera, sin pararse a pensar en sus dichos. Si le hacemos notar que
creemos que hay un error y nuestro interlocutor se obstina en mantener que las premisas
son ambas verdaderas y que la conclusión (El conocimiento no es sensación) es falsa, no
dudaríamos en decir que su razonamiento no es correcto, que está transgrediendo, de alguna
manera, la lógica.
Ahora bien; ¿qué es lo que nos impide aceptar que existe la posibilidad de que esas pre-
misas sean verdaderas y a la vez, esa conclusión falsa? De acuerdo a anteriores discusiones,
lo que nos compele a asegurar que bajo la condición de que las premisas sean verdaderas,
la conclusión también lo será, es el comportamiento o significado que asignamos a la construcción
“Si. . . entonces . . . ” y a la palabra “no”.
Las funciones de esa construcción y de esa palabra, –ambas pertenecientes al lenguaje
natural–, son representadas en nuestro lenguaje formal mediante las conectivas → y ¬2 , y si
deseamos que esta formalización sea fructífera a la hora de representar las relaciones entre
los valores de verdad que otorgamos a diversas fórmulas –para poder distinguir algunas
inferencias como correctas–, es necesario que tengamos en cuenta esas funciones al dar los
significados a nuestras fórmulas.
Las cuestiones del significado se consideran en la semántica del lenguaje, que es lo que
abordaremos a continuación. Queda claro por lo tanto que la semántica de nuestro lenguaje
formal deberá ocuparse de la correspondencia entre fórmulas y valores de verdad, y que
deberá hacerlo no de cualquier manera, sino de acuerdo al comportamiento que esperamos
tengan los conectivos lógicos.

4.1 Verdadero, falso e interpretaciones


Consideremos entonces dos objetos (no entraremos en la discusión filosófica acerca de
la naturaleza de estos objetos) a los que llamaremos “verdadero” y “falso”, designaremos
respectivamente con las letras V y F, y serán llamados valores de verdad3 .
Las fórmulas “toman” valores de verdad a través de valuaciones, como indica la siguiente
Definición 4.1.1 — Valuación de LP.
Una valuación de LP es una asignación de un único valor de verdad a cada fórmula de
LP.

Notación 4.1. Si A es una fórmula, y v una valuación, representaremos con v(A) el valor de verdad
que la valuación v asigna a la fórmula A.

Por supuesto, existen infinitas valuaciones; una valuación (a la que podemos llamar v)
es tal que v(A) = V para toda fórmula A; otra valuación u es tal que u(A) = F para toda
fórmula A; otra valuación w es tal que w(A) = V si A es una fórmula en la que aparece p1
y w(A) = F si A es una fórmula en la que p1 no aparece, etc. Veremos en breve que ninguna
de estas valuaciones tiene relevancia para nuestros intereses. Consideremos nuevamente el
2 Observe que no se representan las palabras “si”, “entonces”, “no”, sino las funciones que cumplen en los
enunciados.
3 V y F no son, por supuesto, símbolos del lenguaje. Esta presentación de la semántica necesita de estos dos

objetos extralingüísticos (con respecto al lenguaje objeto).


4.1 Verdadero, falso e interpretaciones 83

argumento platónico. Si representamos El conocimiento es sensación con p1 , Los cerdos tienen


conocimiento con p2 , el argumento se puede representar así:

(p1 → p2 ) Si el conocimiento es sensación, entonces los cerdos tienen conocimiento.


¬p2 Los cerdos no tienen conocimiento.
¬p1 El conocimiento no es sensación.

Hay infinitas valuaciones que asignan valor V a (p1 → p2 ) y a ¬p2 , a la vez que asignan
valor F a ¬p1 . Estas valuaciones no respetan el comportamiento de los conectores que está en la base
del funcionamiento lógico del argumento. Por lo tanto, nuestra tarea será cumplida observando
en cada caso el comportamiento de los conectivos, para fundar la semántica de nuestro
lenguaje formal solamente en aquellas valuaciones que sí respeten ese comportamiento.
Consideremos la negación. De acuerdo a discusiones previas, si una valuación asigna
valor V a una fórmula A, esperamos que asigne valor F a la fórmula ¬A, y esta condición
sea recíproca. Con respecto a la conjunción, esperamos que, si una valuación asigna valor
de verdad V a las fórmulas A y B, entonces asigne valor de verdad V a la formula (A ∧ B),
y recíprocamente, si asigna valor de verdad V a (A ∧ B), entonces asigne valor de verdad V
tanto a A como a B, y hay consideraciones similares para los restantes conectivos, que ya
hemos discutido en un nivel informal.
Las valuaciones que nos interesan realmente son las que cumplen con las condiciones
arriba sugeridas, a las que llamaremos interpretaciones y esto amerita la siguiente
Definición 4.1.2 — Interpretación de LP.
Una interpretación I de LP es una valuación de LP que cumple las siguientes condiciones
(para fórmulas A y B cualesquiera):

1. I(¬A) = V si y solo si I(A) = F.


2. I(A ∧ B) = V si y solo si I(A) = I(B) = V.
3. I(A ∨ B) = F si y solo si I(A) = I(B) = F.
4. I(A → B) = F si y solo si I(A) = V e I(B) = F.
5. I(A ↔ B) = V si y solo si I(A) = I(B)

Para hacernos una idea concreta acerca de cómo funcionan las interpretaciones, exami-
nemos el siguiente argumento, presentado con su formalización adjunta:

Existe una ley moral objetiva. p1


Si existe una ley moral objetiva, entonces hay una fuente de la ley moral. (p1 → p2 )
Si hay una fuente de la ley moral, entonces Dios existe. (p2 → p3 )
Dios existe. p3

(El argumento es de C. S. Lewis, quien al exponerlo, elimina la posibilidad de otras


fuentes de ley moral diferentes de Dios).
Sin importar si consideramos las premisas verdaderas o falsas, es intuitivamente claro
que si las premisas son verdaderas, entonces la conclusión debe serlo. Intuitivamente,
84 Capítulo 4. Semántica

estamos frente a un argumento válido. Las interpretaciones logran capturar esa intuición.
Supongamos que I es una interpretación que cumple:

I(p1 ) = I((p1 → p2 )) = I((p2 → p3 )) = V

(o sea, que asigna valor de verdad V a todas las premisas).


En ese caso, se cumple que I(p3 ) = V (o sea, I no puede, siendo una interpretación,
asignar valor de verdad F a la conclusión, dado que asignó V a las premisas, lo que indica
el buen funcionamiento de las interpretaciones para capturar la idea de corrección lógica),
como veremos:
De I(p1 ) = V e I((p1 → p2 )) = V se infiere que

I(p2 ) = V

con el siguiente razonamiento: I es interpretación, y tenemos que I((p1 → p2 )) = V. Consi-


derando cómo tratan las interpretaciones el condicional (Definición 4.1.2 (4)), advertimos
que tiene que darse una de las siguientes posibilidades:

1. I(p1 ) = I(p2 ) = V
2. I(p1 ) = I(p2 ) = F
3. I(p1 ) = F
I(p2 ) = V

Pero 2 y 3 no pueden ser porque tenemos que I(p1 ) = V. Un razonamiento análogo muestra
que siendo I(p2 ) = V (como acabamos de demostrar) e I((p2 → p3 )) = V, tiene que ser

I(p3 ) = V

como pretendíamos que sucediese si el sistema se comporta en la forma esperada.

Ejercicio 4.1 Argumente, a través de interpretaciones de LP, que el argumento platónico


que concluye que el conocimiento no es sensación al inicio capítulo, es válido.

4.2 Tautologías, contradicciones y contingencias


Es en el sentido que acabamos de ver que las interpretaciones recogen nuestras intui-
ciones lógicas. Es natural por tanto, que aquellas cosas que llamamos a veces “verdades
lógicas”, puedan ser vistas bajo la luz de las interpretaciones. Sin necesidad de hacer viajes
interplanetarios consideramos verdadera la siguiente proposición:
Hay vida en Urano o no hay vida en Urano.
Esa proposición es traducible por la fórmula (p7 ∨ ¬p7 ). Es obvio que una interpretación
I puede asignar tanto I(p7 ) = V como I(p7 ) = F. Pero si I(p7 ) = V, como I es interpretación,
será I((p7 ∨ ¬p7 )) = V; y si I(p7 ) = F, como I es interpretación, será I(¬p7 ) = V, con lo que,
recordando nuevamente que I es interpretación, sabemos que I((p7 ∨ ¬p7 )) = V. Hemos
concluido que cualquier interpretación asigna valor V a la fórmula (p7 ∨ ¬p7 ).
4.3 Tablas de verdad 85

Así como hay fórmulas que son verdaderas bajo toda interpretación, otras son falsas bajo
toda interpretación (el lector podrá probar fácilmente que la fórmula (p5 ∧ ¬p5 ) lo es), y hay
otras que son verdaderas bajo unas interpretaciones y falsas bajo otras, como cualquier letra
proposicional. Es una distinción sumamente importante y queda recogida en la siguiente
Definición 4.2.1 — Tautología, contradicción, contingencia.
Una fórmula A es una

tautología si I(A) = V para toda interpretación I.


contradicción si I(A) = F para toda interpretación I.
contingencia si existen un par de interpretaciones, I y J, tales que
I(A) = V y J(A) = F.

4.3 Tablas de verdad

Nos enfrentamos ahora al problema de determinar si una fórmula dada es una tautología,
una contradicción o una contingencia, y en este último caso, bajo qué “condiciones” es
verdadera y bajo qué “condiciones” es falsa, o sea, cuáles interpretaciones le asignan valor
V y cuáles le asignan valor F.
Consideremos la fórmula ((p1 ∧ p2 ) → p1 ). Intuitivamente parece tratarse de una tauto-
logía (habíamos utilizado proposiciones de este tipo en nuestra discusión informal acerca
del condicional material, y habíamos dicho que debían ser siempre verdaderas). Pero ¿cómo
probarlo? Lo más natural es considerar los valores de verdad que una interpretación podría
otorgar a los “elementos mínimos” o sea, las letras proposicionales p1 y p2 , y con ellos,
encontrar los valores de verdad de cada subfórmula de la fórmula dada. Esto nos lleva al
siguiente estudio por casos:
Al inicio tenemos que decidir cuántos casos consideraremos. Como el valor de verdad
que la fórmula obtendrá en una interpretación solo depende de los valores de verdad
que esta asigne a las letras proposicionales que aparezcan en la fórmula, solo debemos
concentrarnos en considerar todas las combinaciones posibles de valores de verdad para esas
letras proposicionales. En nuestro caso, en la fórmula aparecen dos letras proposicionales,
p1 y p2 , lo que nos da cuatro combinaciones posibles:

p1 p2
V V
V F
F V
F F

¿Qué sucedería si en vez de dos letras proposicionales tuviésemos tres? En ese caso, las
combinaciones posibles serían ocho:
86 Capítulo 4. Semántica

p1 p2 p3
V V V
V V F
V F V
V F F
F V V
F V F
F F V
F F F

De acuerdo a un hecho básico de combinatoria, si tenemos n letras proposicionales,


debemos considerar 2n combinaciones posibles de sus valores de verdad. Advierta el lector
que el número de combinaciones crece muy rápidamente con el de letras proposicionales.
Por ejemplo, con 10 de estas se tendrían 210 = 1024 combinaciones. Una forma muy cómoda
de encontrar todas esas combinaciones es la siguiente: colocadas las letras proposicionales en
un renglón, como hicimos antes, se determina la cantidad de combinaciones que necesitamos
examinar. Imaginemos que son 64 combinaciones (porque tenemos 6 letras proposicionales).
Eso nos indica que utilizaremos 64 renglones bajo las letras proposicionales, y los llenaremos
así: bajo la primera letra proposicional considerada, colocaremos dos bloques: uno de 32
uves y otro de 32 efes (en general, la cantidad de uves y efes es la mitad de la cantidad
de combinaciones a considerar). Luego se va duplicando la cantidad de bloques como se
muestra a continuación. Bajo la segunda letra proposicional considerada, irán 4 bloques:
uno con 16 uves, seguido de uno de 16 efes, al que le seguirá otro de 16 uves, terminando
con uno de 16 efes. Bajo la tercera letra proposicional se colocarán 8 bloques alternados
de uves y efes que constarán de 8 renglones cada uno. Bajo la cuarta letra proposicional
deben ir 16 bloques alternados de uves y efes con 4 renglones cada uno. Bajo la quinta letra
se alternarán bloques de dos renglones cada uno, y bajo la última las uves y las efes se
alternarán de renglón en renglón. Es usual que se haga de modo que en el primer renglón
se lean todas uves y en el último todas efes. Si el lector observa los ejemplos dados, verá
que es el procedimiento que hemos seguido.
Con esto in mente volvamos a la fórmula que teníamos entre manos, colocando bajo sus
letras proposicionales valores de verdad que evidencien todas las combinaciones posibles
de estos:

((p1 ∧ p2 ) → p1 )
V V V
V F V
F V F
F F F

Obviamente, la última columna debe repetir la primera, ya que ambas se encuentran


bajo la misma letra proposicional.
De lo estudiado en sintaxis, sabemos que la fórmula es un condicional. O sea, el segundo
conectivo que aparece en ella es el principal, por lo que será el último que se evaluará. El
condicional conecta (p1 ∧ p2 ) y p1 . Para poder evaluarlo debemos conocer los valores de
verdad asignados a (p1 ∧ p2 ), los que colocaremos bajo el conectivo ∧, y a p1 , que ya los
4.3 Tablas de verdad 87

tenemos. Recordando que una conjunción solo es verdadera si sus dos conyuntos lo son,
completamos la columna bajo el conectivo ∧, tomando en cuenta los valores de verdad
atribuidos a los conyuntos, que son p1 y p2 :

((p1 ∧ p2 ) → p1 )
V V V V
V F F V
F F V F
F F F F

Ahora solo resta evaluar los valores de verdad que se asignan a toda la fórmula,
colocándolos bajo su conectivo principal, el condicional. Para hacerlo, recordamos que
un condicional es falso solo cuando su antecedente es verdadero y su consecuente falso, y
consideramos los valores ya asignados al antecedente, (p1 ∧ p2 ), que se encuentran bajo el
conectivo principal de esta subfórmula, ∧, y su consecuente, p1 , que se encuentran en la
última columna:

((p1 ∧ p2 ) → p1 )
V V V V V
V F F V V
F F V V F
F F F V F

La columna correspondiente al conectivo principal de la fórmula, compuesta únicamente


de uves, indica que se trata de una tautología. Hemos analizado todas las combinaciones
posibles de valores de verdad para p1 y p2 , y en todas ellas el valor de verdad asignado a la
fórmula es verdadero.
Para realizar tablas de verdad es necesario recordar el comportamiento semántico de los
conectivos, que presentamos ahora en forma de tabla, siendo A y B fórmulas cualesquiera:

¬ A (A ∧ B) (A ∨ B) (A → B) (A ↔ B)
F V V V V V V V V V V V V V
V F V F F V V F V F F V F F
F F V F V V F V V F F V
F F F F F F F V F F V F

Consideremos ahora la fórmula ((p1 ∨ p2 ) → p1 ). Un tratamiento similar nos da la


siguiente tabla:

((p1 ∨ p2 ) → p1 )
V V V V V
V V F V V
F V V F F
F F F V F

La presencia tanto de uves como efes bajo el conectivo principal indica que se trata de
una contingencia.
88 Capítulo 4. Semántica

Estos dos ejemplos nos han mostrado dos cosas fundamentales. La primera es un método
sistemático para clasificar fórmulas en tautologías, contradicciones, contingencias y para
determinar cuáles interpretaciones asignan V a una contingencia y cuáles le asignan F. Este
método se llama método de tablas de verdad y fue introducido por Wittgenstein e, independien-
temente, por Post. Consiste en el cálculo sistemático y ordenado de los valores de verdad
de las subfórmulas de la fórmula en consideración bajo todas las combinaciones posibles
de atribuciones de valores de verdad a las letras proposicionales que en ella aparecen,
como muestran los ejemplos dados. Es importantísimo recordar, al aplicarlo, que se deben
considerar todas las combinaciones posibles de asignación de valores de verdad a las letras
proposicionales, para lo que hemos mostrado un procedimiento sistemático. La segunda
cosa fundamental que intuimos en este ejemplo es que una interpretación queda totalmente
determinada una vez que asignamos valor de verdad a todas las letras proposicionales. Con
esto queremos decir que si sabemos que una valuación es una interpretación y conocemos
los valores de verdad que asigna a las letras proposicionales, entonces, podemos encontrar
el valor de verdad que asigna a cualquier fórmula.
Definición 4.3.1 — Asignación proposicional.
Una asignación proposicional es una asignación de un único valor de verdad a cada una
de las letras proposicionales.

Notación 4.2. Si pk es una letra proposicional y j una asignación proposicional, representaremos


con j(pk ) el valor de verdad que la asignación proposicional j asigna a la letra proposicional pk .

4.4 Asignaciones proposicionales e interpretaciones


Vamos a demostrar que teníamos una intuición correcta al suponer que asignando
valores de verdad a las letras proposicionales, estamos, implícitamente, asignando valores
de verdad a todas las fórmulas del lenguaje. Así, lo que vamos a demostrar es que una
interpretación determina y queda determinada por una asignación proposicional.

Teorema 4.4.1 — Determinación recíproca de asignaciones e intepretaciones.


Dada una interpretación I, existe una única asignación proposicional j tal que
j(pk ) = I(pk ) para toda letra proposicional pk .
Dada una asignación proposicional j, existe una única interpretación I tal que
j(pk ) = I(pk ) para toda letra proposicional pk .

demostración: Es obvio que la primera parte del teorema se cumple. Una interpretación
I dada, como asigna valores de verdad a todas las fórmulas, en particular, asigna valores
de verdad únicos a cada letra proposicional. La asignación proposicional j que asigna los
mismos valores que I a cada letra proposicional es la buscada y es la única que cumple lo
pedido.
Demostrar la segunda es más complicado. Partimos de una asignación proposicional j y
debemos demostrar que existe una única interpretación I que asigna los mismos valores de
verdad que j a cada letra proposicional. Dividiremos la demostración en dos partes. Primero
demostraremos que existe una interpretación que asigna a cada letra proposicional el mismo
valor de verdad que j, y luego demostraremos que esa interpretación es única.
4.4 Asignaciones proposicionales e interpretaciones 89

1. Existencia: Sea A cualquier fórmula. Según el teorema 3.4.4, de lectura única, A


tiene un conjunto único de subfórmulas, entre las que se encuentran algunas letras
proposicionales. Sea I tal que asigna el mismo valor que j a esas letras proposicionales,
y a las subfórmulas de A (de las cuales una es la propia A) los valores que les
corresponden según las reglas de las interpretaciones, calculados a partir de los
valores dados a las letras proposicionales. El procedimiento es equivalente a hacer el
árbol de formación de las fórmulas, asignar el valor de verdad a los nodos terminales,
que son letras proposicionales, según los valores que j les asigna, e ir subiendo por las
ramas respetando las constricciones de las interpretaciones hasta llegar a la fórmula A.
Es obvio que haciendo esto sobre todas las fórmulas, obtenemos una interpretación I
que asigna los mismos valores que j a todas las letras proposicionales.
2. Unicidad: Supongamos que hay dos interpretaciones I y J tales que asignan el mismo
valor de verdad a todas las letras proposicionales. Mostraremos que deben asignarle
el mismo valor de verdad a todas las fórmulas de LP. Para eso, introduciremos
una nueva forma de hablar: diremos que dos interpretaciones coinciden sobre un
conjunto de fórmulas si asignan el mismo valor de verdad a todas las fórmulas de
ese conjunto. En estos términos, queremos demostrar que si dos interpretaciones
coinciden sobre el conjunto de las letras proposicionales, coinciden sobre LP. Para
hacerlo, introduzcamos otro concepto: el grado de una fórmula. Este será la cantidad
de conectivos que tenga, y si A es una fórmula, notaremos su grado como gr(A). Así,
gr(p12 ) = 0, gr((¬p5 ↔ p104 )) = 2, etc. Obviamente, las únicas fórmulas de grado 0
son las letras proposicionales. Procedamos ahora a la demostración. Supongamos que
I y J coinciden sobre el conjunto de las letras proposicionales y no coinciden sobre un
conjunto no vacío de fórmulas y llegaremos a una contradicción así: En el conjunto
de las fórmulas sobre el que I y J no coinciden (o sea, asignan valores distintos) hay
algunas que tienen el grado mínimo. Todas las fórmulas de grado menor que ellas
reciben el mismo valor de verdad por I y por J. Sea A una de las fórmulas de grado
mínimo sobre las que I y J no coinciden. Nuevamente, según el Teorema 3.4.4, una y
solo una de las siguientes posibilidades se cumple:

a) A = pk (o sea, es una letra proposicional). Esto es imposible, porque I y J difieren


sobre A pero coinciden sobre las letras proposicionales.
b) A = ¬X, siendo X una fórmula determinada. Esto es imposible, porque como
gr(X) < gr(A), se tiene I(X) = J(X) y consecuentemente, al ser I y J interpretacio-
nes, debe ser I(¬X) = J(¬X), o sea, I(A) = J(A).
c) A = (X Y), siendo un elemento de {∧, ∨, →, ↔} y X e Y fórmulas de-
terminadas. Esto es imposible, porque al ser gr(X) < gr(A) y gr(Y) < gr(A),
se tiene I(X) = J(X) e I(Y) = J(Y). Como I y J son interpretaciones, debe ser
I((X Y)) = J((X Y)), o sea, I(A) = J(A).

Hemos demostrado así que ninguna de las opciones es posible, de modo que las
interpretaciones I y J, si coinciden sobre todas las letras proposicionales, deben coincidir
sobre todo LP.
Esto nos permite, cuando queremos dar una interpretación, dar simplemente una asig-
nación proposicional. La única interpretación que coincide con la asignación proposicional
90 Capítulo 4. Semántica

dada sobre las letras proposicionales se llama interpretación inducida por la asignación proposi-
cional.

Notación 4.3. Ij es la interpretación inducida por la asignación proposicional j.

O sea, Ij cumple:

Es interpretación.
Es una extensión de j a todo el lenguaje (es decir, se comporta como j sobre las letras
proposicionales y además da valor de verdad a todas las fórmulas).
Es la única extensión de j que es a la vez una interpretación.

 Ejemplo 4.1 Consideremos la asignación proposicional j que asigna valor de verdad V a

p1 y F a todas las demás letras proposicionales. ¿Qué valor de verdad asigna Ij a la fórmula
(p1 ∧ (¬p31 → p1 ))?
El problema se reduce a hallar un renglón de la tabla de verdad:
(p1 ∧ (¬ p31 → p1 ))
V V V F V V
Concluimos que le asigna valor de verdad V, y es claro que podríamos haber determinado
el valor de verdad asignado a cualquier fórmula del lenguaje por la interpretación inducida
por la asignación proposicional dada.

4.5 Modelos y contramodelos


Examinemos ahora las “condiciones” bajo las que una proposición es verdadera un poco
más en detalle. Supongamos que un político dice que la educación mejora si se dictan más
horas de clase y se crean más institutos de enseñanza. Parece claro que lo que dice no es
una verdad lógica ni una contradicción, como podemos verificar fácilmente con el método
de las tablas de verdad, una vez traducida la proposición a la fórmula ((p1 ∧ p2 ) → p3 ):

((p1 ∧ p2 ) → p3 )
V V V V V
V V V F F
V F F V V
V F F V F
F F V V V
F F V V F
F F F V V
F F F V F
Este análisis muestra que esta proposición es una contingencia. Ahora bien, ¿en qué
casos lo que dijo es verdadero? El mismo análisis muestra que:

Es falso si p1 y p2 son ambas verdaderas (es decir, si se dictan más horas de clase y
además se crean más institutos de enseñanza) y p3 es falsa (es decir, si la educación no
mejora). Todas las asignaciones proposicionales en las que p1 y p2 sean verdaderas y
p3 sea falsa, harán falsa la fórmula en su interpretación inducida.
4.5 Modelos y contramodelos 91

Es verdadero si p1 o p2 son falsas, y también es verdadero en cualquier caso en que p3


sea verdadera. Todas las asignaciones proposicionales que hagan p1 falsa, o p2 falsa,
o p3 verdadera (o más de una condición a la vez) harán verdadera la fórmula en su
interpretación inducida.

Definición 4.5.1 — Modelos y contramodelos.


Las interpretaciones que asignan el valor de verdad V a una fórmula se llaman modelos
de la fórmula, y las que le asignan el valor de verdad F se llaman contramodelos de
la fórmula. Los modelos de un conjunto de fórmulas son las interpretaciones que son
modelo de todas las fórmulas del conjunto.

Por lo tanto, todas las interpretaciones son modelos de cualquier tautología, así como
son contramodelos de cualquier contradicción.
 Ejemplo 4.2 — Búsqueda de modelos y contramodelos de una fórmula. Hallemos los
modelos y contramodelos de la fórmula ((p1 → p2 ) ∧ p3 )

((p1 → p2 ) ∧ p3 )
V V V V V Modelos
V V V F F Contramodelos
V F F F V Contramodelos
V F F F F Contramodelos
F V V V V Modelos
F V V F F Contramodelos
F V F V V Modelos
F V F F F Contramodelos

Se observa que hemos encontrado tres filas que indican modelos y cinco que indican
contramodelos. Sin embargo, todas las interpretaciones existentes son o bien modelos o
contramodelos, no solamente ocho de ellas. Lo que la tabla nos indica es:

(Primer renglón): Las infinitas interpretaciones inducidas por las asignaciones propo-
sicionales j que cumplen j(p1 ) = j(p2 ) = j(p3 ) = V, sean cuales sean los valores que
asignen a las restantes letras proposicionales, son modelos de ((p1 → p2 ) ∧ p3 ).
(Quinto renglón): Las infinitas interpretaciones inducidas por las asignaciones propo-
sicionales j que cumplen j(p2 ) = j(p3 ) = V, j(p1 ) = F, sean cuales sean los valores que
asignen a las restantes letras proposicionales, son modelos de ((p1 → p2 ) ∧ p3 ).
(Séptimo renglón): Las infinitas interpretaciones inducidas por las asignaciones propo-
sicionales j que cumplen j(p1 ) = j(p2 ) = F, j(p3 ) = V, sean cuales sean los valores que
asignen a las restantes letras proposicionales, son modelos de ((p1 → p2 ) ∧ p3 ).

Todas las demás interpretaciones son contramodelos de ((p1 → p2 ) ∧ p3 ).

Con respecto a los conjuntos finitos de fórmulas, es inmediato el siguiente


92 Capítulo 4. Semántica

Teorema 4.5.1 Una interpretación I es modelo de un conjunto finito de fórmulas


{A1 , . . . , An } si y solo si es modelo de la fórmula (A1 ∧ · · · ∧ An )a .
a Por supuesto, estamos expresándonos de forma poco rigurosa, ya que no hay fórmulas con esa forma.
Nos referimos a cualquier conjunción de conjunciones de las fórmulas dadas.

La demostración queda como ejercicio para el lector.


 Ejemplo 4.3 — Búsqueda de modelos de un conjunto. Encontrar un modelo del conjunto

{(((p5 ∨ p11 ) → p11 ) ∧ p11 ), p11 , (p11 ∨ p8 ), ¬p12 }

Según el teorema anterior, podríamos hacer la tabla de verdad de la conjunción de esas


cuatro fórmulas y seleccionar las interpretaciones que sean sus modelos. Pero ese sería
un procedimiento largo y tedioso, y tenemos otra forma de hacerlo aplicando un poco de
ingenio. Es claro que si una interpretación I es modelo del conjunto, debe ser

(1) I(p11 ) = V
(2) I(p12 ) = F

No es trabajoso verificar que una interpretación que cumple (1) y (2) es modelo de todas
las fórmulas del conjunto, y que cualquier interpretación que no cumple (1) o (2) no es
modelo de todas las fórmulas del conjunto. Entonces, los modelos del conjunto dado son las
Ij tales que j(p11 ) = V y j(p12 ) = F.
Por supuesto, puede suceder que un conjunto de fórmulas no tenga modelos. Si alguno
de los elementos del conjunto es una contradicción, eso es inmediato, pero no es el único
caso en el que puede suceder, como se ve en el siguiente
 Ejemplo 4.4 — Un conjunto que carece de modelos. El conjunto {p1 , ¬p2 , (p1 ↔ p2 )} no
tiene modelos, como muestra el siguiente razonamiento: si una interpretación I fuese modelo
del conjunto, debería ser

I((p1 ↔ p2 )) = V
I(p1 ) = V

Para que esas dos condiciones se cumplan, es necesario que

I(p2 ) = V

pero en ese caso tendríamos

I(¬p2 ) = F

por lo que ninguna interpretación I puede asignar el valor de verdad V a las tres fórmulas
del conjunto.
Introducimos ahora un par de términos técnicos que serán muy usados en el resto del
curso:
4.6 Vuelta a la biblioteca 93
Definición 4.5.2 — Conjuntos satisfacibles e insatisfacibles.
Un conjunto de fórmulas que tiene al menos un modelo se dice satisfacible. Si no tiene
modelos, se dice insatisfacible.

4.6 Vuelta a la biblioteca


Una advertencia importante
En esta sección aplicaremos el método de las tablas de verdad para resolver los problemas
de la biblioteca, vistos en 1.6, a través de la búsqueda de modelos. Pero antes de hacerlo,
nos conviene introducir algunos cambios importantes en la forma de trabajar.
Hasta ahora hemos sido muy cuidadosos con el uso de nuestro lenguaje formal. Pero
en la mayoría de los contextos, tanta escrupulosidad no es algo cómodo ni esclarecedor.
Por ese motivo comenzaremos a trabajar, en ciertas circunstancias, de otra manera. La
primera modificación que vamos a hacer refiere a las letras proposicionales. El objetivo de
tomarlas como una “p” subindizada no era otro que el de poder distinguirlas de cualquier
otra cosa y asegurarnos de tener una provisión infinita de ellas. Pero en muchos contextos,
estamos interesados en una proposición particular, y lo mismo nos da si la representamos
como p514 o simplemente como p. En realidad, no nos da lo mismo, porque es más fácil
escribir la “p” sola que la “p” con el subíndice. Por supuesto, si queremos representar otra
proposición diferente en el mismo contexto, no podemos usar la “p”, pero sí podemos usar
la “q”, por ejemplo. De esa manera, escribiríamos (p514 → p514 ) como (p → p), mientras que
escribiríamos (p514 → p32 ) como (p → q).
Además de esto, introduciremos una modificación en cuanto al uso de paréntesis. Estos
fueron introducidos con el fin de bloquear la ambigüedad estructural, que podría producirse
al combinar fórmulas mediante conectivos binarios. Ahora bien, si tenemos una fórmula
que no presentamos combinada con otra, ni vamos a combinar con otra, sus paréntesis
externos no evitan ninguna ambigüedad ya que esta no puede producirse. Por eso, en
vez de (p514 → p32 ) escribiremos, por ejemplo, p → q; pero si queremos escribir lo que en
lenguaje formal es ((p514 → p32 ) ∧ p15 ), reintroducimos los paréntesis que ahora quedan
como internos y eliminamos los externos: (p → q) ∧ r. En todo caso, es fundamental tener
clarísmo, sin ninguna clase de dudas, un correlato en lenguaje formal de lo que estamos
escribiendo.

La tabla de verdad en la biblioteca


Los problemas de la biblioteca que hemos planteado en el primer capítulo pueden
resolverse a través de una búsqueda de modelos realizable con el método de las tablas de
verdad, como se muestra en [Smu95b] y [Smu09] con una narrativa diferente. El método
consiste en encontrar una proposición que, dadas la condiciones del problema, deba ser
verdadera y las condiciones bajo las cuales es verdadera. Como la proposición debe ser
verdadera, esas condiciones deben cumplirse. El primer paso consiste en encontrar la forma
de una proposición que, siempre que se cumplan las condiciones de la biblioteca, y dado lo
escrito en un libro, deba ser verdadera. Por lo tanto, debe portar información sobre las reglas
de la biblioteca (el hecho de que todo lo escrito por Veratius es verdadero, todo lo escrito por
Mendacius es falso, y que todos los textos han sido escritos por uno de estos dos escritores)
94 Capítulo 4. Semántica

y sobre los datos que se dan en el problema concreto, ya que esa es la información necesaria
para deducir quién ha escrito cada libro.
Supongamos que un libro, al que llamaremos A, expresa una proposición cuyo valor
de verdad no conocemos, la que simbolizaremos con p. ¿Qué es lo que sabemos con total
certeza? Obviamente, la respuesta pasa por las reglas de la biblioteca: sabemos que p es
verdadera si A fue escrito por Veratius, y p es falsa si A fue escrito por Mendacius. Sabemos
además que A fue escrito o bien por Veratius o bien por Mendacius. Todo esto es lo mismo
que decir que p es verdadera si y solo si A fue escrito por Veratius. O sea, el valor de verdad
de la proposición “A fue escrito por Veratius” y el valor de p son el mismo: ambas son
verdaderas o ambas son falsas. Entonces, tenemos lo siguiente:

en un problema se afirma que un libro de la biblioteca llamado A se expresa una


proposición que se traduce como p. Sea VA una traducción de la proposición “A
fue escrito por veratius”. Entonces la fórmula VA ↔ p es verdadera en toda
interpretación bajo la cual sean verdaderas las traducciones de las sentencias
que según el problema y las reglas de la biblioteca son verdaderas.

Podemos, en muchos casos, buscar los modelos de VA ↔ p, que nos darán la solución al
problema.
 Ejemplo 4.5 En uno de los problemas habíamos encontrado dos libros, Dragones y Esfinge.
En Dragones se leía: “Dragones es obra de Mendacius y Esfinge es obra de Mendacius”.
Sean VD la proposición “Dragones fue escrito por Veratius” y VE la proposición “Esfinge
fue escrito por Veratius”. Es claro que la proposición “Dragones fue escrito por Mendacius”
se simboliza como ¬VD , y la proposición “Esfinge fue escrito por Mendacius” como ¬VE .
Además, la proposición expresada en Dragones se puede simbolizar como ¬VD ∧ ¬VE .
Consecuentemente, la proposición VD ↔ (¬VD ∧ ¬VE ) debe ser verdadera. Confeccionemos
su tabla de verdad:

VD ↔ (¬ VD ∧ ¬ VE )
V F F V F F V
V F F V F V F
F V V F F F V
F F V F V V F

Se advierte que los únicos modelos de la fórmula son las interpretaciones que hacen
falsa VD y verdadera VE . La solución es, por tanto, que Dragones fue escrito por Mendacius
y Esfinge por Veratius, conclusión a la que habíamos llegado sin utilizar un procedimiento
mecánico.

4.7 ¿Decir lo mismo? Equivalencia


El hecho de que la semántica del lenguaje de la lógica proposicional concierna únicamente
con la asignación de valores de verdad a cada fórmula tiene consecuencias de muy largo
alcance.
Una de ellas es que desde el punto de vista semántico dos fórmulas que respondan a la
misma tabla de verdad serán indistinguibles. Considere la siguiente tabla:
4.7 ¿Decir lo mismo? Equivalencia 95

p q A
V V V
V F F
F V V
F F V

¿Cuál fórmula A tiene esa tabla de verdad? La respuesta no es única. Como el lector
podrá verificar, las siguientes fórmulas podrían estar en el lugar de A:

p→q (p ∨ p) → (q ∧ q) ¬p ∨ q ¬(p ∧ ¬q)

y por supuesto, otra infinidad de fórmulas responden a esa misma tabla. ¿Qué es lo que
estamos diciendo? Podemos reformularlo así: hay fórmulas que tienen exactamente los
mismos modelos. Cuando dos fórmulas tienen los mismos modelos diremos que son
equivalentes y consideraremos como equivalentes entre sí a todas las contradicciones, o sea,
las fórmulas que no tienen modelos.
Definición 4.7.1 — Fórmulas equivalentes.
La fórmula A es equivalente a la fórmula B si y solo si todos los modelos de A son
modelos de B y recíprocamente (por supuesto, si ni A ni B tienen modelos, esto se cumple
trivialmente).

Notación 4.4. Si A es equivalente a B, escribiremos A ≡ B.

Es trivial verificar que la equivalencia es, justamente, lo que se llama una relación de
equivalencia en LP, o sea:

Toda fórmula es equivalente a sí misma: A ≡ A para toda fórmula A.


Si la fórmula A es equivalente a la fórmula B, B es equivalente a A: Si A ≡ B, entonces
B ≡ A.
Si la fórmula A es equivalente a la fórmula B, y B es equivalente a la fórmula C, A es
equivalente a C: Si A ≡ B y B ≡ C, entonces A ≡ C.

Mostremos que las fórmulas p → q y (p ∨ p) → (q ∧ q) son equivalentes:

p q p→q (p ∨ p) → (q ∧ q)
V V V V V V
V F F V F F
F V V F V V
F F V F V F

La tabla conjunta muestra que tienen los mismos modelos. La equivalencia resulta en
indistinguibilidad semántica. Por ejemplo, consideremos la fórmula r → (p → q). Hagamos
su tabla de verdad para conocer su comportamiento semántico.
96 Capítulo 4. Semántica

r → (p → q)
V V V V V
V F V F F
V V F V V
V V F V F
F V V V V
F V V F F
F V F V V
F V F V F
Es claro que (p → q) es subfórmula de la fórmula que acabamos de estudiar. Construya-
mos una nueva fórmula sustituyendo en r → (p → q) la subfórmula (p → q) por la fórmula
(p ∨ p) → (q ∧ q) que, como sabemos es, equivalente a ella. Obtenemos:
r → ((p ∨ p) → (q ∧ q))
¿Cuál será su tabla de verdad, o sea, cuál será su comportamiento semántico, o dicho de
otra manera, cuáles serán sus modelos? Podríamos hacer la tabla, que será más compleja
que la anterior, pero una ligera reflexión nos muestra que no necesitamos hacerla. Esto
es así porque al ser p → q y (p ∨ p) → (q ∧ q) fórmulas que tienen los mismos modelos,
presentarán exactamente los mismos valores de verdad en los mismos lugares de la tabla,
con lo que resultará que los modelos de r → (p → q) y de r → ((p ∨ p) → (q ∧ q)) serán
exactamente los mismos. Dado que este ejemplo se puede generalizar tenemos el siguiente
resultado:
si en una fórmula sustituimos una subfórmula por una fórmula equivalente a
esta, obtenemos una fórmula equivalente a la original.

Supongamos que A y B son fórmulas equivalentes. ¿Habrá alguna fórmula del lenguaje
cuyo comportamiento semántico indique esta equivalencia? El hecho de que dos fórmulas
sean equivalentes se manifiesta en la tabla de verdad conjunta como la igualdad de los
valores de verdad que se obtienen en los mismos renglones.
Recordemos que en toda interpretación la fórmula A ↔ B es verdadera si y solo si el
valor de verdad de A es igual al valor de verdad de B. Pero si A y B son equivalentes, bajo
toda interpretación, sus valores de verdad son iguales y por eso, bajo toda interpretación, la
fórmula A ↔ B es verdadera. Por lo tanto, tenemos el siguiente resultado:

A ≡ B si y solo si A ↔ B es una tautología.

La equivalencia es una noción tan potente que, por ejemplo, se encuentra en la base de
algo con lo que todo estudiante de matemática se encuentra tarde o temprano, y le provoca
una fuerte noción de extrañeza: la demostración por contrarrecíproco.
Los teoremas matemáticos son proposiciones que tienen la forma H → T , donde H se
llama hipótesis y T se llama tesis. Normalmente, para demostrarlos, se supone H y bajo esa
suposición se infiere T . Ahora, veamos lo que podemos encontrar en un excelente texto de
análisis matemático [Rud90]:
teorema: Si E es un subconjunto infinito de un conjunto compacto K, E tiene un
punto límite en K.
4.8 ¿Será suficiente? Conjuntos adecuados de conectivos 97

No se preocupe el lector por el contenido, que no nos interesa. Se trata de un teorema como
tantos, en el que la hipótesis H es “E es un subconjunto infinito de un conjunto compacto
K” y la tesis T es “E tiene un punto límite en K”. A renglón seguido, como es norma en las
obras matemáticas, viene la demostración. Esperaríamos que empezara suponiendo H, y
que a partir de allí infiriera T . Sin embargo, continúa así:

demostración: Si ningún punto de K fuera punto límite de E, (...) [sigue algo


que no nos interesa, inferencias que llegan a] lo que contradice la compacticidad
de K.

Y eso es la demostración. No es necesario saber matemática para darse cuenta de que el


autor supuso la negación de T , hizo inferencias y llegó a la negación de H. ¡Y llama a esto
una demostración de H → T , cuando es claro que lo que ha demostrado es ¬T → ¬H!
Lo que sucede es que las proposiciones H → T y ¬T → ¬H son equivalentes, como el
lector podrá demostrar sin dificultad alguna, haciendo una tabla conjunta. Esta equivalencia
hace que en los textos matemáticos se consideren ambas estrategias, tanto suponer H e
inferir T como suponer ¬T e inferir ¬H como perfectamente legítimas a la hora de demostrar
el teorema H → T . Alguien podría decir que en realidad, están demostrando ¬T → ¬H
(que se llama contrarrecíproco del anterior, y desde el punto de vista sintáctico no es igual
a él), pero en todo caso es claro que la demostración de uno de ellos vale tanto como la
demostración del otro: o bien ambos son verdaderos o bien ambos son falsos.

4.8 ¿Será suficiente? Conjuntos adecuados de conectivos


Comenzamos la sección anterior presentando una tabla de verdad y preguntándonos qué
fórmula respondería a ella. Encontramos varias fórmulas cuyo comportamiento semántico
quedaba descrito por la tabla, y de hecho, hay infinitas que lo hacen, en aquel caso particular.
Pero ¿no podría haber ocurrido que ninguna fórmula tuviese ese comportamiento semántico?
Más en general, ¿existe alguna tabla tal que ninguna fórmula del lenguaje la tenga como
tabla de verdad? Por ejemplo, dada la siguiente tabla

p q r A
V V V V
V V F F
V F V V
V F F F
F V V F
F V F F
F F V F
F F F V

¿Habrá una fórmula del lenguaje LP cuyos modelos y contramodelos sean los allí
indicados? Y en caso de que la respuesta sea positiva, ¿podrá el lector hallar una?
Examinemos la cuestión de la existencia. Si razonamos sobre lo que hemos hecho en
todo nuestro recorrido, nos daremos cuenta de que introdujimos un lenguaje formal que nos
permitiera representar proposiciones. Además de esa dimensión representacional de nuestro
lenguaje, debimos considerar una dimensión semántica, para poder estudiar la corrección
98 Capítulo 4. Semántica

de los argumentos. Como la corrección de los argumentos es algo que depende de los
valores de verdad de las proposiciones, esa semántica consistió en la asignación de valores
de verdad a las fórmulas del lenguaje formal de modo que se respetara el comportamiento
esperado de los conectivos. Ahora bien, en nuestro lenguaje formal existen cinco conectivos,
que de alguna manera, hemos abstraído del lenguaje natural. Sin embargo, cabe hacerse
una pregunta: ¿Serán suficientes estos conectivos para nuestros propósitos?
Es muy fácil pensar alternativas en las que esto no hubiera sido cumplido. Por ejemplo, si
el único conectivo que hubiésemos considerado en nuestro lenguaje fuese la conjunción, sería
imposible construir una fórmula que se comportara desde el punto de vista semántico igual
que ¬(p ↔ q). Esto es así porque al solo tener la conjunción, cualquier fórmula, bajo una
interpretación donde todas las letras proposicionales sean verdaderas, será verdadera, y la
fórmula que acabamos de escribir es falsa bajo una interpretación así. Es decir, imaginemos
que tenemos una tabla de verdad de esta forma:

p q A
V V F
V F V
F V V
F F F

Se nos pide hallar una fórmula A de nuestro lenguaje que tenga ese comportamiento
semántico. Si solo tuviésemos la conjunción, resultaría imposible. Con nuestra batería de
conectivos sí es posible, por ejemplo la fórmula ¬(p ↔ q) responde a esa tabla.
¿No podrá suceder que estemos en esa situación, es decir, que para tablas suficientemente
complejas, no existan fórmulas en nuestro lenguaje que se comporten desde el punto de
vista semántico como indica la tabla? Si así fuese, tendríamos que intentar ampliar nuestro
lenguaje agregándole conectivos.
Para nuestra tranquilidad, la respuesta a esta pregunta es: no solo tenemos los conectivos
suficientes como para hallar una fórmula que se comporte semánticamente como indique
cualquier tabla dada, sino que para eso nos sobran conectivos. Veámoslo con un ejemplo,
que se puede generalizar en forma obvia. Intentemos encontrar una fórmula que responda a
la tabla con la que abrimos esta sección:

p q r A
V V V V
V V F F
V F V V
V F F F
F V V F
F V F F
F F V F
F F F V

Debemos hallar una fórmula A que sea verdadera solo si p, q y r son verdaderas (caso 1,
primer renglón); o si p y r son verdaderas y q es falsa (caso 2, tercer renglón); o si p, q, y r
son falsas (caso 3, octavo renglón). Obsérvese que si se da el caso 1 o se da el caso 2 o se da
4.8 ¿Será suficiente? Conjuntos adecuados de conectivos 99

el caso 3, la fórmula será verdadera, y será falsa solo cuando no se dé ninguno de los tres
casos. Supongamos entonces que encontrásemos una fórmula que sea verdadera solo en el
caso 1, es decir, sea verdadera si y solo si tanto p como q como r sean verdaderas, a la que
llamaremos C1, una fórmula que sea verdadera solo en el caso 2, o sea, que sea verdadera
si y solo si p y r son verdaderas y q falsa, a la que llamaremos C2, y una fórmula que sea
verdadera solo en el caso 3, es decir, que sea verdadera si y solo si tanto p como q como r
son falsas. Si esto fuese posible, es trivial observar que la fórmula

C1 ∨ C2 ∨ C3

tendrá el mismo comportamiento semántico que el que le pedimos a A, o sea, responderá a


esa tabla de verdad. Entonces, el problema se reduce a encontrar C1, C2 y C3.
Para hallar C1 debemos preguntarnos por una fórmula que solo sea verdadera solo en
un caso, a saber, cuando p, q y r son verdaderas. Es obvio, a partir del comportamiento de
la conjunción, que la fórmula p ∧ q ∧ r satisface lo pedido.
Para hallar C2 debemos preguntarnos por una fórmula que sea verdadera también en
un único caso, cuando p y r sean verdaderas y q falsa. El hecho de que sea verdadera en un
único caso nos hace pensar en la conjunción como un conectivo a utilizar, pero obviamente,
debemos hacer que esa conjunción sea verdadera cuando q sea falsa, que es lo mismo que
decir que será verdadera cuando p sea verdadera, la negación de q sea verdadera, y r sea
verdadera. Por eso hallamos que la fórmula p ∧ ¬q ∧ r se comporta como esperamos que se
comporte C2.
Para hallar C3 razonamos análogamente y concluimos que la fórmula ¬p ∧ ¬q ∧ ¬r se
comporta como esperamos que lo haga C3.
Por lo tanto, la fórmula

(p ∧ q ∧ r) ∨ (p ∧ ¬q ∧ r) ∨ (¬p ∧ ¬q ∧ ¬r)

tiene la tabla de verdad, o sea el comportamiento semántico dado.


Es claro que el procedimiento se puede generalizar para tablas de cualquier cantidad de
letras proposicionales, y también es claro que solo hemos utilizado 3 conectivos. Solo queda
un detalle. Si en la tabla de verdad no apareciera ninguna fila con valor de verdad V (o sea,
la fórmula buscada fuese una contradicción) el procedimiento no sería aplicable. Pero en
ese caso, la fórmula p ∧ ¬p tiene el comportamiento semántico dado.
Definición 4.8.1 — Conjunto adecuado de conectivos.
Un conjunto de conectivos tal que, dada cualquier tabla de verdad, existe una fórmula en
la que solo figuran esos conectivos y su comportamiento semántico es el indicado por la
tabla, se llama conjunto adecuado de conectivos.

Acabamos de mostrar que {¬, ∨, ∧} es un conjunto adecuado de conectivos.

Ejercicio 4.2 Expresar los conectivos → y ↔ con el conjunto {¬, ∨, ∧}, es decir, hallar me-
tafórmulas que solo usen estos tres conectivos y tales que sus fórmulas correspondientes
tengan la tabla de verdad de las correspondientes a A → B y de A ↔ B.

En realidad, existen conjuntos adecuados de conectivos que tienen menos que tres
elementos. Dado que es posible expresar la conjunción utilizando solo la disyunción y la
100 Capítulo 4. Semántica

negación, como muestra la siguiente equivalencia, siendo A y B fórmulas cualesquiera, que


lleva el nombre del lógico De Morgan

A ∧ B ≡ ¬(¬A ∨ ¬B)

el conjunto {¬, ∨} es adecuado (toda conjunción puede sustituirse por una expresión en la
que solo aparecen la negación y la disyunción sin alterar el comportamiento semántico).
Ejemplo 4.6 Podemos encontrar una formula equivalente a p → (q ↔ r) usando solo
negación y disyunción a través de la siguiente cadena de equivalencias:

p → (q ↔ r) ≡ ¬p ∨ (q ↔ r)
≡ ¬p ∨ ((q → r) ∧ (r → q))
≡ ¬p ∨ ((¬q ∨ r) ∧ (¬r ∨ q))
≡ ¬p ∨ ¬(¬(¬q ∨ r) ∨ ¬(¬r ∨ q))

Encarecemos al lector verificar cada una de las equivalencias establecidas, y también


demostrar que los conjuntos {¬, ∧} y {¬, →} son adecuados.
Tal vez lo más curioso de todo sea que hay conjuntos adecuados de conectivos que
tienen un solo elemento. O sea, un conectivo que, solo, es capaz de producir fórmulas
con cualquier comportamiento semántico4 . Considere el cuadro de la página siguiente,
en el que se muestran todos los conectivos binarios posibles, que son 16. Las columnas
encabezadas contienen los que conocemos y a los que les hemos dado nombre. Tal vez al
lector le sorprenda que consideremos la negación de uno de los componentes o al conectivo
que arroja como resultado el mismo valor de verdad que la primera o segunda componente
como un conectivo binario. Aunque propiamente son unarios, se los puede considerar como
conectivos binarios que no dependen de una de las componentes del compuesto, y lo mismo
sucede con los conectivos numerados como 13 y 14, que arrojan siempre valor V o F, por lo
que son propiamente conectivos ceroarios. Se los puede ver como binarios que no dependen
de ninguna de las componentes del compuesto. En algunas presentaciones de la lógica se
usan estos dos últimos conectivos y se nombran respectivamente, con los símbolos > y ⊥.
Volveremos a encontrarnos con ⊥ cuando examinemos someramente la lógica intuicionista.
Observe la columna 5. Allí se representa un conectivo binario que tiene este comporta-
miento y al que asignaremos el símbolo ↓:

p q p↓q
V V F
V F F
F V F
F F V
4 Como veremos en breve, el alfabeto de LP no tiene símbolos expresamente destinados a representar
esos conectivos. Para estudiar estos conjuntos adecuados los simbolizaremos, pero estaremos trabajando fuera
de nuestro lenguaje formal. Esto implica que en nuestro lenguaje, con la semántica dada, no hay conjuntos
adecuados unitarios.
4.8 ¿Será suficiente? Conjuntos adecuados de conectivos 101

∨ ∧ → ↔ A ¬A B ¬B > ⊥
A B 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
V V V V V V F F F F V F V F V F V F
V F V F F F F V V V V F F V V F V F
F V V F V F F V F V F V V F V F F V
F F F F V V V V F F F V F V V F V F

Cuadro 4.1: Conectivos binarios posibles

Este conectivo traduce bien la expresión “Tanto p como q son falsas” o “Ni p ni q”. Lo
llamaremos Nor (expresión inglesa que viene de que se puede expresar como la negación de
la disyunción). Pues bien, el conjunto {↓} es adecuado. Para mostrarlo, basta demostrar que
podemos expresar ¬ y ∨ solo con ↓.
La tabla de verdad de p ↓ p

p ↓ p
V F V
F V F

muestra que p ↓ p ≡ ¬p. Consideremos ahora la tabla de (p ↓ q) ↓ (p ↓ q)

(p ↓ q) ↓ (p ↓ q)
V F V V V F V
V F F V V F F
F F V V F F V
F V F F F V F

Esto muestra que p ∨ q es equivalente a (p ↓ q) ↓ (p ↓ q), y así, el conjunto {↓} es


adecuado.
Hay otro conjunto unitario adecuado, el formado por el conectivo que corresponde a
la columna 6 de la tabla donde se mostraban todos los conectivos binarios posibles. Se lo
llama Nand, su símbolo es | (la “barra de Scheffer”), y su tabla

p q p|q
V V F
V F V
F V V
F F V

Ejercicio 4.3 Encontrar alguna expresión del lenguaje natural a la que corresponda y
demostrar que {|} es adecuado.

Una pregunta pertinente es ¿por qué trabajamos con cinco conectivos si con uno solo
tendríamos la misma capacidad expresiva? La respuesta es también obvia: el uso exclusivo
102 Capítulo 4. Semántica

de un único conectivo como el Nor resultaría en traducciones de expresiones del lenguaje


natural al lenguaje formal muy alejadas de nuestra intuición, y sumamente largas, en general.
Por ejemplo, para expresar la fórmula p ∨ ¬q con el Nor únicamente tendríamos:

p ∨ ¬q ≡ (p ↓ ¬q) ↓ (p ↓ ¬q) ≡ (p ↓ (q ↓ q)) ↓ (p ↓ (q ↓ q))

La fórmula que hemos obtenido es muy poco legible, no tenemos intuición alguna acerca
de su comportamiento semántico y hasta podemos tener problemas para reconocer de un
vistazo su estructura sintáctica. Es interesante el ejercicio de expresarla en español con
alguna expresión propia de esta lengua: “Ni ni p ni ni q ni q. . . ” Hágalo el lector, si gusta.
Imagine qué clase de objeto inmanejable para seres humanos puede resultar al intentar
expresar solo con este conectivo una fórmula equivalente a otra que sea medianamente
compleja en nuestro lenguaje. Por lo tanto, restringirse a un único conectivo es una pésima
opción si uno quiere trabajar dentro del sistema –que es lo que deseamos hacer en buena
parte de este curso-, pero puede ser una muy buena opción si lo que se desea es estudiar
resultados acerca del sistema. (Por ejemplo, si optásemos por hacer un lenguaje con un
único conectivo, las reglas de las interpretaciones, que con nuestro lenguaje formal requieren
de cinco incisos, solo requerirían un inciso. Por contrapartida, representar un argumento
dado en lenguaje natural en ese lenguaje de un solo conectivo sería una tarea engorrosísima,
así como la evaluación de la corrección del argumento).
Terminaremos esta sección demostrando que los únicos conjuntos adecuados de conecti-
vos binarios que tienen un solo elemento son {↓} y {|}:

Teorema 4.8.1 — Conjuntos adecuados unitarios.


Sea ] un conectivo binario. Si {]} es adecuado, entonces ]=↓ o ]=|.

demostración: Consideremos la tabla de ]:

p q p]q
V V Val (V,V)
V F Val (V,F)
F V Val (F,V)
F F Val (F,F)
Si{]} es adecuado, es necesario que Val (V,V)=F, porque si fuese Val (V,V)=V, todas las
fórmulas que tuvieran únicamente este conectivo tomarían el valor V siempre que todas
las letras proposicionales lo tomasen, y así no se podría expresar una contradicción o una
contingencia que fuese falsa cuando sus letras proposicionales sean verdaderas con este
único conectivo. Por una razón análoga, es necesario que Val (F,F)=V. Tenemos cuatro
posibilidades para otorgar valores a Val (V,F) y Val (F,V):
1. Val (V,F) = Val (F,V) = V. En este caso, ] =↓.
2. Val (V,F) = Val (F,V) = F. En este caso, ] = |.
3. Val (V,F) = V y Val (F,V) = F. En este caso, p]q ≡ ¬q. Obviamente, la negación no
conforma un conjunto adecuado.
4. Val (V,F) = F y Val (F,V) = V. En este caso, p]q ≡ ¬p. Por la misma razón que en el
caso anterior, esta combinación de valores de verdad no es admisible.
4.8 ¿Será suficiente? Conjuntos adecuados de conectivos 103

Queda así demostrado que {↓} y {|} son los únicos conjuntos adecuados y unitarios de
conectivos binarios.
104 Capítulo 4. Semántica

4.9 Ejercicios
1. Muestre que si a partir de una interpretación I se construye una nueva valuación
cambiando el valor de verdad que I asigna a un conjunto finito de fórmulas y dejando
igual el resto, la nueva valuación no es interpretación.

2. Clasifique las siguientes fórmulas en tautologías, contingencias y contradicciones:


a) (p3 ∨ ¬p3 )
b) p15
c) (p3 → (p12 → p9 ))
d) (p3 → (p12 → p3 ))
e) (p4 → (¬¬¬(¬p8 ∧ p8 )))
f ) (p4 → (¬¬¬¬(¬p8 ∧ p8 )))
g) (¬(p7 → p11 ) ∧ ¬(p11 → p7 ))

3. Presente los modelos y contramodelos de las siguientes fórmulas:


a) (((p1 ∨ p2 ) → p2 ) ∧ p1 )
b) (((p1 ∨ p2 ) → p2 ) ∧ p2 )
c) (((p1 ∨ p2 ) ∧ ¬p2 ) ↔ p3 )
d) ((p1 ↔ p2 ) ↔ p3 )

4. Sean C1 y C2 contradicciones, G1 y G2 contingencias, y T1 y T2 tautologías. Clasifi-


que las las fórmulas que se obtendrían con los esquemas siguientes en tautologías,
contradicciones o contingencias. En caso de que no haya respuesta única, indique los
posibles resultados.
a) (C1 ↔ C2 )
b) (C1 → T2 )
c) (T1 ∨ C1 )
d) (G1 ∨ G2 )
e) (G1 → T1 )
f ) (G1 ∧ G2 )
g) (T1 ∧ T2 )
h) (T1 → C2 )
i) (G1 ↔ C2 )
j) (G1 → C2 )

5. Determine cuáles de los siguientes conjuntos son satisfacibles. Presente un modelo de


cada uno de los conjuntos satisfacibles.
a) {p1 , (p1 → p2 ), ¬p2 }
4.9 Ejercicios 105

b) {(p1 ∨ p2 ), (p1 → p3 ), (p2 → p3 )}


c) {(p1 ↔ p2 ), (p2 ↔ p3 )}

6. Sean los conjuntos infinitos de fórmulas:

Γ1 = {p1 , (p1 → p2 ), (p2 → p3 ), (p3 → p4 ), . . . , (pn → pn+1 ), . . . }

Γ2 = {(p2 → p1 ), (p3 → p2 ), (p4 → p3 ), . . . , (pn+1 → pn ), . . . }

Indique si es verdadero o falso lo siguiente. En todos los casos, justifique la respuesta.


a) Existe una interpretación que es modelo de Γ1 y no de Γ2 .
b) Existe una interpretación que es modelo de Γ2 y no de Γ1 .
c) Existen al menos dos modelos distintos de Γ1 .
d) Existen al menos dos modelos distintos de Γ2 .
e) Existen más de dos modelos distintos de Γ2 .
f ) Existen interpretaciones que no son modelos ni de Γ1 ni de Γ2 .

7. En este ejercicio veremos que es posible introducir las nociones semánticas sin referirse
a los objetos extralingüísticos V y F. Un conjunto Γ de fórmulas se llamará conjunto T
si y solo si cumple las siguientes condiciones:
Para fórmulas X, Y cualesquiera
a) X es elemento de Γ si y solo si ¬X no es elemento de Γ .
b) (X∧Y) es elemento de Γ si y solo si tanto X como Y son elementos de Γ .
c) (X∨Y) es elemento de Γ si y solo si al menos una de entre X e Y son elementos de
Γ.
d) (X→Y) es elemento de Γ si y solo si X no es elemento de Γ o Y es elemento de Γ .
e) (X↔Y) es elemento de Γ si y solo si tanto X como Y son elementos de Γ o ni X ni
Y son elementos de Γ .
Demostrar:
i. Una fórmula es tautología si y solo si es elemento de todos los conjuntos T.
ii. Una fórmula es contradicción si y solo si no es elemento de ningún conjunto T.
iii. Una fórmula es contingencia si y solo si hay un conjunto T al que pertenece y
hay un conjunto T al que no pertenece.

8. Sean I y J dos interpretaciones de LP. Demostrar que si para todas fórmulas A y B se


tiene que I(A → B) = J(A → B), entonces I(X) = J(X) para toda fórmula X de LP.

9. Demostrar que toda fórmula es equivalente a una negación, a una conjunción, a una
disyunción, a un condicional y a un bicondicional.
106 Capítulo 4. Semántica

10. Demostrar que toda fórmula que no tenga repeticiones de ninguna letra proposicional
es una contingencia.

11. Sea I una interpretación de LP, y sea v una valuación tal que v(X) = F si y solo si
I(A) = V para alguna fórmula A tal que A ≡ X. ¿Es v una interpretación?

12. Demostrar que el conjunto {→} no permite expresar ninguna contradicción.

13. ¿Cualquier conjunto de conectivos del alfabeto de LP al que pertenezca ¬ y tenga más
de un elemento es adecuado? Justificar.

14. Suponga que una fórmula de LP tiene n negadores, y conjunciones, d disyunciones, c


condicionales y b bicondicionales. ¿Con cuántos NOR estará seguro de poder encontrar
una fórmula con el comportamiento semántico de la dada en el lenguaje que lo tiene
como único conectivo?
5 | Conectivos lógicos y lenguaje
natural

lamamos “traducción” al procedimiento por el cual representamos objetos lingüís-

L ticos pertenecientes al lenguaje natural en el lenguaje formal de la lógica proposicional.


Y llamamos “interpretación” a una forma de asignar valores de verdad a todas las fór-
mulas del lenguaje de la lógica proposicional de modo que sean respetadas las constricciones
que provienen del comportamiento esperado de los conectivos lógicos.
Sabemos además que no todas las expresiones lingüísticas pertenecientes al idioma
español son traducibles al lenguaje de la lógica proposicional, sino que este lenguaje formal
está diseñado especialmente para representar proposiciones o enunciados. La figura en la
página siguiente muestra parte del procedimiento más básico para evaluar la corrección
argumental sirviéndose de la lógica.
Se parte de un texto argumental, y en él se individualizan las oraciones que fungen como
premisas y la que lo hace como conclusión. Estas oraciones deben expresar proposiciones.
Se traducen a fórmulas del lenguaje formal (en este caso a LP), y, una vez hecho esto, como
veremos en el próximo capítulo, se puede proceder a la evaluación de la corrección del
argumento según las capacidades del lenguaje que estamos manejando: si no es posible que
una interpretación otorgue el valor de verdad F a la fórmula que representa la conclusión
a la vez que otorga el valor de verdad V a las que representan las premisas, diremos que
el argumento es válido. En caso contrario, si hay interpretaciones bajo las cuales el valor
de verdad de las fórmulas que representan las premisas es V y el valor de verdad de que
representa la conclusión es F, puede pasar que nos encontremos frente a un argumento
inválido, o que nos encontremos frente a un argumento válido, pero en ese caso se tratará
de uno que lo sea no gracias a su estructura en términos de los conectivos que recoge
el lenguaje proposicional, sino gracias a alguna otra característica, que tal vez pueda ser
reflejada con lenguajes más ricos.
En este capítulo vamos a ocuparnos de algunos aspectos de la traducción de expresiones
en lenguaje natural (español) a fórmulas del lenguaje proposicional, ya que si bien en
muchísimos casos la traducción es directa, la riqueza del lenguaje natural puede jugarnos
malas pasadas. Examinaremos entonces algunas de las variadas formas en que en español
podemos modificar la expresión de una proposición, de manera en que quedaría bien
reflejada por un conectivo en nuestro lenguaje formal. Nada más ingenuo que traducir
automáticamente cada “no” por ¬, nada más directo para arribar a errores que solo colocar
→ en caso de que aparezca la construcción “si. . . entonces. . . ”, etc. Un principio rector que
debe guiarnos es el siguiente:
108 Capítulo 5. Conectivos lógicos y lenguaje natural

la traducción al lenguaje formal no debe comprometerse con reflejar direc-


tamente palabras y expresiones como “y”, “no”, “si. . . entonces. . . ”, etc., que son
meros indicadores, sino que debe preservar en la semántica del lenguaje formal,
las condiciones de verdad que advertimos en el lenguaje natural.

Expresiones del Fórmulas del


lenguaje natural lenguaje formal

Premisa 1 P1
Premisa 2 P2
.. .. V
. Traducción . Interpretaciones
F
Premisa n Pn
Conclusión C

Fragmento del
lenguaje
proposicional
que representa las
Oraciones que proposiciones
expresan expresadas en
proposiciones de lenguaje natural
un argumento
que nos interesa
evaluar

Evaluación de la correción
argumental: ¿existe alguna
relación entre {P1 , P2 , ..., Pn }
y C que nos la asegure?
(En próximos capítulos)

5.1 El conectivo ¬
Obviamente asociamos este conectivo a la palabra “no”. Pero, según el principio que
acabamos de establecer, el hecho fundamental a tener en cuenta cuando decidamos traducir
un fragmento de lenguaje natural como ¬A, es que ese fragmento será considerado verdadero si
el fragmento de lenguaje natural que corresponda a A es considerado falso, y será considerado falso si
el fragmento de lenguaje natural correspondiente a A es considerado verdadero. Como la palabra
“no” delante de una oración cumple normalmente esa función, establecemos esa asociación.
Por ejemplo, es claro que si p es la traducción de
(1) Llueve.
¬p es la correcta traducción de
5.1 El conectivo ¬ 109

No llueve.

Esto es claro porque “Llueve” es verdadero si “No llueve” es falso, y es falso si “No llueve”
es verdadero. Sin embargo, no siempre es tan evidente la relación entre una proposición y
su negación. Tal vez, si uno le pregunta a un niño pequeño cuál es la negación de

(2) La pared es blanca.

este responda, mostrando una frecuente confusión en estadios tempranos del desarrollo

(3) La pared es negra.

Un adulto entiende que la negación de (2) no es (3). Pero ¿por qué? La respuesta es:
(3) no es la negación de (2) porque es posible que (2) y (3) sean ambas falsas, y como
hemos dicho, en un par formado por una proposición y su negación, es necesario que
una de ellas sea verdadera y la otra falsa. Esto es trivial, pero en algunos casos podemos
estar tentados de cometer algún error similar. En general, si X es una oración en lenguaje
natural que expresa una proposición, la oración “No es el caso que X” expresará la negación
de la proposición expresada por X, aunque muy posiblemente haya una mutación en el
modo verbal, típicamente, de indicativo a subjuntivo o puede aparecer una construcción con
gerundio: la negación de (1) puede expresarse como

No es el caso que llueva.

o también como

No es el caso que esté lloviendo.

Lo mismo podemos decir de “No es cierto que X” o “No es verdad que X”, aunque es
claro que en este caso, quien profiere la oración está negando X indirectamente, es decir,
afirmando que el valor de verdad de X es F, no afirmando directamente la negación de
X. Mencionaremos a continuación algunos casos en los que conviene ser cuidadoso al
considerar las negaciones.

La negación de proposiciones cuantificadas


La negación de

(4) Todos los políticos son corruptos.

no se expresa con

Ningún político es corrupto.

Esto es así porque ambas proposiciones pueden perfectamente ser falsas (y muy proba-
blemente lo sean). La negación de (4) se expresa con

No todos los políticos son corruptos.

o con

Algunos políticos no son corruptos.


110 Capítulo 5. Conectivos lógicos y lenguaje natural

Del mismo modo, encarecemos al lector prestar especial atención a las formas de negar
proposiciones expresadas por oraciones que comiencen con “algunos” o “unos”. Este es un
punto importante, frecuentemente desatendido al tratar la lógica proposicional. Como los
argumentos que incluyen proposiciones de este tipo son generalmente tratados en forma
más eficaz con otras lógicas, no se suele prestar atención a este tipo de proposiciones en
conexión con el aparato proposicional. Pero es muy importante advertir desde el primer
momento algunas de las múltiples formas en que una proposición puede negarse, y las
proposiciones cuantificadas son un buen campo de prueba.

La negación de proposiciones que expresan relaciones asimétricas


La negación de
La mesa es más ancha que la puerta.
no es
La mesa es más angosta que la puerta.
ni
La mesa es menos ancha que la puerta.
sino que se puede expresar con
La mesa no es más ancha que la puerta.
o con
La puerta es al menos tan ancha como la mesa.
En estos casos hay que observar cuidadosamente cómo se comporta la relación con
respecto a la que, según el lenguaje natural, es la inversa.

La negación de algunas proposiciones modalizadas que expresan creencia, posibi-


lidad, etc.
La negación de
Juan cree que Dios existe.
no es
Juan cree que Dios no existe.
sino
Juan no cree que Dios existe.
Esto está relacionado con el hecho de que frente a un proposición p, un agente tiene al
menos tres estados doxásticos1 : creer que p, creer la negación de p, o no creer ni p ni su
negación. Por ejemplo, si p es la proposición “Dios existe”, un teísta cree que p, un ateo cree
en la negación de p y un agnóstico (o alguien que nunca ha definido su creencia al respecto)
no cree ni p ni su negación. Negar que una persona se encuentra en uno de los estados
1 Relativos a la creencia u opinión.
5.2 El conectivo ∧ 111

doxásticos referidos no implica que se encuentre en otro definido, sino que se encuentra en
alguno de los otros dos.
Las proposiciones que expresan que algo es obligatorio, está permitido o prohibido
presentan complicaciones particulares. Por ejemplo, la negación de
Debes dejar de fumar.
es una proposición expresada por
No es tu deber dejar de fumar.
Lo que parece la “negación natural”, o sea
No debes dejar de fumar.
se usaría, normalmente, para expresar al receptor que debe continuar fumando. En todos
los casos, se debe recordar que en principio, algo puede estar prohibido, o ser obligatorio,
o ni una cosa ni otra. Y decir que algo es obligatorio, equivale a decir que no hacerlo está
prohibido.
Finalmente, la negación de
Es necesario que Dios exista.
no es
Es necesario que Dios no exista.
sino
No es necesario que Dios exista.
o, lo que es lo mismo
Es posible que Dios no exista.
Otra vez, esto se da porque en general consideramos que algunas proposiciones son
necesarias, otras son imposibles, y otras no son lo uno ni lo otro: tanto la proposición como
su negación son posibles. Sucede que en estos casos, así como en el de las proposiciones
cuantificadas, nos encontramos frente a un algo estructuralmente idéntico: la negación de
una proposición cuantificada con “todos” puede expresarse por medio de la negación y un
cuantificador que signifique “alguno”; la negación de una proposición modalizada con “es
obligatorio” puede expresarse por medio de la negación y un operador modal que signifique
“está permitido”; la negación de una proposición modalizada con “es necesario” puede
expresarse con negación y un operador modal que signifique “es posible”.

5.2 El conectivo ∧
Este conectivo no presenta mayores dificultades. Si bien se lo relaciona con la palabra “y”,
hay ocasiones en las que la aparición de esta palabra no debe traducirse con ∧, y también
hay ocasiones en que la palabra no aparece, y lo correcto sería traducir el conectivo. Un
ejemplo de lo primero es
Bolívar y San Martín se entrevistaron en Guayaquil.
112 Capítulo 5. Conectivos lógicos y lenguaje natural

Se advierte que la palabra “y” no está conectando oraciones que expresan proposiciones,
que toda la oración expresa una proposición que no admite análisis en términos proposi-
cionales porque no tiene partes que puedan ser consideradas verdaderas o falsas. Por lo
tanto, esta oración debería traducirse al lenguaje de la lógica proposicional con una letra
proposicional.
Un ejemplo de lo segundo es
Platero es pequeño, peludo, suave.
Consideraremos esta oración como verdadera solo en caso de que Platero sea pequeño,
sea peludo y además sea suave. Por eso, la proposición expresada puede expresarse también
como
Platero es pequeño y Platero es peludo y Platero es suave.
con lo que podría traducirse como p ∧ q ∧ r. Omitimos los paréntesis porque sabemos todas
sus disposiciones son equivalentes. Es importante notar que, en este caso, razones estilísticas
explican la desviación entre estructura gramatical y lógica. Hay otros casos en los que se
puede sostener que la desviación entre ambas estructuras es mucho más profunda que esto,
como mostraremos más adelante.
Otra forma común que tiene el lenguaje natural de expresar proposiciones cuya traduc-
ción natural incluye el conectivo ∧ es mediante conjunciones adversativas, en las que no
aparece la palabra “y”. Por ejemplo
Está soleado pero tengo frío.
de la que una traducción correcta es (p ∧ q).
Por otra parte, a veces se utiliza la palabra “y” con una carga semántica que no resulta
traducible mediante el conectivo ∧. Este es el caso en el que la palabra “y” conecta dos
proposiciones no solo en sentido veritativo, sino que además las ordena temporalmente. Por
ejemplo
César fue apuñalado repetidas veces y murió al pie de la estatua de Pompeyo.
Esta oración indica un hecho histórico, que consideramos verdadero. Pero
César murió al pie de la estatua de Pompeyo y fue apuñalado repetidas veces.
indica más bien que el cadáver de César fue ultrajado, cosa que tenemos por falsa. Sin
embargo, si representáramos la primera como (p ∧ q), deberíamos asignarle el mismo valor
de verdad que a (q ∧ p).

5.3 El conectivo ∨
Este conectivo se asocia con la palabra “o”. Como sabemos, existen dos usos de esa
palabra: la disyunción exclusiva y la disyunción inclusiva. El segundo es el que recoge
directamente el conectivo, y para el primero no tenemos un símbolo que lo represente en
nuestro lenguaje proposicional (aunque otras presentaciones sí incluyen un símbolo cuyo
comportamiento semántico refleja adecuadamente el del uso exclusivo de “o”). Sin embargo
sabemos que podemos representar una disyunción exclusiva como ((p ∨ q) ∧ ¬(p ∧ q)).
Una confusión común surge cuando se establece una disyunción entre dos proposiciones
que por su naturaleza no pueden ser ambas verdaderas. Supongamos que alguien nos dice
5.4 El conectivo → 113

El número que estoy pensando es mayor que 5 o el número que estoy pensando es
menor que 3.
¿Se trata de una disyunción inclusiva o exclusiva? Como no puede ser a la vez que
el número pensado sea mayor que 5 y menor que 3, en principio no habría diferencia en
considerar que es un uso inclusivo o exclusivo. Por lo tanto, consideraremos, por simplicidad,
que se trata de un uso inclusivo y reservaremos la expresión de la disyunción exclusiva solo
para aquellos casos en los que ambas proposiciones puedan ser verdaderas pero está claro
que el emisor quiera excluir esa posibilidad, como por ejemplo, si un padre le dice a una
hija
Podés elegir la fiesta o el viaje.
A veces se remarca la exclusividad de la disyunción con el giro “o bien. . . o bien. . . ”.

5.4 El conectivo →
El condicional es y por mucho el conectivo que más complicaciones presenta en los
procesos de traducción al lenguaje formal. Ateniéndonos a nuestro principio corresponde traducir
con un condicional toda expresión que conecte dos proposiciones de manera tal que la expresión sea falsa
únicamente si, de las proposiciones conectadas, una determinada es verdadera y la otra proposición es
falsa y además la expresión sea verdadera en cualquier otro caso. Básicamente, las dificultades en la
traducción se deben a que por un lado, hay expresiones muy corrientes en lenguaje natural
que nos inducen erróneamente a una traducción en términos de condicional, generalmente
por la aparición del giro “si. . . entonces. . . ”, y por otro hay expresiones que admiten una
traducción correcta como condicional, pero sin la marca lingüística del “si. . . entonces. . . ”.
Hay casos “normales”, donde figura el giro y la traducción a una fórmula condicional
corresponde. Por ejemplo
Si Juan está en su casa entonces la puerta está abierta.
Pero no todos los casos de “si. . . entonces. . . ” son traducibles por el conectivo →. Un
ejemplo clásico son los contrafácticos, o sea, expresiones del tipo “si. . . entonces. . . ” en
subjuntivo con “antecedente” no correspondiente a un hecho:
(5) Si Hitler hubiera invadido Inglaterra, entonces Alemania hubiese ganado la guerra.
Lo primero que nos advierte en contra de usar una traducción con un condicional es la
gramática: el modo subjuntivo hace dudar de que se estén conectando proposiciones. Además,
si aceptáramos de algún modo que lo conectado son proposiciones y nos atenemos a la
interpretación del conectivo → para entender los contrafácticos seguramente deberíamos
decir que todos son verdaderos, en cuyo caso expresiones como
(6) Si Uruguay hubiese invadido Estados Unidos, entonces tendríamos los mejores
jazzistas.
serían verdaderas y este resultado sería muy chocante. Quien expresa (5) quiere decir algo
por lo menos discutible y quien expresa (6) está diciendo tonterías.
Un ejemplo clásico de la enorme diferencia entre condicionales materiales y contrafácti-
cos, en el sentido de que establecer un condicional material no parece dar ningún apoyo
114 Capítulo 5. Conectivos lógicos y lenguaje natural

para establecer un contrafáctico semántica y morfológicamente cercano, es el que surge al


considerar estos dos enunciados
Si Lee Harvey Oswald no mató a Kennedy, entonces algún otro lo hizo.
Si Lee Harvey Oswald no hubiera matado a Kennedy, entonces algún otro lo hubiera
hecho.
El primero parece verdadero a todas luces, mientras que el segundo es extremadamente
dudoso. Las condiciones de verdad de los contrafácticos son muy discutidas, pero en
cualquier caso, no son las del condicional material. El lector interesado puede profundizar
con la lectura de [Ben03], donde se trata un sinnúmero de problemas que surgen de
expresiones de este tipo y otros, también relacionados con alguna condicionalización.
Por otra parte, hay muchas expresiones traducibles mediante un condicional en las que
no aparece el giro “si. . . entonces. . . ”, de las que veremos algunas a continuación.

Condiciones suficientes
Un condicional traducido como (p → q), refleja que si p es verdadera lo será q, de
manera que es una forma de expresar que p es una condición suficiente para q. Por eso,
Es suficiente que estudies en los apuntes para que salves el examen.
es equivalente a
Si estudias en los apuntes, entonces salvarás el examen.
Se debe tener en cuenta que a veces no aparece la expresión “entonces” y el orden se
intercambia. Por ejemplo
Se ofenderá si le dices eso.
es equivalente a
Si le dices eso, entonces se ofenderá.
o sea que es suficiente para que se ofenda, que le digas eso.

Condiciones necesarias
Del mismo modo, un condicional traducido como (p → q), refleja que si q es falsa lo
será p, de manera que es una forma de expresar que q es una condición necesaria para p.
Para ver un ejemplo algo complejo, consideremos la expresión en negrita junto con los
versos que la acompañan

Los sabios dicen:


Solo los tontos se apresuran
Pero yo no puedo evitar
enamorarme de ti2 .

Ese verso resaltado expresa que


2 De la canción Can’t Help Falling in Love, interpretada, entre otros, por Elvis, Andrea Bocelli, Bruce Springs-

teen, Celine Dion, Pearl Jam, y destrozada por UB40.


5.5 El conectivo ↔ 115

Solo si alguien es tonto se apresura.


o sea
Es necesario que alguien sea tonto para que se apresure.
lo que puede expresarse como
Si alguien se apresura, entonces ese alguien es tonto.
Obsérvese que no se dice que si alguien es tonto, se apresura. Si lo que la frase expresa
es verdadero, es perfectamente posible que haya tontos que no se apresuren. Sin embargo
la frase expresa que el apresuramiento debe ir acompañado de tontera. Análogamente, las
expresiones clásicas de que una cosa es necesaria para otra pueden traducirse a través del
condicional. Si decimos
Es necesario estar bautizado para salvarse.
expresamos algo que significa
Solo las personas bautizadas son salvas.
o
Si una persona es salva, entonces está bautizada.
Obsérvese entonces que el condicional (p → q) es una forma de establecer la suficiencia
de p para q y la necesidad de q para p. Sabemos que esto no debe entenderse de modo
causal, sino que se trata de una relación entre los valores de verdad de p y q: si alguien se
compromete con el condicional (p → q), se compromete con que si p es verdadero, q lo es y
si q es falso, p lo es. De aquí, derivativamente tenemos que el condicional (¬q → ¬p) es
equivalente al anterior, como ya habíamos mencionado y se puede verificar fácilmente por
medio de tablas de verdad. Esto es así porque si q es necesario para p, si es el caso que ¬q
deberá ser el caso que ¬p.

Condicionales expresados con un “y”


El lenguaje natural presenta una riqueza de expresiones que hace inabarcable el estudio
de todas las que lógicamente funcionan como un condicional. Por ejemplo, algunas expre-
siones en la que aparece la conjunción “y” deberían ser traducidas como un condicional:
Dejás la ventana abierta y te roban la casa.
Es obvio que esto expresa que si dejas la ventana abierta, entonces te robarán. La estruc-
tura es la misma que se advierte en la siguiente frase fosilizada, que intenta condicionalizar
el triunfo, y que es traducible a un condicional a pesar de la presencia del imperativo:
Persevera y triunfarás.

5.5 El conectivo ↔
El bicondicional se asocia principalmente con la expresión “si y solo si”, pero por lo que
hemos visto también expresa condiciones necesarias y a la vez suficientes. Por ejemplo
116 Capítulo 5. Conectivos lógicos y lenguaje natural

Don Quijote dejará las armas si y solo si es derrotado en combate singular.


es equivalente a
Para que Don Quijote deje las armas es necesario y suficiente que sea derrotado en
combate singular.
Al examinar la expresión “X si y solo si Y” se observa que el primer “si” establece que Y
es suficiente para X, y el “solo si” establece que Y es necesario para X.
5.6 Ejercicios 117

5.6 Ejercicios
1. Extraiga cinco proposiciones simples desde el punto de vista de la lógica proposicional
de los siguientes textos. Identifique la función de algún conectivo proposicional. El
primer texto es un fragmento de La superación de la metafísica mediante el análisis lógico
del lenguaje, de Carnap; y el segundo uno de Fenomenología del espíritu, de Hegel.

Primer texto:
Desde los escépticos griegos hasta los empiristas del siglo XIX ha habido
muchos opositores a la metafísica. La naturaleza de las críticas expuestas
ha sido muy diversa. Algunos han declarado que la teoría metafísica es
errónea en razón de oponerse a nuestro conocimiento empírico. Otros la
han considerado únicamente incierta en base al hecho de que sus problemas
trascienden el límite del conocimiento humano. Muchos antimetafísicos han
declarado estéril el ocuparse de las interrogantes metafísicas, pudieran o
no ser respondidas, porque en todo caso es innecesario preocuparse por
ellas; mejor es dedicamos enteramente a las tareas prácticas que absorben la
diaria actividad del hombre. El desarrollo de la lógica moderna ha hecho
posible dar una respuesta nueva y más precisa al problema de la validez
y justificación de la metafísica. Las investigaciones de la lógica aplicada o
de la teoría del conocimiento, cuyo propósito es esclarecer por medio del
análisis lógico el contenido cognoscitivo de las proposiciones científicas y, a
través de ello, el significado de las palabras que aparecen en dichas propo-
siciones, conducen a un resultado positivo y a uno negativo. El resultado
positivo es elaborado en el campo de la ciencia empírica: se esclarecen los
conceptos particulares de distintas ramas de la ciencia, se explicitan tanto
sus conexiones lógico–formales como epistemológicas
Segundo texto:
Para ella, lo singular en general aparece, en la esencia inmutable y, al mismo
tiempo, lo singular suyo aparece en aquél. En efecto, la verdad de este
movimiento es precisamente el ser uno de esta conciencia duplicada. Pero
esta unidad deviene para ella misma primeramente una unidad en la que la
diversidad de ambos es todavía lo dominante. De este modo, tenemos que
lo singular se presenta para ella vinculado a lo inmutable de tres modos.
En primer lugar, ella misma resurge de nuevo como lo opuesto a la esencia
inmutable, y se ve retrotraída hasta el comienzo de la lucha, que permanece
como el elemento de toda la relación. En segundo lugar, lo inmutable mismo
en ella tiene para ella lo singular, de tal modo que es la figura de lo inmutable,
a la que se transfiere, así, todo el modo de la existencia. Y, en tercer lugar, ella
misma se encuentra como este singular en lo inmutable. El primer inmutable
es para ella solamente la esencia ajena que condena lo singular; en cuanto al
segundo es una figura de lo singular como ella misma -deviene entonces en
tercer lugar hacia el espíritu, tiene la alegría de encontrarse a sí.

2. Represente en el lenguaje proposicional los siguientes pares de enunciados:


118 Capítulo 5. Conectivos lógicos y lenguaje natural

a) Llueve. / Está soleado.


b) Llueve. / No es verdad que sea el caso que llueva.
c) Quiero algo. / Es falso que quiera algo.
d) Quiero algo. / No quiero nada.
e) Quiero algo. / Nada quiero.
f ) No quiero nada. / Nada quiero.
g) Debes ir. / No debes dejar de ir.
h) Estudio todos los días. / No estudio nunca.
i) Creo en Dios. / Creo que Dios no existe.
j) Creo en Dios. / No creo que Dios no exista.

3. Represente en el lenguaje proposicional los siguientes enunciados:


a) Laika y Dolly fueron animales famosos.
b) Laika y Dolly no se conocieron.
c) Laika viajó al espacio pero sin embargo los EE.UU. tuvieron los mayores éxitos
en la carrera espacial.
d) Este número es par o es impar.
e) (En las condiciones en que estaba en 1941) Hitler atacaría Gran Bretaña o la Unión
Soviética.
f ) Al menos uno de estos dos (se refiere a Aníbal y César) fue un genio militar.

4. ¿Corresponde traducir con un condicional la oración “Si quieres servirte, hay comida
en la cocina.”?

5. Considere la siguiente situación. Juan es un joven ni-ni (o sea que ni estudia, ni trabaja).
Un día su padre le dice: “Juan, esto no puede seguir así. Tenés que estudiar o trabajar”.
Represente lo dicho por el padre en el lenguaje proposicional.

6. Considere la siguiente situación. Juan es un joven que estudia y trabaja, pero no


está haciendo bien ninguna de las dos cosas, porque se esfuerza mucho en ambas
y el tiempo no le resulta suficiente, además de que su salud se está resintiendo. Un
día su padre le dice: “Juan, esto no puede seguir así. Tenés que estudiar o trabajar”.
Represente lo dicho por el padre en el lenguaje proposicional.

7. Es común oír: “Si ladra, no muerde”. Tradúzcala al lenguaje de la lógica proposicional.


¿Cómo traduciría al lenguaje proposicional lo siguiente: “Si ladra, no muerde; si
muerde, no ladra”. ¿Considera usted que para propósitos de seguridad con respecto a
relaciones canino-humanas es suficiente la advertencia dada o sería mejor (desde el
punto de vista lógico) sustituirla por la segunda? ¿Es admisible traducir la segunda
forma de la misma manera que “Ladra si y solo si no muerde”?
5.6 Ejercicios 119

8. Una persona dice que lo bueno no es barato. Otra persona dice que lo barato no es
bueno. ¿Es posible traducir lo que dicen ambos por una misma fórmula del lenguaje
proposicional?

9. Según Kant, los juicios3 verdaderos se clasifican en dos categorías: a priori y a posteriori
(o empíricos). Podemos decir grosso modo, que un juicio es empírico cuando su
validación depende necesariamente de la experiencia, cuando alguna experiencia
(pensable) –esto es, información obtenida a través de los sentidos- podría hacernos
cambiar de idea acerca de su valor de verdad. Un juicio es a priori si no es empírico.
Por ejemplo, un juicio tal como “La pared es blanca” es empírico y uno como “Toda
cosa es igual a sí misma” es a priori. Por otro lado, los juicios también se pueden
clasificar en otras dos categorías: analíticos y sintéticos. Un juicio analítico es aquel en
el cual el predicado está comprendido en el sujeto (o podemos decir grosso modo, que
para validarlo basta el mero conocimiento del significado de las palabras empleadas al
expresarlo). Un juicio sintético es uno no analítico. Por ejemplo, “Un soltero no está
casado” es analítico, mientras que “Juan es soltero” es sintético. Suponga que dos
filósofos kantianos están examinando un mismo juicio.
a) Uno concluye que el juicio es sintético y el otro que el juicio es analítico. ¿Consi-
dera usted que uno está concluyendo la negación de lo que concluye el otro?
b) Uno concluye que el juicio es analítico y el otro que el juicio es empírico. ¿Consi-
dera usted que uno está concluyendo la negación de lo que concluye el otro?
c) Suponga que uno concluye que el juicio es sintético, y el otro concluye que
es a priori. Un filósofo no kantiano, que no conoce el juicio que está siendo
examinado, hace el siguiente comentario: “Al menos uno de los dos tiene que
estar equivocado”. ¿Qué premisa implícita está manejando el filósofo no kantiano?

10. El siguiente fragmento se encuentra en el libro “La filosofía china” de Lin Yutang:

(Motsé) se burló de los confucionistas, comparándolos con campanillas que


solo suenan cuando se las golpea, y no suenan cuando se las golpea.

Considere que p representa “Estas campanillas suenan” y q representa “Estas cam-


panillas son golpeadas”. Represente en el lenguaje de la lógica proposicional lo que
dice Motsé de los confucionistas entendiéndolos como “estas campanillas”. Explique
la metáfora. (Para hacerlo debe inferir algo que no está explícito).

11. Representamos con p la proposición “Todos los planetas tienen satélites” y con q
la proposición “Algunos astros siguen órbitas elípticas”. ¿Cuál de las siguientes
representaciones corresponde a “Si algunos planetas no tienen satélites entonces

3 Los juicios son los análogos de las proposiciones en contextos de comprensión psicologista de la lógica.
120 Capítulo 5. Conectivos lógicos y lenguaje natural

ningún astro sigue una órbita elíptica”?


(¬r → ¬s)
(¬p → ¬q)
(¬r → ¬q)
(¬p → ¬r)
(r y s representan proposiciones de las que no se ha dado su correspondiente en
lenguaje natural. Si usted elige un condicional en el que aparece r o s como la
respuesta correcta debe decir cuál es el enunciado que está representando).
6 | Consecuencia semántica

esta altura del curso ya tenemos las herramientas suficientes para dar cuenta, al

A menos parcialmente, de cómo servirá el lenguaje formal que hemos desarrollado


para nuestros propósitos al embarcarnos en el estudio de la lógica. Habíamos dicho
que esta ciencia tiene como uno de sus objetos principales la inferencia correcta, y estamos
en condiciones de clasificar científicamente –es decir, según la ciencia de la lógica– algunas
inferencias como correctas.
Todos los conceptos que necesitamos para esto han sido ya expuestos y desarrollados, y
lo único que resta es combinarlos de determinada manera que recoja la idea de corrección
argumental.

6.1 La validez en el lenguaje formal


Para iniciar nuestro recorrido hacia una caracterización científica de los argumentos
válidos estudiemos una inferencia que consideramos correcta a nivel intuitivo:
En Hechos de los Apóstoles 5: 33 – 39 se lee:

33 Ellos [los miembros del Sanedrín], al oír esto, se consumían de rabia y trataban
de matarlos [a los apóstoles].
34 Entonces un fariseo llamado Gamaliel, doctor de la ley, con prestigio ante todo
el pueblo, se levantó en el Sanedrín. Mandó que se hiciera salir un momento a
aquellos hombres,
35 y les dijo: “Israelitas, mirad bien lo que vais a hacer con estos hombres.
36 Porque hace algún tiempo se levantó Teudas, que pretendía ser alguien y que
reunió a su alrededor unos cuatrocientos hombres; fue muerto y todos los que le
seguían se disgregaron y quedaron en nada.
37 Después de éste, en los días del empadronamiento, se levantó Judas el Galileo,
que arrastró al pueblo en pos de sí; también éste pereció y todos los que le habían
seguido se dispersaron.
38 Os digo, pues, ahora: desentendeos de estos hombres y dejadlos. Porque si
esta idea o esta obra es de los hombres, se destruirá;
39 pero si es de Dios, no conseguiréis destruirles. No sea que os encontréis
luchando contra Dios.” Y aceptaron su parecer.

En el libro [Gen10] Harry Gensler afirma que este argumento es probablemente el más
complejo que la Biblia presenta. Consideremos la siguiente reconstrucción:
122 Capítulo 6. Consecuencia semántica

La enseñanza de los apóstoles viene de Dios o es de origen humano.


Si viene de Dios y matamos a los apóstoles, entonces estaremos luchando contra Dios.
Si es de origen humano, se destruirá por sí misma.
Si se destruye por sí misma y matamos a los apóstoles, entonces esas muertes serán innecesarias.
Si matamos a los apóstoles, entonces esas muertes serán innecesarias o estaremos luchando contra Dios.

(Observe la enorme distancia que hay entre el texto bíblico y la reconstrucción presenta-
da1 .
Sin embargo, es una buena reconstrucción ya que captura el sentido de lo dicho y las
condiciones de verdad involucradas). Si procedemos a la traducción al lenguaje de la lógica
proposicional siendo:

p: La enseñanza de los apóstoles viene de Dios.


q: La enseñanza de los apóstoles es de origen humano.
r: Matamos a los apóstoles.
s: La enseñanza de los apóstoles se destruirá por sí misma.
t: Estaremos luchando contra Dios.
u: La muerte de los apóstoles será innecesaria.
Obtenemos:
p∨q
(p ∧ r) → t
q→s
(s ∧ r) → u
r → (u ∨ t)
¿Cómo podemos, con los elementos a nuestra disposición, mostrar que la inferencia de
Gamaliel es correcta? Habíamos dicho, a nivel intuitivo, que una inferencia es lógicamente
correcta cuando no es posible que la conclusión sea falsa si las premisas son verdaderas.
Esto debería quedar reflejado en la semántica de nuestro lenguaje formal de la siguiente
manera: ninguna interpretación que asigne V a todas las premisas puede asignar F a la
conclusión o, dicho de otro modo, todo modelo de las premisas debe ser modelo de la
conclusión. Mostraremos que todo modelo del conjunto

P = {p ∨ q, (p ∧ r) → t, q → s, (s ∧ r) → u}

es modelo de

r → (u ∨ t)

Para hacer esto, consideraremos una interpretación que no sea modelo de r → (u ∨ t)


y mostremos que es imposible que esa interpretación sea modelo de todas las premisas. Es
1 Todo
este argumento -como muchos otros- está erizado de complejas cuestiones filosóficas, derivadas
del estatus de proposiciones contingentes sobre el futuro. Básicamente el problema es que aceptar que una
proposición como “La enseñanza de los apóstoles se destruirá por sí misma” tiene un valor de verdad en el
momento en que se la expresa, parece obligar a un determinismo lógico, es decir, que tanto si es V como si es F
entonces lo que sucederá con esa enseñanza ya está determinado. El problema fue estudiado con mucho detalle
por Aristóteles en el cap. 9 de Peri Hermeneias. Es tema de la filosofía de la lógica y no diremos otra cosa sobre él
salvo que usaremos esas expresiones como expresando proposiciones.
6.1 La validez en el lenguaje formal 123

decir, mostraremos que suponer que hay una interpretación que es modelo de todas las
premisas y no es modelo de r → (u ∨ t) lleva a una contradicción2 . Sea I una interpretación
tal que
(a) Es modelo de todas las premisas.
(b) Es contramodelo de r → (u ∨ t).
Por (b):
(1) I(r) = V
(2) I(u ∨ t) = F
Como I es interpretación es necesario, por (2), que
(3) I(u) = I(t) = F
Considere la premisa (p ∧ r) → t. Según (a) es V, y dado que según (3), I(t) = F, debe
ser
(4) I(p ∧ r) = F
Pero por (1) sabemos que I(r) = V, de modo que (4) y (1) hacen necesario que
(5) I(p) = F
Considere ahora la premisa (s ∧ r) → u. Según a es V y dado que, por (3), I(u) = F,
debe ser
(6) I(s ∧ r) = F
Pero por (1) sabemos que I(r) = V, de modo que (6) y (1) hacen necesario que
(7) I(s) = F
Considere ahora la premisa q → s. Según a es V y dado que por (7), I(s) = F, debe ser
(8) I(q) = F
Entonces por (8) y (5), tenemos que
I(p ∨ q) = F
Pero p ∨ q es una premisa, de modo que se contradice nuestra suposición en (a) de que
todas las premisas eran V bajo I, con lo que queda demostrado que ninguna interpretación
que asigne F a la conclusión asignará V a todas las premisas, o lo que es lo mismo, que
si una interpretación hace V a todas las premisas hará V también a la conclusión, o dicho
de otra manera, que todos los modelos del conjunto de las premisas son modelos de la
conclusión. Y es por esto que decimos que la inferencia es correcta y diremos que cualquier
inferencia cuya traducción al lenguaje formal cumpla eso será correcta.
Tenemos entonces la posibilidad de describir cómo se “refleja” en nuestro lenguaje
formal y su semántica la corrección argumental del lenguaje natural en tanto es tributaria
de la forma proposicional. Lo haremos a través del concepto de consecuencia semántica.
2 Observe
que no se está usando la palabra en el sentido técnico en que la definimos, como una fórmula que
no tiene modelos, sino en sentido coloquial. Esta es una forma de razonamiento común: suponer algo, y llegar a
algo inaceptable lógicamente, con lo que estamos obligados a rechazar lo que supusimos. Veremos con mucho
más detalle esto en próximos capítulos.
124 Capítulo 6. Consecuencia semántica

6.2 La relación de consecuencia semántica


De acuerdo a lo que acabamos de mostrar, definimos:
Definición 6.2.1 — Consecuencia semántica.
Sea Γ un conjunto de fórmulas de LP y A una fórmula de LP. A es consecuencia
semántica de Γ si y solo si todo modelo de Γ es también modelo de A.

Notación 6.1. Si A es consecuencia semántica de Γ , escribimos Γ |= A.

Es esta una de las nociones centrales de la Lógica, y dedicaremos el resto de este capítulo
a estudiarla.
Observemos en primer lugar que en un nivel preformal decíamos que una inferencia es
correcta si su conclusión necesariamente es verdadera si sus premisas lo son. Ahora que hemos
matematizado la noción al sumergirla en un lenguaje formal, la necesidad queda reflejada
al decir que toda interpretación que asigne V a las premisas asignará V a la conclusión. En el
ejemplo de la inferencia de Gamaliel, la conclusión es consecuencia semántica del conjunto
de las premisas, y eso clasifica científicamente la inferencia como correcta desde el punto de
vista lógico, o sea, podemos afirmar que es válida.
Es claro que dado cualquier conjunto de fórmulas Γ y cualquier fórmula A, la fórmula A
es consecuencia semántica de Γ o no lo es. Nunca una fórmula es “más o menos consecuencia
semántica” de un conjunto. Esto se corresponde con la división tajante entre argumentos
válidos e inválidos, ya habíamos visto que no hay argumentos “más o menos válidos”.
Consideremos ahora algunos de los aspectos más salientes del concepto que acabamos
de definir.

6.3 Conjuntos insatisfacibles y contradicciones


Supongamos que Γ no tiene modelos, o sea que es un conjunto insatisfacible, y sea A una
fórmula cualquiera. ¿Es o no es A consecuencia semántica de Γ ? No es simple responder a
la pregunta de si todos los modelos de Γ son modelos de A si es que Γ no tiene modelos.
Preguntémonos qué es necesario, en general, para que A no sea consecuencia semántica
de Γ . La respuesta obvia es: para que A no sea consecuencia semántica de Γ , debe existir
una interpretación que sea modelo de Γ y no sea modelo de A. Pero es claro que si Γ es
insatisfacible esto no puede cumplirse porque ninguna interpretación es modelo de Γ . Dado
que no puede cumplirse que A no sea consecuencia semántica de Γ , aceptamos que lo es.
 Ejemplo 6.1 Sea Γ = {p, q, p → ¬q}. ¿Es la fórmula r ∧ s consecuencia semántica de Γ ?
Según lo que acabamos de decir, y dado que Γ es insatisfacible (verifíquelo el lector), se
tiene:

Γ |= r ∧ s

con lo que decimos que ninguno de los modelos de Γ es contramodelo de (r ∧ s), cosa que
se cumple trivialmente porque Γ no tiene modelos.
Hemos demostrado el
6.4 Conjunto vacío y tautologías 125

Teorema 6.3.1 Si Γ es insatisfacible, entonces Γ |= A, sea cual sea la fórmula A.

Relacionada con esto se encuentra la siguiente pregunta: Una contradicción no tiene


modelos. ¿Cuáles conjuntos tienen a una contradicción como consecuencia semántica?
Sea κ una contradicción, y supongamos que Γ |= κ. Es claro que como todas las inter-
pretaciones son contramodelos de κ, si Γ tuviese un modelo, la relación de consecuencia
semántica no podría darse. Por eso y lo anterior tenemos:

Teorema 6.3.2 Siendo κ una contradicción, Γ |= κ si y solo si Γ es insatisfacible.

6.4 Conjunto vacío y tautologías


¿De cuáles conjuntos serán consecuencias semánticas las tautologías? La intuición nos
dice que una tautología no necesita de que otras proposiciones le ofrezcan apoyo para
que la consideremos verdadera. Examinemos la posibilidad de decir que una tautología es
consecuencia semántica de cualquier conjunto de fórmulas. Sea τ una tautología y Γ un
conjunto cualquiera de fórmulas. Es claro que Γ |= τ es algo que debemos aceptar siempre
que Γ contenga al menos una fórmula, ya que es imposible hallar contramodelos de τ y a
fortiori, contramodelos de τ que sean modelos de Γ . Pero este argumento sirve de la misma
manera en el caso de que Γ sea el conjunto vacío. Diremos entonces que una tautología es
consecuencia semántica del conjunto vacío y usaremos la siguiente

Notación 6.2. |= τ

Sin embargo queda por tratar el problema de si el conjunto vacío tiene alguna otra
consecuencia semántica aparte de las tautologías. Optamos convencionalmente por decir que
cualquier interpretación es modelo del conjunto vacío (ya que para que una interpretación
no sea modelo de un conjunto es necesario que exista una fórmula en el conjunto que no
sea verdadera bajo esa interpretación). Por lo tanto, ninguna contingencia o contradicción
puede ser consecuencia semántica del conjunto vacío y se tiene

Teorema 6.4.1 La fórmula A es tautología si y solo si |= A.

6.5 Monotonía
Supongamos que Γ y A son tales que Γ |= A. Modifiquemos ahora el conjunto Γ
agregándole fórmulas. Llamemos ∆ al conjunto de las fórmulas que agregamos obteniendo
un conjunto Γ ’ que será la unión de Γ y ∆. En símbolos de la teoría de conjuntos, Γ 0 = Γ ∪ ∆.
Nos preguntamos si se cumple Γ 0 |= A.
Se pueden presentar dos casos. Si Γ ’ es insatisfacible, entonces, como toda fórmula es
consecuencia semántica de cualquier conjunto insatisfacible, tenemos Γ ’|= A.
Si Γ ’ tiene modelos, entonces esos modelos tienen que asignar V a todas las fórmulas de
Γ , y por lo tanto serán también modelos de Γ . De modo que todo modelo de Γ ’ es también
modelo de Γ y como Γ |= A, es también modelo de A. Hemos demostrado el
126 Capítulo 6. Consecuencia semántica

Teorema 6.5.1 — Monotonía de la consecuencia semántica.


Si Γ |= A, entonces Γ ∪ ∆ |= A para todo conjunto de fórmulas ∆.

Se observa que si se parte de un conjunto de fórmulas y se agregan fórmulas, todos los


modelos del conjunto así obtenido serán modelos del conjunto de partida, lo que es decir,
con este procedimiento se pueden perder modelos pero nunca ganar nuevos.
Este aspecto llamado monotonía merece una pequeña digresión.
Es sabido que desde los filósofos griegos se ha distinguido un tipo de conocimiento
llamado a veces “racional”, que podríamos decir es el que se obtiene a través de inferencias
correctas a partir de determinados supuestos (que se consideran verdaderos). Algunos
estudiosos han dicho que una de las características más salientes de ese tipo de conocimiento
es que es inconmovible. Esto quiere decir que una vez que alguien ha adquirido un
conocimiento a través de inferencias deductivas partiendo de supuestos que se tienen
por verdaderos, ningún razonamiento hará que cambie el valor de verdad que le asigna a
la proposición que representa su conocimiento en tanto mantenga esos supuestos. Y esto
queda bien reflejado en lo que acabamos de decir. Supongamos que alguien partiendo de
un conjunto Γ de premisas infiere deductivamente A. En nuestro marco esto es lo mismo
que decir que ha advertido que Γ |= A. Supongamos ahora que aprende nuevos hechos, o
sea, que acepta nuevas proposiciones a cuyo conjunto llamaremos ∆. Su conocimiento de
A es inconmovible porque sea cual sea ∆, A será consecuencia semántica de Γ ∪ ∆. O sea
que una vez que se ha aceptado una proposición A por medios deductivos, la aceptación de
nuevas premisas, sean estas cuales sean, no hará cambiar la aceptación de A. Y esto puede
parecer extraño pero un poco de reflexión muestra que no lo es. La inconmovibilidad se
da solamente en tanto se mantengan todas las premisas que llevaron a A. Supongamos el
caso extremo en el que lo nuevo que se acepta es ¬A. Según lo que venimos diciendo, A
continuará siendo consecuencia semántica del nuevo conjunto. En símbolos:

(1) Γ |= A

y el sujeto acepta A porque la ha deducido de las proposiciones contenidas en Γ .


Ahora el sujeto acepta ¬A a la vez que mantiene su creencia en todas las proposiciones
de Γ . Como

Γ ∪ {¬A} |= A

A sigue siendo una conclusión correctamente extraída de su (nuevo) conjunto de premisas,


y si el sujeto se apega a la regla de creer todo aquello que puede deducir a partir de sus
supuestos aceptados, debe continuar creyendo A a pesar de haber supuesto ¬A.
Esto es así porque (1) indica que si una interpretación es modelo de Γ entonces es modelo
de A o lo que es lo mismo, es contramodelo de ¬A. Por eso, no hay modelos de Γ ∪ {¬A},
o sea, el nuevo conjunto es insatisfacible y por lo tanto, toda proposición es consecuencia
semántica de él. En particular Γ ∪ {¬A} |= A. En este caso, lo que tenemos es que el razonador
alberga creencias incoherentes (el conjunto de fórmulas que representa sus creencias es
insatisfacible).
Por supuesto que se puede cambiar de creencias obtenidas racionalmente por medios
también racionales, es decir, se puede dejar de creer una proposición que previamente
6.6 El condicional asociado 127

ha sido aceptada porque se ha llegado a ella a través de inferencias deductivas correctas,


pero para esto es necesario abandonar alguna de las premisas que llevaron a su aceptación.
Nunca se abandona una conclusión obtenida lógicamente por medios puramente deductivos a causa
del agregado de nuevas premisas. Es esta una de las diferencias más importantes entre las
inferencias deductivas y las no deductivas. En una inferencia deductiva nunca se debilita el
grado de apoyo que las premisas dan a la conclusión por el agregado de nuevas premisas. En
una inferencia inductiva el grado de apoyo que la conclusión recibe de las premisas puede
cambiar drásticamente con el agregado de ellas. Aníbal Corti gusta de poner como ejemplo
estas inferencias, que parecen ser respectivamente buena, mala, muy buena y horrible, y
esos cambios abruptos en el apoyo que las premisas dan a la conclusión se van produciendo
por el sucesivo agregado de una premisa3 :

Piolín es un ave.
Piolín es un ave.
Piolín es un ave. Piolín vive en la Antártida
Piolín es un ave. Piolín vive en la Antártida
Piolín vive en la Antártida Piolín no es un pingüino
Piolín no es un pingüino
Piolín vuela Piolín nació sin alas
Piolín vuela
Piolín vuela
Piolín vuela

Es decir, la inferencia inductiva es no monótona.

6.6 El condicional asociado


¿Cómo evaluar si una proposición dada es consecuencia semántica de un conjunto dado?
Hicimos esa evaluación para la formalización del argumento de Gamaliel al principio del
capítulo, pero el método que usamos, si bien concluyente, no podemos decir que haya sido
sistemático. Intentemos desarrollar un método sistemático para el caso en que Γ sea un
conjunto finito. Sea Γ = {A1 , ..., An } y consideremos el problema de determinar si Γ |= B.
Según el Teorema 4.5.1, todo modelo del conjunto Γ es modelo de la fórmula (A1 ∧ ... ∧
An ), y recíprocamente, todo modelo de esta fórmula es modelo de Γ . Esto permite reducir el
problema de la consecuencia semántica a la relación de valores de verdad de dos fórmulas:
(A1 ∧ ... ∧ An ) y B.
Supongamos que se da la relación de consecuencia semántica. Decir que todo modelo
de Γ es modelo de B es equivalente a decir que toda interpretación que asigne V a la
fórmula (A1 ∧ ... ∧ An ) también asignará V a la fórmula B, o lo que es lo mismo, que toda
interpretación que asigne F a B, asignará F a (A1 ∧ ... ∧ An ). La relación de consecuencia
semántica impone restricciones a las combinaciones de valores de verdad de esas dos
fórmulas que se muestran en la siguiente tabla:

(A1 ∧ ... ∧ An ) B Si {A1 , ..., An } |= B, tenemos


V V Caso permitido
V F Caso prohibido
F V Caso permitido
F F Caso permitido

3 Ejemplo presentado en la Primera Escuela de Argumentación y Lógica Informal, Montevideo, 2011.


128 Capítulo 6. Consecuencia semántica

¿Cómo distinguir el “caso prohibido” de los restantes? Es obvia la similitud de esta


“metatabla” con la tabla de verdad del condicional. Si consideramos el condicional

(A1 ∧ ... ∧ An ) → B

vemos que será falso si y solo si estamos en el “caso prohibido”, o sea si existe una
interpretación que sea modelo de Γ y no lo sea de B.
Esto nos lleva a decir que si ese condicional es verdadero bajo toda interpretación
entonces Γ |= B, y recíprocamente, si Γ |= B entonces el condicional es verdadero bajo toda
interpretación. Hemos demostrado así el

Teorema 6.6.1 — Condicional asociado.


{A1 , ..., An } |= B si y solo si (A1 ∧ ... ∧ An ) → B es una tautología.

Ese condicional se llama condicional asociado al par (Γ , B).


No es ocioso repetir que encontrar una sola interpretación que hace falso al condicional
asociado es encontrar una interpretación que hace verdadera a la conjunción que le sirve de
antecedente a la vez que hace falsa a la fórmula que le sirve de consecuente, y esto equivale
a encontrar un modelo de Γ que no es modelo de B.
Si ninguna interpretación logra eso es porque todos los modelos de Γ son modelos de B.
De ahí que surge este fortísimo resultado que nos permite reducir el problema de evaluar si
una fórmula es consecuencia semántica de un conjunto finito de fórmulas a determinar si
una fórmula (el condicional asociado) es una tautología.
En el caso en que Γ sea insatisfacible, la conjunción que sirve de antecedente al con-
dicional asociado será una contradicción (porque ninguna interpretación puede hacer
simultáneamente verdaderas a todas las Aes) y entonces el condicional asociado, al tener
como antecedente una contradicción, será tautológico sin importar cuál sea la fórmula B
que le sirva de consecuente. Esperábamos este resultado ya que habíamos afirmado que
cualquier fórmula es consecuencia semántica de un conjunto insatisfacible.
 Ejemplo 6.2 Determinar si se cumple {(p1 ∨ p2 ), ¬p2 } |= (p1 ∧ (p2 → p3 ))
Evaluemos la tabla de verdad de su condicional asociado:

(((p1 ∨ p2 ) ∧ ¬p2 ) → (p1 ∧ (p2 → p3 )))


V V V F F V V V V V V
V V V F F V V F V F F
V V F V V V V V F V V
V V F V V V V V F V F
F V V F F V F F V V V
F V V F F V F F V F F
F F F F V V F F F V V
F F F F V V F F F V F

Observe que hemos dispuesto una única columna bajo ¬p2 colocando en ella los valores
de verdad asignados al compuesto, en vez de utilizar dos columnas, una para la letra
proposicional y otra para el conectivo unario que la afecta. Es la práctica usual, que
simplifica en algo la presentación.
6.6 El condicional asociado 129

El resultado es, por supuesto, que dado que el condicional asociado es tautológico, hay
relación de consecuencia semántica.
 Ejemplo 6.3 Es trivial observar que {p1 } 2 (p1 ∧ p2 ) ya que el condicional asociado

(p1 → (p1 ∧ p2 ))

no es tautológico, como el lector comprobará fácilmente.


 Ejemplo 6.4 Determinar si se cumple {(p1 ∧ p2 ), (p1 →(p4 ∨ p3 ))}|=(p4 ∨ p3 )
Construyamos el condicional asociado al par que tenemos entre manos:

((p1 ∧ p2 ) ∧ (p1 → (p4 ∨ p3 ))) → (p4 ∨ p3 )

Debemos investigar si es una tautología. Podríamos hacerlo desarrollando la tabla


de verdad, lo que sería muy trabajoso ya que en este caso sería una tabla con 16 líneas.
¿Qué procedimiento alternativo tenemos para saber si ese condicional es o no tautológico?
Recordemos el inicio de este trabajo, cuando analizamos el argumento de Gamaliel. En esa
ocasión supusimos que una interpretación hacía V a las premisas y F a la conclusión. De ahí
obteníamos una contradicción. Análogamente ahora podemos buscar una interpretación
que haga F el consecuente y V el antecedente. Si la encontramos, el condicional asociado no
es tautológico y si arribamos a una contradicción a partir de la suposición de que existe, el
condicional asociado es tautológico.
Desarrollaremos el procedimiento en mucho mayor detalle que el necesario, para que se
comprenda su funcionamiento.

(((p1 ∧ p2 ) ∧ (p1 → (p4 ∨ p3 ))) → (p4 ∨ p3 ))


1 F
2 V F
3 V V F F
4 V V F F F
5 X

En cada fila se va desarrollando un paso del razonamiento hecho en el orden en que fue
realizado.

1. Suponemos que el condicional asociado es F.


2. Si el condicional asociado es falso, su antecedente es V y su consecuente es F, lo que
se marca bajo cada uno de los conectivos principales.
3. Al ser falsa la disyunción del consecuente, p4 y p3 son falsas, y al ser verdadera la
conjunción del antecedente, las fórmulas (p1 ∧ p2 ) y (p1 →(p4 ∨ p3 )) son verdaderas,
lo que se marca bajo sus conectivos principales.
4. Al ser verdadera (p1 ∧ p2 ), tanto p1 como p2 son verdaderas. Además, en la fila 3
habíamos deducido que p4 y p3 son falsas, por lo que (p4 ∨ p3 ) es falsa.
5. El condicional (p1 →(p4 ∨ p3 )) es verdadero (fila 3) y su consecuente es falso (fila 4).
Entonces su antecedente p1 es falso. Pero p1 es verdadero (fila 4). Contradicción.
130 Capítulo 6. Consecuencia semántica

Ninguna interpretación hace que antecedente del condicional asociado sea verdadero y
a la vez su consecuente falso, o sea que el condicional asociado es tautológico y hay relación
de consecuencia semántica.

6.7 El teorema de deducción (versión semántica)


El teorema de deducción es un muy importante resultado que expresa algo que puede
parecer una perogrullada, pero tiene consecuencias de muy largo alcance.
Antes de enunciarlo, expliquemos una notación que simplificará las cosas. En vez de
Γ ∪ {A} escribamos Γ , A lo que resulta más cómodo.
Supongamos que se cumple

(1) Γ , A |= B

o sea, B es consecuencia semántica del conjunto formado por las fórmulas de Γ y la fórmula
A. El teorema de deducción afirma que en esas circunstancias se cumple

(2) Γ |= (A → B)

y recíprocamente, que si cumple (2) se cumple (1).


Observe el lector que si en el enunciado se sustituyera → por ∧, ∨ o ↔ no obtendríamos
algo que se cumple en todos los casos.
¿Qué es lo que nos dice el teorema de deducción acerca de la validez argumental?
Por un lado, que dado un argumento válido tal que una de cuyas premisas es A y su
conclusión es B, también será válido el argumento que tiene las mismas premisas excepto A
y como conclusión el condicional A → B. O sea, a partir de cualquier argumento válido que
tenga al menos una premisa, podemos obtener otro argumento válido que tiene una premisa
menos. Obsérvese que si se trata de un argumento con una cantidad finita de premisas, la
repetición del procedimiento nos lleva a concluir algo a partir del conjunto vacío, o sea,
terminamos en una forma tautológica.
Por otro lado, que dado un argumento válido con conclusión en forma de condicional,
también será válido el argumento que se obtenga agregando el antecedente de la conclusión
a las premisas, y dejando como nueva conclusión el consecuente.
O sea, este resultado, considerado desde el punto de vista de la corrección argumental,
nos dice que la corrección lógica de ciertos argumentos asegura la corrección de otros,
relacionados con el primero en forma precisa, y recíprocamente. De manera que ciertos
argumentos son tales que o bien son todos válidos o bien son todos inválidos, no pueden ser
unos válidos y otros inválidos. Pasemos al enunciado preciso y la demostración:

Teorema 6.7.1 — Deducción (versión semántica).


Para todo conjunto de fórmulas Γ y para cualesquiera fórmulas A y B:
Γ , A |= B si y solo si Γ |= (A → B).

demostración: Trabajaremos con los contrarrecíprocos: Demostraremos que si no se cumple


Γ |= (A → B), entonces no se cumple Γ , A |= B; y que si no se cumple Γ , A |= B, entonces
no se cumple Γ |= (A → B).
6.8 El “absurdo” 131

Supongamos Γ 2 (A → B)4 . En este caso tendríamos un modelo de Γ que sería contra-


modelo de (A → B), o sea, que sería modelo de A y contramodelo de B. Pero si existe un
modelo de Γ que es además modelo de A y contramodelo de B, entonces Γ , A 2 B.
Recíprocamente, supongamos que Γ , A 2 B. En ese caso tendríamos un modelo de Γ y
de A que es contramodelo de B. Pero esa interpretación sería modelo de Γ y contramodelo
de (A → B), por lo que Γ 2 (A → B).
Introduzcamos un nuevo concepto, el de implicación.
Definición 6.7.1 — Implicación.

Una fórmula A implica una fórmula B si y solo si todos los modelos de A son modelos
de B, o sea, si y solo si {A} |= B.

A partir del teorema de deducción, es evidente el siguiente

Corolario 6.7.2 A implica B si y solo si A → B es una tautología.

6.8 El “absurdo”
Se trata de un teorema que justifica un tipo de razonamiento muy común. Su enunciado
es
Teorema 6.8.1 — El “absurdo” (versión semántica).
Para todo conjunto Γ y toda fórmula A, Γ |= A si y solo si Γ , ¬A es insatisfacible.

Frecuentemente se razona de esta manera: se acepta un conjunto de proposiciones que


se consideran establecidas Γ , al que se le adjunta la negación de una proposición A. Si se
encuentra que el nuevo conjunto que se obtiene es insatisfacible se rechaza la negación
que se había adjuntado y se acepta la proposición A. Esa aceptación se debe a que A es
consecuencia de un conjunto de proposiciones que se consideran establecidas.
demostración: Si Γ |= A todo modelo de Γ es modelo de A y por lo tanto, todo modelo de
Γ es contramodelo de ¬A. Se concluye que Γ , ¬A no tiene modelos, o sea, es insatisfacible.
Por otro lado, si Γ , ¬A es insatisfacible, todo modelo de Γ es contramodelo de ¬A, y por
lo tanto, todo modelo de Γ es modelo de A, o sea Γ |= A.

4 Por supuesto, el símbolo 2 se utiliza para significar que la fórmula que le sigue no es consecuencia

semántica del conjunto que le precede.


132 Capítulo 6. Consecuencia semántica

6.9 Ejercicios
1. Evalúe si es correcto lo que se afirma en cada caso. Si no es correcto, encuentre un
modelo del conjunto dado que sea contramodelo de la fórmula dada.
a) {((p1 ∧ p2 ) → p2 ), p3 } |= (¬p2 → ¬(p1 ∧ p2 ))
b) {p1 } |= (p1 ∨ (¬¬p2 → (p4 ↔ p1 ))
c) {((p2 → p4 ) → p3 )} |= (¬p3 → ¬(p2 → p4 ))
d) {((p1 ↔ p2 ) ∧ (p2 ↔ p1 )), p3 , (p4 ∨ p4 )} |= p1
e) {¬(p1 → p2 ), ¬p1 } |= (p3 ∧ p1 )
f ) {(p1 ∨ (p1 → p2 )), ¬(p1 → p2 )} |= p1

2. Mostrar que cualquier consecuencia semántica de un conjunto de tautologías es una


tautología.

Comentario: David Stove, en [Sto93], afirma que los filósofos tienen un comprensible
interés en generar argumentos que cumplan las siguientes tres características:
a) Tengan premisas absolutamente ciertas.
b) Sean totalmente correctos desde el punto de vista lógico.
c) Tengan conclusiones interesantes.
Desde el punto de vista proposicional, es obvio que las proposiciones que mejor
cumplen a) son las tautologías y las que mejor cumplen c) son las contingencias
–proposiciones que expresan algo que podría haber sido de otra manera-. Por lo tanto,
se trata de un ideal inalcanzable. Stove dice haber identificado importantes argumentos
en la historia de la filosofía que adolecen de algo análogo a tener premisas tautológicas
y conclusión contingente: sin más análisis, se puede afirmar que no son válidos.

3. Sea Γ un conjunto de fórmulas y sea Cons(Γ ) el conjunto de las fórmulas que son
consecuencia semántica de Γ .
a) Demuestre que Cons(Γ ) es infinito sin importar cuál sea Γ .
b) Sea A una fórmula que pertenece a Cons(Γ ). Demuestre que la fórmula X → A
pertenece a Cons(Γ ) sin importar cuál sea X. ¿Se puede decir lo mismo de A → X?
c) Sea A una fórmula que pertenece a Cons(Γ ) y sea B una fórmula que pertenece a
Cons({A}). Demuestre que, siendo X cualquier fórmula se cumple Γ ∪ {¬B} |= X.

4. Demuestre que Cons(Cons(Γ )) = Cons(Γ ).

5. Sean A, B y C fórmulas tales que C es consecuencia semántica del conjunto {A, B}.
Demostrar que A → (B → C) es una tautología.

6. Sea Γ un conjunto de fórmulas tal que:


i) Todas las tautologías pertenecen a Γ .
ii) Para cualesquiera dos fórmulas A y B, si A y A → B pertenecen a Γ , entonces B
6.9 Ejercicios 133

pertenece a Γ .

a) Mostrar que si A y B pertenecen a Γ , entonces A ∧ B pertenece a Γ .


b) Mostrar que si A y ¬A pertenecen a Γ , entonces toda fórmula de LP pertenece a
Γ.

7. a) Sean A1 , A2 ,. . . ,An , ϕ, ψ, χ, ξ fórmulas cualesquiera tales que se cumple:


{A1 , A2 , . . . , An } |= ϕ
Demostrar que
(χ → ((A1 ∧ A2 ∧ · · · ∧ An ∧ ψ) → (ϕ ∨ ξ))) es tautología.
b) En la siguiente “fórmula” se consideran todas las letras proposicionales indizadas
entre 1 y n. Demostrar que:
((p1 ∨ ¬p1 ) → ((¬p1 ∧ p2 ∧ · · · ∧ pn ∧ (p4 → p3 )) → (¬(p1 ∨ ¬p2 ) ∨ (p4 → p3 ))))
es tautología.

8. Sea Γ un conjunto de fórmulas, ϕ y ψ fórmulas tales que:


Γ , ϕ |= ψ
Γ , ψ |= ϕ
Γ |= ((ϕ ∧ ¬ψ) ∨ (ψ ∧ ¬ϕ))
Demuestre que Γ es insatisfacible.

9. Sea Γ un conjunto satisfacible que cumple que, dada cualquier fórmula X del lenguaje,
o bien Γ |= X o bien Γ |= ¬X. Defina ahora una valuación v de modo que v(X) = V si y
solo si Γ |= X. Demuestre que v es una interpretación.
Suponga ahora que se define una valuación u de modo que u(X) = V si y solo si
Γ |= ¬X. ¿Es u una interpretación?

10. Traduzca los siguientes argumentos al lenguaje de la lógica proposicional y evalúe su


corrección a través de la la evaluación de la relación de consecuencia semántica entre
el conjunto de premisas y la conclusión.

a) Si la ética depende de la voluntad de Dios, entonces las cosas buenas son buenas
porque Dios las quiere. Las cosas buenas no son buenas porque Dios las quiera.
La ética no depende de la voluntad de Dios.
b) Si Dios existe en el entendimiento y no en la realidad, es concebible un ser mayor
que Dios. Es falso que se puede concebir un ser mayor que Dios. Dios existe en el
entendimiento. Dios existe en la realidad.
c) Si la existencia es una perfección y Dios, por definición, tiene todas las perfeccio-
nes, entonces Dios por definición, debe existir. Dios por definición tiene todas las
perfecciones. La existencia es una perfección. Por definición, Dios debe existir.
d) Si tenemos conocimiento, entonces o algunas cosas son conocidas sin prueba o
podemos probar toda premisa mediante premisas previas, y así sucesivamente.
No podemos probar toda premisa mediante premisas previas y así sucesivamente
134 Capítulo 6. Consecuencia semántica

pero tenemos conocimiento. Algunas cosas son conocidas sin prueba.

11. Traduzca los siguientes argumentos al lenguaje de la lógica proposicional y evalúe su


corrección a través de la la evaluación de la relación de consecuencia semántica entre
el conjunto de premisas y la conclusión. En el caso de que su estudio no corrobore la
validez del argumento, indique si considera que se trata de un argumento inválido
o de un argumento válido cuya validez no queda capturada por su estructura en
términos de conectivos proposicionales.
a) Laika es una perra. Laika tiene dos orejas. Por lo tanto, existe una perra que tiene
dos orejas.
b) Laika es una perra. Laika tiene dos orejas. Por lo tanto, todos los perros tienen
dos orejas.
c) Todas las hormigas son insectos. Si todas las hormigas son insectos y todos los
insectos tienen seis patas, entonces todas las hormigas tienen seis patas. Es falso
que existan insectos que no tienen seis patas. Por lo tanto, todas las hormigas
tienen seis patas.
d) Todas las hormigas son insectos. Si todas las hormigas son insectos y todos los
insectos tienen seis patas, entonces todas las hormigas tienen seis patas. Es falso
que existan insectos que no tienen seis patas. Por lo tanto, ninguna hormiga tiene
cinco patas.
e) Todos los hombres son mortales. Sócrates es hombre. Sócrates es mortal.
f ) Todos los hombres son mortales. Sócrates es hombre. Si todos los hombres son
mortales y Sócrates pertenece a la especie Homo sapiens, entonces Sócrates no es
inmortal.
g) Si Dios creó algo, entonces Dios creó todo. Dios creó todo. Por lo tanto, Dios creó
algo. [Este argumento fue presentado por Carlos Oller en el coloquio sobre Vaz
Ferreira, Montevideo, 2011 en el marco de una ponencia en la que analizaba la
capacidad de la lógica formal para decidir absolutamente sobre la invalidez de un
argumento, inspirado en Oliver: “Formal Fallacies and other invalid arguments”,
Mind, octubre de 1967.]
h) Si el cielo es azul, entonces la atmósfera tiene varios kilómetros de altura o está
cargada de partículas. Para que el cielo sea azul es necesario y suficiente que
la atmósfera se comporte como un prisma ajustado a esa longitud de onda. La
atmósfera está cargada de partículas y la dirección del campo magnético terrestre
no es Este-Oeste. Si la atmósfera se comporta como un prisma ajustado a esa
longitud de onda, entonces el campo magnético terrestre está en dirección Este-
Oeste. Por todo esto, concluimos que la atmósfera tiene varios kilómetros de
altura.
i) Si el cielo es azul, entonces la atmósfera tiene varios kilómetros de altura o está
cargada de partículas. Para que el cielo sea azul es necesario y suficiente que
la atmósfera se comporte como un prisma ajustado a esa longitud de onda. La
atmósfera está cargada de partículas y la dirección del campo magnético terrestre
6.9 Ejercicios 135

no es Este-Oeste. Si la atmósfera se comporta como un prisma ajustado a esa


longitud de onda, entonces el campo magnético terrestre está en dirección Este-
Oeste. Por todo esto, concluimos que la atmósfera no tiene varios kilómetros de
altura.
j) Si el cielo es azul, entonces la atmósfera tiene varios kilómetros de altura o está
cargada de partículas. Para que el cielo sea azul es necesario y suficiente que
la atmósfera se comporte como un prisma ajustado a esa longitud de onda. La
atmósfera está cargada de partículas y la dirección del campo magnético terrestre
no es Este-Oeste. Si la atmósfera se comporta como un prisma ajustado a esa
longitud de onda, entonces el campo magnético terrestre no está en dirección
Este-Oeste. Por todo esto, concluimos que la atmósfera tiene varios kilómetros de
altura.

12. En el artículo “El caso Galileo” de Owen Gingerich5 , se presentan estos dos argumen-
tos:

i) Si el sistema planetario es heliocéntrico, Venus muestra fases. El sistema planetario


es heliocéntrico. Por consiguiente, Venus muestra fases.
ii) Si el sistema planetario es heliocéntrico, Venus muestra fases. Venus muestra
fases. Por consiguiente, el sistema planetario es heliocéntrico.

Gingerich afirma que Galileo basó su defensa del heliocentrismo, entre otros elementos,
en el argumento ii). Traduzca ambos argumentos al lenguaje de la lógica proposicional,
evalúe la corrección argumental. ¿Le merece algún comentario el resultado obtenido?

5 Publicado en Investigación y Ciencia, octubre de 1982.


7 | Consecuencia sintáctica

l introducir la importantísima noción de consecuencia semántica hemos podido

A utilizar el lenguaje formal LP para clasificar algunas inferencias como válidas. Sin
embargo, hay una brecha importante entre nuestra práctica deductiva más o menos
cotidiana cuando nos enfrentamos a un conjunto de premisas y buscamos una conclusión, o
cuando queremos evaluar una inferencia, y lo que hacemos al evaluar si existe la relación de
consecuencia semántica sobre el lenguaje formal. Esta diferencia se debe principalmente a
que al intentar deducir, no solemos pensar en términos de modelos, ni tampoco evaluamos
sistemáticamente todas las posibilidades, un procedimiento que parece ser lo que hacen en
el fondo las tablas de verdad.

7.1 Tras las huellas de los humanos


Pensar como la gente
Consideremos un ejemplo concreto. Recordemos uno de los problemas de la biblioteca
ya resuelto:
En el primer folio de Dragones se lee: “Dragones es obra de Mendacius y Esfinge es
obra de Mendacius”. ¿Quiénes son los autores de estas obras?
El lector puede referirse a 4.6, en la página 93, donde hallará la obtención de la solución
por medio de tablas de verdad, o puede probar que el problema queda bien resuelto al
establecer que Dragones es obra de Mendacius y Esfinge de Veratius a través de la verifica-
ción de que se tiene (utilizando la notación introducida en el mismo lugar anteriormente
referido)

{VD ↔ (¬VD ∧ ¬VE )} |= (¬VD ∧ VE )

Pero es claro que estas formas de resolver o verificar la solución del problema se
encuentran muy alejadas de lo que haría cualquiera que se enfrentase por primera vez a
él. En esa situación, seguramente la mayoría de la gente razonaría en forma parecida a la
que se mostró en 1.6, página 20. Examinaremos con detalle ese razonamiento “natural”,
dividiéndolo en pasos que justificaremos.
La siguiente tabla esquematiza ese trabajo inferencial. Recordemos que, debido a las
reglas de la biblioteca, la condición de no haber sido escrito por Veratius es equivalente a la
de haber sido escrito por Mendacius.
138 Capítulo 7. Consecuencia sintáctica

Paso Contenido Justificación

1 Aceptamos que Dragones fue escri- Por las reglas de la bilioteca y lo


to por Veratius si y solo si Dragones escrito en Dragones.
y Esfinge no fueron escritos por Ve-
ratius.
2 Suponemos que Dragones fue escri- Esperamos llegar a una contradic-
to por Veratius. ción bajo ese supuesto, lo que nos
obligaría a rechazarlo.
3 Aceptamos, bajo el supuesto hecho, Por 1 y 2.
que Dragones y Esfinge no fueron
escritos por Veratius.
4 Aceptamos, bajo el supuesto, que Por 3.
Dragones no fue escrito por Vera-
tius.
5 Aceptamos, bajo el supuesto, que Por 2 y 4.
Dragones fue escrito por Veratius
y que Dragones no fue escrito por
Veratius.
6 Rechazamos el supuesto de 2, o sea, Porque las contradicciones no son
aceptamos que Dragones no fue es- aceptables, y por tanto no podemos
crito por Veratius. aceptar la contradicción de 5. Pero
aceptar el supuesto de 2 nos obliga-
ría a ello.
7 Suponemos que Esfinge no fue es- Esperamos llegar a una contradic-
crito por Veratius. ción bajo ese supuesto, lo que nos
obligaría a rechazarlo.
8 Aceptamos, bajo el supuesto de 7, Por 6 y 7.
que Dragones no fue escrito por Ve-
ratius y Esfinge no fue escrito por
Veratius.
9 Aceptamos, bajo el supuesto de 7, Por 1 y 8.
que Dragones fue escrito por Vera-
tius.
10 Aceptamos, bajo el supuesto de 7, Por 9 y 6.
que Dragones fue escrito por Vera-
tius y que Dragones no fue escrito
por Veratius.
7.1 Tras las huellas de los humanos 139

11 Rechazamos el supuesto de 7, o sea, Porque las contradicciones no son


aceptamos que Esfinge fue escrito aceptables, y por tanto no podemos
por Veratius. aceptar la contradicción de 10. Pero
aceptar el supuesto de 7 nos obliga-
ría a ello.
12 Aceptamos que Dragones no fue es- Por 6 y 11.
crito por Veratius y Esfinge fue es-
crito por Veratius.

Habrá observado el lector que al justificar los pasos inferenciales no aparecen referencias
explícitas a conceptos semánticos -con excepción de la contradicción- sino que se apela
siempre a la posibilidad de aceptar determinadas proposiciones en ciertas circunstancias,
por razones concernientes a la función que cumplen en la inferencia (premisas y supuestos)
o por haber aceptado ya otras proposiciones con determinadas características sintácticas, o
mejor dicho, características que, consideradas en traducciones a LP, se reflejarían sintácticamente,
como por ejemplo, en el paso 9, aceptamos un una proposición porque es uno de los
conyuntos de una conjunción ya aceptada. Además, el razonamiento tomó la forma de
una secuencia de proposiciones que iban siendo tomadas como sabidas, aceptadas porque
ya habíamos aceptado otras, o supuestas. Lo que hemos presentado es lo que llamaremos
una deducción. Nuestro objetivo ahora será la obtención de un conjunto de reglas que
nos permitan construir secuencias de fórmulas que se correspondan con estas secuencias
inferenciales, que llamamos deducciones, de tal modo que esas reglas dependan únicamente
de la forma de las fórmulas en la secuencia, o sea, serán reglas puramente sintácticas. Por
supuesto, nuestro objetivo será además que las reglas sean tales que al generar una secuencia
a partir de un conjunto de fórmulas, obtengamos siempre como último elemento de la
secuencia una fórmula que sea consecuencia semántica de las que utilizamos como base
para construir la secuencia.
Dicho en forma más clara: queremos generar un procedimiento que nos permita evaluar
la validez, pero que solo dependa de consideraciones sintácticas, y que sea un correlato
formal de las deducciones.
Hay varias formas de lograr eso, pero en este curso elegiremos una que fue creada
especialmente para “copiar” el razonamiento humano. Por el momento, y hasta que poda-
mos definir precisamente cuál será el correlato formal de las secuencias inferenciales que
producimos informalmente, llamaremos “secuencia inferencial” tanto a lo que tenemos en
el nivel informal, que está formado por pasos que se expresan en lenguaje natural, como
a lo que vamos a ir viendo puede establecerse en el lenguaje formal como una adecuada
mimesis de una deducción.
Ahora valorará el lector la propiedad de la metáfora del microscopio empleada por
Frege en el pasaje citado en la sección 2.4, página 56. Examinaremos con sumo detalle el
razonamiento hecho, “rastreando” paso a paso el procedimiento inferencial y observando
muy cuidadosamente cada avance. Nuestra inferencia se verá como una secuencia de
fórmulas, que terminará en la que representa la conclusión, o sea la solución del problema.
Intentaremos explicar cómo justificaríamos cada paso a partir de consideraciones puramente
sintácticas, lo que resultará en el establecimiento de reglas que permitan la inclusión de
140 Capítulo 7. Consecuencia sintáctica

fórmulas en las secuencias inferenciales. Esas reglas, si bien serán sintácticas, deberán tener
un respaldo semántico, en el sentido de que deseamos evitar a toda costa la posibilidad de
que ellas nos permitan partir de algunas fórmulas y arribar a otra que no sea consecuencia
de ellas.
Comencemos entonces ese examen de la inferencia presentada.
Las reglas de la biblioteca nos obligan a aceptar que Dragones fue escrito por Veratius si y
solo si él mismo y Esfinge fueron escritos por Mendacius. Esa proposición, que simbolizamos
como VD ↔ (¬VD ∧ ¬VE ) (recordemos que en la biblioteca todos los libros fueron escritos
por Veratius o por Mendacius, es imposible que algún algún libro sea obra de los dos y
que representábamos la proposición “X fue escrito por Veratius” como VX 1 ) es la base de
nuestros razonamientos.

paso 1: Aceptamos VD ↔ (¬VD ∧ ¬VE )

Esta aceptación no es más que la de las bases para comenzar a razonar: allí se contienen
de algún modo las reglas de la biblioteca (en el bicondicional) y los datos aportados por
Dragones (en el miembro derecho del mismo bicondicional). O sea, esta es la premisa
de nuestro argumento. Por ahora, nuestro desarrollo se ve muy modesto, y lo podemos
presentar así:

Fórmula Justificación Observaciones


1 VD ↔ (¬VD ∧ ¬VE ) Premisa

¿Estamos justificados siempre en aceptar una premisa? La respuesta es: por supues-
to. En todo punto de una secuencia inferencial puede agregarse una premisa. Quien toma una
premisa para desarrollar una inferencia no necesariamente se está comprometiendo con
su verdad. Simplemente está intentando extraer las consecuencias que de ella (y otras,
quizá) se siguen. Por supuesto, al enfrentarse a una inferencia concreta uno debe tomar
únicamente las premisas dadas, porque de otro modo estaría extrayendo consecuencias
de proposiciones arbitrarias. Podemos establecer este principio para la construcción de las
secuencias inferenciales:
en una secuencia inferencial siempre se puede introducir cualquiera de las
premisas de la inferencia. Para justificar esa inclusión, basta apelar a su calidad
de premisa.

paso 2: Suponemos que Dragones fue escrito por Veratius, o sea, suponemos VD .

Esto puede parecer arbitrario, pero es necesario notar lo siguiente: al suponer que
Dragones fue escrito por Veratius, no estamos comprometiéndonos con que así sea, ni
tampoco con que “Dragones fue escrito por Veratius” se siga de lo que hemos aceptado
hasta ahora. La suposición es una “apuesta” que hacemos con la esperanza de que nos
permita avanzar en la inferencia. Es importantísimo notar que a partir de ahora debemos
tener cuidado en distinguir cuáles proposiciones de las que infiramos se dan bajo la
1 El lector se habrá percatado de que para no complicar la notación, tomamos la inicial del nombre de X al

subindizar.
7.1 Tras las huellas de los humanos 141

condición de que Dragones haya sido escrito por Veratius y cuáles son independientes
de ella. El punto es que inferir que bajo la condición de que Dragones haya sido escrito por
Veratius se cumple una proposición p, puede llevarnos a inferir justificadamente algo en
forma independiente de esa suposición, pero seguramente dependiente de lo que sea p. ¿Y
cuáles proposiciones se pueden introducir como supuestos? En esto hay total libertad. Lo
que sucede es que podemos hacer supuestos que no nos lleven a ningún lado. Es muy
obvio que si en el razonamiento hubiéramos supuesto la proposición “Llueve”, difícilmente
estaríamos haciendo algo que nos ayudara a encontrar la solución. Tenemos un nuevo
principio:

en una secuencia inferencial siempre se puede introducir cualquier proposición,


justificándola como supuesto.

Por ahora, tenemos:

Fórmula Justificación Observaciones


1 VD ↔ (¬VD ∧ ¬VE ) Premisa
2 VD Supuesto

paso 3: Utilizando el bicondicional del paso 1 y que hemos supuesto su miembro


izquierdo en el paso 2, inferimos su miembro derecho, o sea, inferimos que Dragones
no fue escrito por Veratius y Esfinge no fue escrito por Veratius, esto es, ¬VD ∧ ¬VE .

¿Qué puede justificar esto? Una justificación puede ser dada considerando modelos. Es
muy fácil ver que se cumple {VD ↔ (¬VD ∧ ¬VE ), VD } |= (¬VD ∧ ¬VE ). Pero podemos pen-
sar en términos puramente sintácticos (por más que estemos apoyados en esa consideración
semántica), extrayendo una regla puramente sintáctica (solamente depende de la forma de
proposiciones previas en la secuencia) que servirá universalmente en las deducciones, y que
podemos expresar así:
si en una secuencia inferencial se tiene un bicondicional y uno de sus miembros,
se puede agregar el otro miembro a la secuencia.

Esto en realidad nos da dos reglas, que llamaremos Regla E↔ i y Regla E↔ d y represen-
taremos así:

Regla E↔ i Regla E↔ d
A↔B A↔B
B A
A B

Estas representaciones deben entenderse del siguiente modo: siempre que en una
secuencia inferencial se disponga de las fórmulas de la forma que se indican sobre la línea
horizontal (sin importar el orden en que aparecen o si hay fórmulas en el medio), se puede
agregar a la secuencia la fórmula que queda indicada bajo la línea. Son reglas puramente
sintácticas, solo atienden a la forma de las fórmulas en juego. La que acabamos de enunciar
142 Capítulo 7. Consecuencia sintáctica

nos basta como justificación, aunque en el caso de la inferencia que tenemos entre manos, se
debe recordar que lo que agregamos lo hacemos bajo el supuesto que introdujimos en el paso 2.
La secuencia tiene ahora este aspecto:

Fórmula Justificación Observaciones


1 VD ↔ (¬VD ∧ ¬VE ) Premisa
2 VD Supuesto
3 ¬VD ∧ ¬VE Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.

paso 4: La conjunción del paso 3 nos permite inferir cualquiera de sus conyuntos, y en
este caso inferimos ¬VD .

Nuevamente, consideraciones sobre modelos permiten justificar ese paso inferencial. Y


nuevamente, lo que surge es una regla puramente sintáctica, a saber:

si en una secuencia inferencial se tiene una conjunción, se puede agregar cual-


quiera de los conyuntos a la secuencia.

Esto también se desdobla en dos reglas, que llamaremos E∧ i y E∧ d:

Regla E∧ i Regla E∧ d
A∧B A∧B
A B

La aplicación de la regla justifica el paso, y seguimos trabajando bajo el supuesto


introducido:

Fórmula Justificación Observaciones


1 VD ↔ (¬VD ∧ ¬VE ) Premisa
2 VD Supuesto
3 ¬VD ∧ ¬VE Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.
4 ¬VD Regla E∧ i aplicada a 3 Bajo el supuesto de 2.

paso 5: Utilizando el supuesto del paso 2 y lo inferido en el paso 4, inferimos la


conjunción de ambas, en este caso VD ∧ ¬VD .

Parece de Perogrullo decir que se puede inferir la conjunción de proposiciones acep-


tadas o supuestas, ya que el respaldo semántico a esto es obvio. Así extraemos la regla
sintáctica:
en una secuencia inferencial se puede agregar la conjunción de dos elementos
previos.

que llamaremos I∧ y representaremos así:


7.1 Tras las huellas de los humanos 143

Regla I∧
A
B
A∧B

Nuestra secuencia va tomando este aspecto:

Fórmula Justificación Observaciones


1 VD ↔ (¬VD ∧ ¬VE ) Premisa
2 VD Supuesto
3 ¬VD ∧ ¬VE Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.
4 ¬VD Regla E∧ i aplicada a 3 Bajo el supuesto de 2.
5 VD ∧ ¬VD Regla I∧ aplicada a 2 y 4 Contradicción bajo el supuesto de 2.

paso 6: A partir de la subsecuencia que empieza en 2 (el supuesto VD ) y termina en 5


(una contradicción) inferimos la negación del supuesto, o sea ¬VD .

La justificación de este paso es delicada. El apoyo semántico que tiene, sin embargo, es
simple: Si el supuesto hecho fuese verdadero (en el marco dado por las otras proposiciones aceptadas),
entonces también lo sería la contradicción, porque hemos llegado a ella a través de reglas que
fueron elegidas de modo que mantienen la consecuencia semántica. Por lo tanto, dado que
las contradicciones no pueden ser verdaderas, el supuesto hecho tampoco puede serlo y
debe ser verdadera su negación, que es lo que afirmamos.
Debemos observar algunos puntos:

A diferencia de los otros pasos que hemos dado, este no se justifica por una o dos
líneas anteriores, ni por la inclusión en la secuencia de una nueva proposición como
premisa o supuesto. Se justifica por la existencia de una subsecuencia que comienza con el
supuesto y termina en una contradicción.
Recordemos que estamos buscando criterios sintácticos (esto es, únicamente basados
en la morfología de las fórmulas) que nos permitan representar la deducción. Pero
contradicción es un concepto semántico, según lo hemos definido: recordará el lector
que una contradicción es una fórmula que no tiene modelos. Debemos, por tanto,
establecer un criterio sintáctico de reconocimiento de contradicciones que nos permita
realizar pasos inferenciales como el que estamos comentando.

No podemos aceptar que cualquier contradicción –en sentido semántico– sea lo que
consideremos una contradicción en sentido sintáctico, porque las contradicciones no tienen
una forma característica o única. Por eso, elegiremos una de esas formas, una de las más
simples, para dar la siguiente
Definición 7.1.1 — Contradicción (en sentido sintáctico).
Una contradicción en sentido sintáctico es una fórmula de la forma B ∧ ¬B.
Esto nos lleva a postular la siguiente regla sintáctica:
144 Capítulo 7. Consecuencia sintáctica

en una secuencia inferencial, luego de una subsecuencia que comienza con una
fórmula introducida como supuesto y termina con una fórmula de la forma
B ∧ ¬B, se puede agregar la negación del supuesto que da inicio a la subsecuencia.

Esta regla será llamada I¬ , y la representaremos así:


Regla I¬
[A]
..
.
B ∧ ¬B
¬A
Algunas precisiones sobre esta representación:
Los paréntesis rectos que rodean la “A” están ahí para indicar que se trata de un
supuesto.
Los puntos verticales indican la parte de la subsecuencia que queda entre el supuesto y
la contradicción. Esta puede ser cualquiera, no hay restricciones a lo que allí se puede
encontrar excepto, por supuesto, que debe tratarse de una subsecuencia formada
respetando las reglas que estamos descubriendo y comentando.
La justificación del paso en que se agrega la negación del supuesto debe referir a la
regla I¬ y a la subsecuencia que comienza en el supuesto y termina en la contradicción. Si
tenemos las líneas numeradas, esto es muy fácil.
La secuencia quedará así, luego de aplicar este último paso:

Fórmula Justificación Observaciones


1 VD ↔ (¬VD ∧ ¬VE ) Premisa
2 VD Supuesto
3 ¬VD ∧ ¬VE Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.
4 ¬VD Regla E∧ i aplicada a 3 Bajo el supuesto de 2.
5 VD ∧ ¬VD Regla I∧ aplicada a 2 y 4 Contradicción bajo el supuesto de 2.
6 ¬VD Regla I¬ aplicada a 2-5 No depende del supuesto de 2.

Habíamos dicho que esta regla presenta muchas sutilezas, y por ello, antes de proseguir
con el siguiente paso, debemos detenernos a hacer algunas consideraciones.
La primera de ellas, que tal vez el lector ya se estará preguntando, es acerca de las
consecuencias de limitar la definición de contradicción sintáctica a fórmulas de la forma
B ∧ ¬B. Un cuestionamiento legítimo es el siguiente: Si se hace un supuesto, y se encuentra
una subsecuencia iniciada en él y terminada en una fórmula que es contradicción en sentido
semántico pero no en sentido sintáctico, ¿podemos agregar a la cadena la negación del
supuesto?
La respuesta es “No”, y la razón para ello ya ha sido dada: si así hiciéramos, el criterio
sería semántico, no sintáctico.
Se podría pensar entonces en ir agregando reglas de modo que cada vez que se identifi-
que una forma que sea la de una contradicción semántica, se cree una nueva regla que sea
7.1 Tras las huellas de los humanos 145

como la que tenemos, solo que aparezca la forma contradictoria identificada en lugar de
B ∧ ¬B. Por ejemplo, se podría agregar una regla así:

[A]
..
.
B ↔ ¬B
¬A
Se podría hacer eso, pero el resultado sería una proliferación de reglas que no vemos
como deseable. En realidad, nos quedaremos con esta regla que solo considera la forma
B ∧ ¬B y volveremos más adelante sobre el punto de las “reglas” que nos parezcan adecuadas
pero no introducimos.
Bajo esta piedra se esconde un enorme cangrejo: para que nuestro sistema funcione
como deseamos, es necesario lo siguiente (para capturar la forma de razonamiento que
estamos discutiendo): Las reglas deben ser tales que a partir de una contradicción en sentido
semántico cualquiera se debe poder construir una secuencia que finalice en una contradicción en
sentido sintáctico. Esto es así porque nuestro razonamiento era del tipo

[A]
..
.
κ
¬A
siendo κ una contradicción en sentido semántico. Por lo tanto, para que nuestro sistema de
reglas funcione adecuadamente es necesario que siempre podamos obtener una secuencia
del tipo

κ
..
.
B ∧ ¬B
de modo que tengamos algo así, recogiendo el razonamiento que nos permite llegar a la
negación de un supuesto bajo el que se produce una contradicción en sentido semántico:

n [A]
..
.
κ
..
.
m B ∧ ¬B
¬A Regla I¬ n-m

Esto que acabamos de exigir es una propiedad que debe tener nuestro sistema si
queremos que funcione adecuadamente. Hacia el final del curso veremos que este aspecto
está garantizado.
La segunda consideración que debemos hacer concierne a los pasos de la subsecuencia
que va desde el supuesto hasta la contradicción. ¿Podemos seguir usándolos para obtener
146 Capítulo 7. Consecuencia sintáctica

nuevas cosas? Si el lector reflexiona un poco, se percatará de que todos esos pasos estaban
afectados por el supuesto, y este no es una premisa, o sea, no es algo que podemos tomar
como dado para hacer el razonamiento. Sin embargo, la negación del supuesto no depende
de este. Por lo tanto, para seguir razonando con independencia del supuesto, debemos prescindir de
él y de todo lo que obtuvimos afectado por él. Y es lo que haremos. Diremos que la aplicación de
la regla I¬ cancela el supuesto que utiliza, y con eso queremos decir que no podemos seguir
usando ese supuesto ni lo obtenido en los pasos afectados por este. De ese modo, una mejor
representación de la secuencia que estamos generando sería:

Fórmula Justificación Observaciones


1 VD ↔ (¬VD ∧ ¬VE ) Premisa
2 VD Supuesto
3 ¬VD ∧ ¬VE Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.
4 ¬VD Regla E∧ i aplicada a 3 Bajo el supuesto de 2.
5 VD ∧ ¬VD Regla I∧ aplicada a 2 y 4 Contradicción bajo supuesto de 2.
6 ¬VD Regla I¬ aplicada a 2-5 No depende del supuesto de 2.

Hemos tachado lo que no podemos usar de aquí en más. De hecho, si quisiéramos


saber qué otras cosas se infieren bajo el supuesto VD , nada nos impide volver a introducirlo
posteriormente en la secuencia.
paso 7: Supongamos que Esfinge no fue escrito por Veratius, o sea, supongamos ¬VE .
En el paso anterior inferimos que Dragones no fue escrito por Veratius. Es natural,
por tanto, que guiemos la inferencia hacia la autoría de Esfinge. La de Dragones quedó
establecida haciendo un supuesto, por lo que, siguiendo el excelente consejo
Si con caldito va sanando
caldito seguile dando.2
intentaremos determinarla a través de la misma estrategia, o sea, haciendo un supuesto
esperando generar una contradicción. Esta vez será ¬VE . La secuencia inferencial queda así:

Fórmula Justificación Observaciones


1 VD ↔ (¬VD ∧ ¬VE ) Premisa
2 VD Supuesto
3 ¬VD ∧ ¬VE Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.
4 ¬VD Regla E∧ i aplicada a 3 Bajo el supuesto de 2.
5 VD ∧ ¬VD Regla I∧ aplicada a 2 y 4 Contradicción bajo supuesto de 2.
6 ¬VD Regla I¬ aplicada a 2-5 No depende del supuesto de 2.
7 ¬VE Supuesto
2 El
refrán, que obviamente significa que las estrategias o procedimientos exitosos se deben repetir, fue
escuchado por el autor innumerables veces jugando al ajedrez con gente de edad provecta, que ya no se
encuentra entre nosotros. Al hacer una búsqueda en Google se encuentra que ese inmenso repositorio de
información no lo recupera, aunque sí dos variantes, una mexicana “Si con atolito va sanando, atolito vámosle
dando.”, y otra de la que no registra la procedencia, “Si con caldo de gallina va sanando, caldo de gallina
váyanle dando”.
7.1 Tras las huellas de los humanos 147

paso 8: De lo inferido en el paso 6 y lo supuesto en el 7, inferimos la conjunción de


ambos, ¬VD ∧ ¬VE .

Por supuesto, la justificación es la regla I∧ y la secuencia queda así:

Fórmula Justificación Observaciones


1 VD ↔ (¬VD ∧ ¬VE ) Premisa
2 VD Supuesto
3 ¬VD ∧ ¬VE Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.
4 ¬VD Regla E∧ i aplicada a 3 Bajo el supuesto de 2.
5 VD ∧ ¬VD Regla I∧ aplicada a 2 y 4 Contradicción bajo supuesto de 2.
6 ¬VD Regla I¬ aplicada a 2-5 No depende del supuesto de 2.
7 ¬VE Supuesto
8 ¬VD ∧ ¬VE Regla I∧ aplicada a 6 y 7 Bajo el supuesto de 7.

paso 9: De lo inferido en el paso 8 y el bicondicional de la premisa, inferimos VD .

Esta vez la justificación es, como el lector ya habrá previsto, la regla E↔ i. La secuencia
toma este aspecto:

Fórmula Justificación Observaciones


1 VD ↔ (¬VD ∧ ¬VE ) Premisa
2 VD Supuesto
3 ¬VD ∧ ¬VE Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.
4 ¬VD Regla E∧ i aplicada a 3 Bajo el supuesto de 2.
5 VD ∧ ¬VD Regla I∧ aplicada a 2 y 4 Contradicción bajo supuesto de 2.
6 ¬VD Regla I¬ aplicada a 2-5 No depende del supuesto de 2.
7 ¬VE Supuesto
8 ¬VD ∧ ¬VE Regla I∧ aplicada a 6 y 7 Bajo el supuesto de 7.
9 VD Regla E↔ i aplicada a 1 y 8 Bajo el supuesto de 7.

paso 10: De lo inferido en el paso 9 y en el 6, inferimos VD ∧ ¬VD .

La justificación es la regla I∧ aplicada a los elementos que se encuentran en sexto


y noveno lugar. Es natural hacer esta inferencia porque era lo que buscábamos al hacer
el supuesto del paso 7: llegar a una contradicción en sentido sintáctico que nos permita
deshacernos del supuesto. El aspecto de la secuencia es:
148 Capítulo 7. Consecuencia sintáctica

Fórmula Justificación Observaciones


1 VD ↔ (¬VD ∧ ¬VE ) Premisa
2 VD Supuesto
3 ¬VD ∧ ¬VE Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.
4 ¬VD Regla E∧ i aplicada a 3 Bajo el supuesto de 2.
5 VD ∧ ¬VD Regla I∧ aplicada a 2 y 4 Contradicción bajo supuesto de 2.
6 ¬VD Regla I¬ aplicada a 2-5 No depende del supuesto de 2.
7 ¬VE Supuesto
8 ¬VD ∧ ¬VE Regla I∧ aplicada a 6 y 7 Bajo el supuesto de 7.
9 VD Regla E↔ i aplicada a 1 y 8 Bajo el supuesto de 7.
10 VD ∧ ¬VD Regla I∧ aplicada a 9 y 6 Contradicción bajo el supuesto de 7.

paso 11: De lo subsecuencia que comienza con el supuesto del paso 7 y termina en la
contradicción del paso 10 inferimos la negación del supuesto, o sea ¬¬VE .

La justificación, a esta altura, no requiere mayores comentarios: es la regla I¬ aplicada


a la subsecuencia que va del paso 7 al 10. Pero hay algo a lo que es importante prestar
mucha atención. Si estamos muy imbuidos del aspecto representacional de los signos que
utilizamos, puede ser que caigamos en la tentación de razonar así en este paso:

He logrado inferir la negación del supuesto ¬VE , o sea, la negación de la negación


de que Esfinge fue escrita por Veratius. La negación de ’Esfinge no fue escrita
por Veratius’ es ’Esfinge fue escrita por Veratius’, o sea, lo que debo agregar a la
secuencia es VE .

Esto es un error para nuestros propósitos, y la razón es que se trata de una forma
netamente semántica de razonar, que viola la regla sintáctica que nos hemos impuesto. Si
hacemos un supuesto y llegamos a una contradicción, lo único que la regla I¬ nos permite
hacer es agregar a la secuencia el supuesto precedido por ¬. Ninguna otra cosa.
Recordemos además, que la utilización de la regla cancela el supuesto, por lo que la
secuencia queda así:

Fórmula Justificación Observaciones


1 VD ↔ (¬VD ∧ ¬VE ) Premisa
2 VD Supuesto
3 ¬VD ∧ ¬VE Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.
4 ¬VD Regla E∧ i aplicada a 3 Bajo el supuesto de 2.
5 VD ∧ ¬VD Regla I∧ aplicada a 2 y 4 Contradicción bajo supuesto de 2.
6 ¬VD Regla I¬ aplicada a 2-5 No depende del supuesto de 2.
7 ¬VE Supuesto
8 ¬VD ∧ ¬VE Regla I∧ aplicada a 6 y 7 Bajo el supuesto de 7.
9 VD Regla E↔ i aplicada a 1 y 8 Bajo el supuesto de 7.
10 VD ∧ ¬VD Regla I∧ aplicada a 9 y 6 Contradicción bajo el supuesto de 7.
11 ¬¬VE Regla I¬ aplicada a 7-10 No depende del supuesto de 7.

paso 12: De ¬¬VE , inferida en el paso anterior, inferimos VE .


7.1 Tras las huellas de los humanos 149

La justificación semántica es obvia: el valor de verdad de la negación de la negación de


una proposición es el mismo que el de la proposición que está siendo doblemente negada,
por lo que de la primera podemos inferir la segunda3 . Entonces

si un elemento de una secuencia inferencial es la negación de la negación de


una fórmula, se puede agregar esa fórmula a la secuencia.

Esto requiere una nueva regla sintáctica que llamaremos E¬ y representaremos de este
modo:

Regla E¬
¬¬A
A

Luego de aplicarla, la secuencia llega al siguiente estadio, en el que ya se avizora la


conclusión.

Fórmula Justificación Observaciones


1 VD ↔ (¬VD ∧ ¬VE ) Premisa
2 VD Supuesto
3 ¬VD ∧ ¬VE Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.
4 ¬VD Regla E∧ i aplicada a 3 Bajo el supuesto de 2.
5 VD ∧ ¬VD Regla I∧ aplicada a 2 y 4 Contradicción bajo supuesto de 2.
6 ¬VD Regla I¬ aplicada a 2-5 No depende del supuesto de 2.
7 ¬VE Supuesto
8 ¬VD ∧ ¬VE Regla I∧ aplicada a 6 y 7 Bajo el supuesto de 7.
9 VD Regla E↔ i aplicada a 1 y 8 Bajo el supuesto de 7.
10 VD ∧ ¬VD Regla I∧ aplicada a 9 y 6 Contradicción bajo el supuesto de 7.
11 ¬¬VE Regla I¬ aplicada a 7-10 No depende del supuesto de 7.
12 VE Regla E¬ aplicada a 11

paso 13: De ¬VD , inferida en el paso 6, y VE , inferida en el paso anterior, inferimos la


conjunción de ambas, (¬VD ∧ VE ).

Por supuesto, la justificación es la regla I∧ aplicada a 6 y 12. Y con esto hemos terminado
nuestro breve razonamiento. La secuencia inferencial es esta:
3 Observe la austeridad que nos imponemos en cuanto a la aceptación de reglas. Por lo dicho, podríamos
admitir una regla que nos permita obtener, a partir de una fórmula, su doble negación. Pero no lo haremos,
no es necesario. El lector puede ver que siempre podemos obtener la doble negación de una fórmula que se
encuentra en la secuencia sin introducir esa regla: si parte de una fórmula A, puede suponer ¬A, obtener
A ∧ ¬A por I∧ , y de allí ¬¬A por I¬ . Intentaremos darnos un conjunto de reglas que basten para formalizar
las deducciones que hacemos en términos proposicionales, y que a la vez sea económico, en el sentido de que
no tenga reglas cuyos efectos se puedan lograr prescindiendo de ellas.
150 Capítulo 7. Consecuencia sintáctica

Fórmula Justificación Observaciones


1 VD ↔ (¬VD ∧ ¬VE ) Premisa
2 VD Supuesto
3 ¬VD ∧ ¬VE Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.
4 ¬VD Regla E∧ i aplicada a 3 Bajo el supuesto de 2.
5 VD ∧ ¬VD Regla I∧ aplicada a 2 y 4 Contradicción bajo supuesto de 2.
6 ¬VD Regla I¬ aplicada a 2-5 No depende del supuesto de 2.
7 ¬VE Supuesto
8 ¬VD ∧ ¬VE Regla I∧ aplicada a 6 y 7 Bajo el supuesto de 7.
9 VD Regla E↔ i aplicada a 1 y 8 Bajo el supuesto de 7.
10 VD ∧ ¬VD Regla I∧ aplicada a 9 y 6 Contradicción bajo el supuesto de 7.
11 ¬¬VE Regla I¬ aplicada a 7-10 No depende del supuesto de 7.
12 VE Regla E¬ aplicada a 11
13 ¬VD ∧ VE Regla I∧ aplicada a 6 y 12 ¡Fin!

Observe el lector que la cantidad de elementos en la secuencia aumentó con respecto a


la cantidad de pasos que habíamos considerado al expresar el razonamiento en lenguaje
natural. Es un claro efecto amplificador del microscopio de Frege.

¿Qué nos falta?


Repasemos las reglas que hemos extraído a partir de reflexionar sobre nuestro modo de
pensar para llegar a la solución del problema anterior. Son las siguientes:
Regla E↔ i Regla E↔ d
A↔B A↔B
B A
A B

Regla E∧ i Regla E∧ d Regla I∧


A∧B A∧B A
A B B
A∧B

Regla E¬ Regla I¬
¬¬A [A]
..
A .
B ∧ ¬B
¬A
Estas fueron todas las reglas que consideramos necesarias al resolver el problema.
Refieren al bicondicional, a la conjunción y a la negación. Es muy claro que hay una
7.1 Tras las huellas de los humanos 151

insuficiencia aquí, desearíamos tener reglas concernientes a todos los conectivos, y no


tenemos nada relativo al condicional ni a la disyunción. Pero además, en lo que tenemos
hasta ahora, hay una evidente asimetría. Observe el lector los nombres de las reglas. Todos
empiezan con la letra “E” o con la letra “I” que se subindiza con el conectivo correspondiente.
Las reglas cuyo nombre comienza con “E” presentan, en su esquema, el conectivo sobre
la barra y no bajo ella. La “E” se elige para nombrarlas porque esas reglas se llaman reglas
de eliminación. Así, la regla E¬ se llama “Regla de eliminación de la negación". Esas reglas
pretenden mostrar lo que se puede inferir a partir de una proposición que tiene el conectivo
referido como principal. La “i” de E∧ i quiere decir “izquierda” (porque se elimina la
conjunción quedándose con el conyunto izquierdo). La interpretación en los demás nombres
de las reglas es similar, siendo obviamente “d” un recordatorio de “derecha” (en general, al
justificar pasos, no distinguiremos entre derecha e izquierda. El contexto hará obvio cuál de
ambas “versiones” de la regla se usa).
Por su parte, las reglas cuyo nombre comienza con “I” se llaman reglas de introducción.
En su esquema, el conectivo referido aparece bajo la barra y no sobre ella. Estas reglas
pretenden mostrar a partir de qué, en cuáles condiciones se puede inferir una proposición
que tenga ese conectivo como principal.
De lo dicho surge que deberíamos buscar reglas que serán llamadas E→ , I→ , E∨ , I∨ y
I↔ .
Hagámoslo a partir de otro de los problemas de la biblioteca. Comencemos con el
condicional, para lo cual volveremos a un muy discutido acertijo:
En el primer folio de Hades se lee: “Si Hades es obra de Veratius entonces Infierno
es obra de Veratius”. ¿Quiénes son los autores de estas obras?
Planteemos el razonamiento que hicimos nuevamente, valiéndonos del lenguaje natural.

Paso Contenido Justificación

1 Aceptamos que Hades fue escrito Por las reglas de la biblioteca y lo


por Veratius si y solo si, si Hades escrito en el primer folio de Hades.
fue escrito por Veratius, entonces
Infierno fue escrito por Veratius.
2 Suponemos que Hades fue escrito Esperamos llegar, bajo ese supues-
por Veratius. to, a que Infierno fue escrito por
Veratius o a que Infierno no fue es-
crito por Veratius. En el primer caso,
aceptaríamos “Si Hades fue escrito
por Veratius, Infierno también” y
en el segundo aceptaríamos la ne-
gación de lo entrecomillado.
3 Aceptamos, bajo el supuesto hecho, Por 1 y 2.
que si Hades fue escrito por Vera-
tius, entonces Infierno fue escrito
por Veratius.
152 Capítulo 7. Consecuencia sintáctica

4 Aceptamos, bajo el supuesto, que Por 2 y 4.


Infierno fue escrito por Veratius.
5 Aceptamos que si Hades fue escrito Porque mostramos que bajo el su-
por Veratius, Infierno fue escrito por puesto de que Hades fue escrito por
Veratius. Veratius, se sigue que infierno tam-
bién lo fue, en la sucesión que va
del paso 2 al 4.
6 Aceptamos que Hades fue escrito Por 1 y 5.
por Veratius.
7 Aceptamos que Infierno fue escrito Por 5 y 6.
por Veratius.
8 Aceptamos que Hades fue escrito Por 6 y 7.
por Veratius e Infierno fue escrito
por Veratius.

Fácilmente podemos empezar a hacer la secuencia correspondiente:

Fórmula Justificación Observaciones


1 VH ↔ (VH → VI ) Premisa
2 VH Supuesto
3 VH → VI Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.

En este momento es claro cómo continuar, a partir de las líneas 2 y 3. En una de ellas
se encuentra un condicional; en la otra, el antecedente de ese condicional. Consideraciones
semánticas obvias nos permiten sostener esta regla:
en una secuencia inferencial en la que figuran un condicional y el antecedente
de ese condicional se puede agregar el consecuente de ese condicional.

Esa regla es, por supuesto, E→ , y la representaremos así:

Regla E→
A
A→B
B

La secuencia queda, aplicando esta regla (también llamada modus ponens4 ):

4 Modo de afirmar, en latín. Hay gente lo suficientemente pedante como para llamarla modus ponendo ponens

(modo de afirmar afirmando), pero es muy escasa.


7.1 Tras las huellas de los humanos 153

Fórmula Justificación Observaciones


1 VH ↔ (VH → VI ) Premisa
2 VH Supuesto
3 VH → VI Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.
4 VI Regla E→ aplicada a 2 y 3 Bajo el supuesto de 2.

Ahora consideremos un problema absolutamente general, que nos servirá para dar el
siguiente paso. Recordemos que si suponemos A y bajo ese supuesto llegamos a inferir una
contradicción, entonces podemos inferir la negación de A. Eso es lo que recoge la regla I¬ .
Pero consideremos el caso más general, en el cual, a partir de un supuesto A, llegamos a
inferir B. ¿Qué se puede inferir de allí?
Una ligera reflexión indica que desde el punto de vista semántico, estamos afirmando
que siendo A verdadero, B también lo será. Es muy claro que el conectivo que establece
esa relación entre A y B es el condicional. Por lo tanto, podemos extraer la siguiente
regla:
en una secuencia inferencial, luego de una subsecuencia que comienza con una
fórmula introducida como supuesto y termina con una fórmula cualquiera B, se
puede agregar el condicional cuyo antecedente es el supuesto que da inicio a la
subsecuencia y su consecuente es la fórmula B.

Esta regla es I→ y la representamos así:

Regla I→
[A]
..
.
B
A→B

Por consideraciones idénticas a las hechas al presentar la regla I¬ , esta regla también
cancela el supuesto que utiliza, y al usarla para justificar un paso, debe referirse a la
subsecuencia utilizada.
La secuencia inferencial queda así:

Fórmula Justificación Observaciones


1 VH ↔ (VH → VI ) Premisa
2 VH Supuesto
3 VH → VI Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.
4 VI Regla E→ aplicada a 2 y 3 Bajo el supuesto de 2.
5 VH → VI Regla I→ 2-4 No depende del supuesto de 2.

A partir de aquí, podemos completar la secuencia inferencial sin utilizar ninguna regla
desconocida por nosotros:
154 Capítulo 7. Consecuencia sintáctica

Fórmula Justificación Observaciones


1 VH ↔ (VH → VI ) Premisa
2 VH Supuesto
3 VH → VI Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2.
4 VI Regla E→ aplicada a 2 y 3 Bajo el supuesto de 2.
5 VH → VI Regla I→ 2-4 No depende del supuesto de 2.
6 VH Regla E↔ i aplicada a 1 y 5
7 VI Regla E→ i aplicada a 5 y 6
8 VH ∧ VI Regla I∧ aplicada a 6 y 7

Al razonar sobre este problema hemos establecido dos de las reglas que nos faltaban, las
que conciernen al condicional. Las usaremos para hallar la regla que nos falta concerniente al
bicondicional, I↔ . Como la regla recibirá una justificación semántica, estamos en condiciones
de apoyarnos en la noción de equivalencia para hallarla.
Sabemos que

A ↔ B ≡ (A → B) ∧ (B → A)

Pues bien, ¿bajo qué condiciones se puede introducir en una secuencia inferencial
(A → B) ∧ (B → A)?
La respuesta es muy simple, recordando la regla I∧ , deberíamos tener una secuencia así:

Justificación
.. .. ..
. . .
m A→B
.. .. ..
. . .
n B→A
.. .. ..
. . .
r (A → B) ∧ (B → A) Regla I∧ m, n

Por lo tanto, podemos establecer la regla I↔ (aunque sabemos cómo introducir los
condicionales, no seguiremos el análisis más allá):

en una secuencia inferencial, si dos elementos son condicionales recíprocos, se


puede agregar el bicondicional cuyos miembros son el antecedente y el conse-
cuente de uno de esos condicionales.

Su representación es:

Regla I↔
A→B
B→A
A↔B
7.1 Tras las huellas de los humanos 155

Solo nos resta encontrar las reglas de eliminación e introducción de la disyunción.


El problema de la biblioteca basado en ese conectivo presenta ciertas complejidades,
de modo que nuestro plan no será plantearlo y extraer las reglas buscadas a partir de su
resolución, como hemos hecho hasta ahora. En lugar de eso, plantearemos una situación
mucho más simple de la cual extraeremos las reglas. El lector será invitado más adelante a
presentar una secuencia que lleve a la solución del problema de la biblioteca cuya clave es la
disyunción.
Consideremos las siguientes proposiciones:
Llueve.
Si llueve o truena, entonces el gato no quiere salir o el perro se asusta.5
Si el gato no quiere salir, se esconde.
Si el perro se asusta, debo atender a los animales.
Si el gato se esconde, debo atender a los animales.
Queremos justificar que la proposición Debo atender a los animales se deduce de las que
hemos dado. Como otras veces, hagamos un razonamiento en lenguaje natural, en el que
comenzaremos poniendo al principio todas las premisas:

Paso Contenido Justificación


1 Aceptamos que llueve. Es premisa.
2 Aceptamos que si llueve o truena, Es premisa.
entonces o bien el gato no quiere
salir o bien el perro se asusta.
3 Aceptamos que si el gato no quiere Es premisa.
salir, se esconde.
4 Aceptamos que si el perro se asusta, Es premisa.
debo atender a los animales.
5 Aceptamos que si el gato se escon- Es premisa.
de, debo atender a los animales.
6 Aceptamos que llueve o truena. Por 1.
7 Aceptamos que el gato no quiere Por 2 y 6.
salir o el perro se asusta.
8 Suponemos que el gato no quiere Suponemos uno de los disyuntos
salir. de 7. La estrategia se basa en que
si de él extraemos una consecuen-
cia, y esa misma consecuencia se
extrae de suponer el otro disyunto,
esa consecuencia es de la disyun-
ción.
9 Aceptamos que el gato se esconde Por 3 y 8.
(bajo supuesto de 8).

5 Este enunciado debe entenderse como un condicional.


156 Capítulo 7. Consecuencia sintáctica

10 Aceptamos que debo atender a los Por 5 y 9.


animales (bajo supuesto de 8).
11 Suponemos que el perro se asusta. Suponemos el otro disyunto, pero
no bajo el anterior supuesto sino en
forma independiente, es decir debe-
mos llegar a lo mismo que nos per-
mitió inferir el supuesto anterior sin
utilizarlo, y así habremos extraído
una consecuencia de la disyunción
de 7.
12 Aceptamos que debo atender a los Por 11 y 4.
animales (bajo el supuesto de 11).
13 Aceptamos que debo atender a los Porque habíamos establecido que
animales. el gato no quiere salir o el perro
se asusta (en 7). De que el gato no
quiere salir surge que debo atender
a los animales (8-10) y de que el pe-
rro se asusta surge que debo tender
a los animales (11-12). Por lo tanto,
debo atender a los animales.

Intentemos ahora construir una secuencia inferencial valiéndonos de los elementos


que nos da la lógica proposicional, aunque no usaremos el lenguaje formal para favorecer
la legibilidad. Como en el caso de los acertijos de la biblioteca, utilizaremos letras que
funcionarán como letras proposicionales. Las elegiremos de modo que nos ayuden a recordar
su dimensión representacional.
Sea entonces:

l: Llueve.

t: Truena.

g: El gato no quiere salir.

p: El perro se asusta.

e: El gato se esconde.

a: Debo atender a los animales.

Comencemos a construir la secuencia inferencial en el lenguaje semiformalizado que


nos hemos permitido:
7.1 Tras las huellas de los humanos 157

Fórmula Justificación Observaciones


1 l Premisa
2 (l ∨ t) → (g ∨ p) Premisa
3 g→e Premisa
4 p→a Premisa
5 e→a Premisa

El siguiente paso consiste en inferir l ∨ t a partir de l. Es muy claro que la semántica


respalda que

a una secuencia inferencial, se le puede agregar la disyunción de uno de sus


elementos con una fórmula cualquiera.

La regla que estamos encontrando es I∨ , cuya representación se desdobla en dos:

Regla I∨ i Regla I∨ d
A A
B∨A A∨B

La secuencia inferencial queda:

Fórmula Justificación Observaciones


1 l Premisa
2 (l ∨ t) → (g ∨ p) Premisa
3 g→e Premisa
4 p→a Premisa
5 e→a Premisa
6 l∨t Regla I∨ d aplicada a 1

El siguiente paso no requiere comentarios:

Fórmula Justificación Observaciones


1 l Premisa
2 (l ∨ t) → (g ∨ p) Premisa
3 g→e Premisa
4 p→a Premisa
5 e→a Premisa
6 l∨t Regla I∨ d, 1
7 g∨p Regla E→ 2, 6

Hemos inferido una disyunción. Comienza el trabajo de eliminarla. Lo primero que


debemos hacer es suponer uno de sus disyuntos. Lo hacemos hasta obtener, bajo ese
supuesto, la fórmula buscada, que en este caso es a.
158 Capítulo 7. Consecuencia sintáctica

Fórmula Justificación Observaciones


1 l Premisa
2 (l ∨ t) → (g ∨ p) Premisa
3 g→e Premisa
4 p→a Premisa
5 e→a Premisa
6 l∨t Regla I∨ d, 1
7 g∨p Regla E→ 2, 6
8 [g] Supuesto
9 e Regla E→ 3, 8 Bajo el supuesto de 8.
10 a ReglaE→ 5, 9 Bajo el supuesto de 8.

Hemos conseguido inferir a suponiendo el primer disyunto de 7. Si logramos lo mismo


a partir de suponer el segundo disyunto, estaremos habilitados a inferir a. El supuesto de
8 ya no se puede seguir usando para llevar adelante esta estrategia inferencial. Pero aun
no concluimos nada, de modo que tacharemos lo que no podemos seguir usando a la vez
que remarcaremos lo que necesitaremos para efectuar la inferencia final: que teníamos una
disyunción, supusimos uno de sus disyuntos e inferimos a

Fórmula Justificación Observaciones


1 l Premisa
2 (l ∨ t) → (g ∨ p) Premisa
3 g→e Premisa
4 p→a Premisa
5 e→a Premisa
6 l∨t Regla I∨ d, 1
7 g∨p Regla E→ 2, 6 Disyunción a eliminar.
8 [g] Supuesto Uno de los disyuntos.
9 e Regla E→ 3, 8 Bajo el supuesto de 8.
10 a ReglaE→ 5, 9 Bajo el supuesto de 8 (fórmula buscada).

Procedemos suponiendo el otro disyunto, hasta inferir a

Fórmula Justificación Observaciones


1 l Premisa
2 (l ∨ t) → (g ∨ p) Premisa
3 g→e Premisa
4 p→a Premisa
5 e→a Premisa
6 l∨t Regla I∨ d, 1
7 g∨p Regla E→ 2, 6 Disyunción a eliminar.
8 [g] Supuesto Uno de los disyuntos.
9 e Regla E→ 3, 8 Bajo el supuesto de 8.
7.1 Tras las huellas de los humanos 159

10 a ReglaE→ 5, 9 Bajo el supuesto de 8 (fórmula buscada).


11 [p] Supuesto El disyunto restante.
12 a Regla E→ 4,11 Bajo el supuesto de 11 (fórmula buscada).

Y el último paso de la secuencia inferencial es deducir a. ¿Qué regla lo permite?


Podemos deducir a porque habíamos establecido una disyunción, y a es consecuencia de
sus dos disyuntos (junto con las otras proposiciones aceptadas). El principio que aplicamos
en general se recoge así:

si en una secuencia inferencial un elemento es una disyunción y hay dos subse-


cuencias posteriores a ella tales que:

una de las dos subsecuencias se inicia con uno de los disyuntos como su-
puesto y la otra subsecuencia se inicia con el otro disyunto como supuesto.
no se solapan ni se justifican elementos en cualquiera de ellas por elemen-
tos en la otra.
La fórmula final de ambas es la misma.

entonces se puede agregar a la secuencia la fórmula final de ambas.

El respaldo semántico se puede ver de varias maneras, pero preferimos que el lector lo
vea a través recordar que una subsecuencia comenzada en un supuesto y terminada en una
fórmula cualquiera permite aplicar la regla I→ , que ya estaba justificada semánticamente, y
de considerar que se cumple

{A ∨ B, A → C, B → C} |= C

La regla es E∨ , y la representamos así:

Regla E∨
A∨B
[A]
..
.
C
[B]
..
.
C
C

Al aplicarla se debe cancelar los supuestos que usa. La justificación debe referir a la
disyunción eliminada y a las dos subsecuencias utilizadas. La secuencia inferencial queda,
finalmente:
160 Capítulo 7. Consecuencia sintáctica

Fórmula Justificación Observaciones


1 l Premisa
2 (l ∨ t) → (g ∨ p) Premisa
3 g→e Premisa
4 p→a Premisa
5 e→a Premisa
6 l∨t Regla I∨ d, 1
7 g∨p Regla E→ 2, 6 Disyunción a eliminar.
8 [g] Supuesto Uno de los disyuntos.
9 e Regla E→ 3, 8 Bajo el supuesto de 8.
10 a ReglaE→ 5, 9 Bajo el supuesto de 8 (fórmula buscada).
11 [p] Supuesto El disyunto restante.
12 a Regla E→ 4,11 Bajo el supuesto de 11 (fórmula buscada).
13 a Regla E∨ ,7, 8-10, 11-12

De este modo hemos terminado de presentar un conjunto de reglas con las que esperamos
poder dar cuenta de las deducciones en el marco de la lógica proposicional.

7.2 El sistema de deducción natural para LP


En la extensa sección anterior presentamos un conjunto de reglas sintácticas que, en
general, nos permiten obtener fórmulas a partir de conjuntos de fórmulas y mostramos
reunidas en la página siguiente.
Estas reglas pertenecen a un aparato o sistema deductivo llamado deducción natural, o mejor
dicho, configuran un sistema de deducción natural (hay diferentes sistemas, no en todos
las reglas son las mismas). Su nombre proviene de que es “natural” en el sentido de que
las reglas pretenden hacer mímesis de los pasos que uno puede reconocer en multitud de
razonamientos en diferentes situaciones6 .
El sistema se aplica, aunque no lo hemos hecho aun, sobre el lenguaje formal LP sin
modificaciones, excepto las notacionales, y permite, dado un conjunto de fórmulas, obtener
otras fórmulas. Esto ya lo hemos hecho, a partir de las fórmulas que hemos introducido en
las secuencias como premisas, hemos obtenido otras fórmulas. El procedimiento es construir
la secuencia a partir de las fórmulas dadas introduciéndolas como premisas, extendiéndola
mediante la introducción de supuestos o de la aplicación de reglas a fórmulas que ya
aparezcan en la secuencia, y considerar la fórmula final de la secuencia como obtenida a
partir de las fórmulas dadas, siempre que la secuencia obtenida cumpla ciertas condiciones.
Esto es la contrapartida formal de nuestras deducciones, como veremos.
6 Por extraño que parezca, los sistemas de deducción natural aparecieron relativamente tarde en la historia de
la lógica. Fueron desarrollados en forma independiente por Gentzen y Jaśkowski en 1934. Hasta ese momento,
los sistemas deductivos de que se disponía se apartaban mucho de la dinámica de los razonamientos comunes, y
esta fue la motivación para desarrollar los de deducción natural. En palabras de Gentzen: “Mi punto de partida
fue el siguiente: La formalización de la deducción lógica, especialmente como ha sido desarrollada por Frege,
Russell y Hilbert, está bastante alejada de las formas de deducción que se utilizan en la práctica demostrativa
matemática. Esto tiene considerables ventajas formales. Por contraste, intenté ante todo establecer un sistema
formal que se acercase lo más posible a los razonamientos que efectivamente se hacen . . . ” [Gen69]
7.2 El sistema de deducción natural para LP 161

reglas del sistema de deducción natural para LP

Regla E↔ i Regla E↔ d Regla I↔


A↔B A↔B A→B
B A B→A
A B A↔B

Regla E∧ i Regla E∧ d Regla I∧


A∧B A∧B A
A B B
A∧B

Regla E¬ Regla I¬
¬¬A [A]
..
A .
B ∧ ¬B
¬A

Regla E→ Regla I→
A→B [A]
..
A .
B B
A→B

Regla E∨ Regla I∨ d Regla I∨ i


A∨B A A
[A] B∨A A∨B
..
.
C
[B]
..
.
C
C

Las presentaciones de las secuencias se harán en un formato estandarizado, que se llama


diagramas de Fitch7 . Para explicar la forma de disponer la información en los diagramas de
Fitch, traeremos a cuento la primera secuencia que construimos en la subsección 7.1, en la

7 Por el lógico Fredric Brenton Fitch, quien lo inventó y es famoso por la llamada paradoja de la cognoscibilidad.
162 Capítulo 7. Consecuencia sintáctica

que partiendo de la fórmula VD ↔ (¬VD ∧ ¬VE ) llegábamos a (¬VD ∧ VE ). Presentada en


diagrama de Fitch y poniendo, para ser más formal, p1 por VD y p2 por VE , quedaría:

1 (p1 ↔ (¬p1 ∧ ¬p2 ))

2 p1

3 (¬p1 ∧ ¬p2 ) E↔ d, 1, 2

4 ¬p1 E∧ i, 3

5 (p1 ∧ ¬p1 ) I∧ , 2, 4

6 ¬p1 I¬ , 2–5

7 ¬p2

8 (¬p1 ∧ ¬p2 ) I∧ , 6, 7

9 p1 E↔ i, 1, 8

10 (p1 ∧ ¬p1 ) I∧ , 9, 6

11 ¬¬p2 I¬ , 7–10

12 p2 E¬ , 11

13 (¬p1 ∧ p2 ) I∧ , 6, 12

Como vemos, los diagramas de Fitch tienen estas características:


A su izquierda tienen una barra vertical que va de principio a fin. Las fórmulas
contiguas a esta barra no dependen de supuestos, las que tienen dos barras a su
izquierda están bajo un supuesto, las que tienen tres están bajo dos supuestos, etc.
Se colocan las premisas al principio de la secuencia, y quedan todas sobre una misma
barra horizontal. No es necesario indicar que se trata de premisas, ya que su posición
en la parte superior sobre la primera barra horizontal, y contiguas a la barra de la
extrema izquierda así lo indica.
Cada supuesto aparece indentado8 y con una barra vertical que se extiende de modo
de quedar a la altura de las fórmulas obtenidas bajo ese supuesto. Por eso, tampoco
es necesario indicar que se trata de un supuesto ni escribir que tal fórmula se ha
agregado a la secuencia bajo ese supuesto.
Las únicas justificaciones requeridas son las de fórmulas obtenidas por aplicación de
las reglas, ya que el aspecto gráfico indica el resto.
 Ejemplo 7.1 — Supuesto bajo otro supuesto. El lector solo debe verificar que la secuencia
siguiente está correctamente construida. Se trata de probar que tomando como premisa la
8 No busque el lector esta palabra en los diccionarios de la RAE, no la encontrará. Es un anglicismo. La

academia recomienda “con sangrado” (refiere a la sangría, el desplazamiento del texto a la derecha), pero aparte
de ser una recomendación desagradable, en este contexto, “indentado” es de uso común.
7.2 El sistema de deducción natural para LP 163

fórmula (p1 → p2 ) se obtiene la fórmula ((p2 → p3 ) → (p1 → p3 )):

1 (p1 → p2 )

2 (p2 → p3 )

3 p1

4 p2 E→ , 1, 3

5 p3 E→ , 2, 4

6 (p1 → p3 ) I→ , 3–5

7 ((p2 → p3 ) → (p1 → p3 )) I→ , 2–6

Se ve claramente que la única premisa se encuentra en la línea 1 (debido a que es la


única fórmula que se encuentra sobre la primera barra horizontal y contigua a la barra de la
extrema izquierda), que el primer supuesto está en la línea 2 (es lo que se encuentra sobre
una barra horizontal que no es la que indica las premisas) y abre una subsecuencia que de
él depende y se extiende hasta la 6 (porque la barra vertical que empieza en 2 llega hasta la
línea 6, indicando que todas esas fórmulas están bajo el supuesto), que el segundo supuesto
está en la línea 3 y abre una subsecuencia dependiente de él que se extiende hasta la 5, y
que la fórmula final no se encuentra bajo supuesto alguno, es decir, todos los supuestos han
sido cancelados.
Vamos a proponer estas sucesiones de fórmulas como correlato formal de las deducciones.
Para ello, debemos precisar cuáles sucesiones de fórmulas tienen las características necesarias
para ese propósito.
Intuitivamente, es claro que si partimos de un conjunto de proposiciones, a las que
tomamos como premisas, y hacemos una deducción, o sea, vamos generando una sucesión
de proposiciones hasta llegar a una conclusión, esa sucesión debe cumplir condiciones
bastante estrictas. Es decir, cada una de las proposiciones que la constituye debe tener
alguna relación con el conjunto de partida o con el resto de las proposiciones de la secuencia.
En principio, podemos distinguir tres clases de proposiciones en la secuencia, según lo que
hemos examinado:

Las que pertenecen al conjunto (o sea, las premisas).


Los supuestos.
Las que son el resultado de aplicar alguna de las reglas a proposiciones o subsecuencias
de proposiciones anteriores en la misma secuencia.

y esto agota todas las posibilidades, en una deducción no pueden aparecer proposiciones
que no caigan bajo alguna de estas categorías.
El problema que enfrentamos es que desde un punto de vista intuitivo es muy claro que
una secuencia con supuestos abiertos (no cancelados) no puede ser una deducción a partir
del conjunto dado. Si en una secuencia no se cancela un supuesto, la proposición final es
dependiente de ese supuesto, que en principio puede ser arbitrario.
164 Capítulo 7. Consecuencia sintáctica

Por lo tanto, tenemos que distinguir las sucesiones que no tienen supuestos abiertos de
aquellas que sí los tienen. Consideremos las reglas que cancelan supuestos. Son I¬ , I→ y E∨ .
Exigen, para ser aplicadas, la existencia de una o dos subsecuencias previas comenzadas con
un supuesto. La aplicación de la regla cancela los supuestos que inician esas subsecuencias,
y lo que esto quiere decir es que ninguna proposición externa a esas subsecuencias –con la
única excepción de la que cancela el supuesto– es justificada por aplicación de una regla
sobre fórmulas internas a las subsecuencias. Diremos, por tanto, que un supuesto está
cancelado si posteriormente aparece en la secuencia una única fórmula A que surge de la
aplicación de alguna regla que cancela supuestos sobre una subsecuencia que él inicia, y si
ninguna fórmula exterior a la subsecuencia por él iniciada sobre la que se aplica la regla
para producir esa fórmula A se justifica aplicando reglas a fórmulas de la subsecuencia.
Podemos ahora dar una definición fundamental:
Definición 7.2.1 — Derivación.
Sean Γ un conjunto de fórmulas y A una fórmula. Una derivación de A a partir de Γ es
una sucesión de fórmulas en la que cada fórmula

o bien pertenece a Γ
o bien es un supuesto cancelado
o bien es el resultado de aplicar alguna de las reglas a fórmulas o subsecuencias
anteriores en la sucesión

y además su última fórmula es A.

Se debe observar que las justificaciones no son parte de las las derivaciones. Pero para nosotros
es muy importante disponer de ellas, porque nos permiten hacer un control de que una
sucesión de fórmulas es efectivamente una derivación.
Nuestro último ejemplo es, por tanto, una derivación de ((p2 → p3 ) → (p1 → p3 )) a
partir de {(p1 → p2 )}

7.3 Consecuencia sintáctica


Habíamos visto que la relación de consecuencia semántica nos daba un modo de capturar
formalmente la noción de consecuencia lógica. A esta altura del curso estamos en condiciones
de presentar otro modo de capturar formalmente esa noción: la consecuencia sintáctica.
La primera noción, la de consecuencia semántica, hace énfasis en que toda interpretación
que haga verdaderas las premisas, hará verdadera la conclusión. El concepto de verdad le es
intrínseco.
La segunda noción prescinde del concepto de verdad, que pertenece a la semántica.
Su énfasis se encuentra en la idea de que si se parte de ciertas premisas y se siguen
determinadas reglas que conciernen a la forma sintáctica de las fórmulas con las que se opera,
se habrá capturado la idea intuitiva de corrección lógica.
La definición de consecuencia sintáctica es la siguiente:
Definición 7.3.1 — Consecuencia sintáctica.
Sea Γ un conjunto de fórmulas de LP y A una fórmula de LP. A es consecuencia sintáctica
de Γ si y solo si existe una derivación de A a partir de Γ .
7.3 Consecuencia sintáctica 165

Notación 7.1. Si A es consecuencia sintáctica de Γ , escribimos Γ ` A.


Por supuesto que esto hace surgir inmediatamente preguntas acerca de las relaciones en-
tre consecuencia semántica y consecuencia sintáctica, pero esas preguntas (que plantearemos
en su momento) deberán esperar.
Ahora haremos algunas consideraciones importantes acerca de las derivaciones.

Acerca de las derivaciones


Salvando una aparente inconsistencia
El lector atento habrá observado que cuando definimos derivación no impusimos ninguna
restricción a los lugares de la secuencia donde pueden hallarse las premisas. Sin embargo,
al presentar los diagramas de Fitch, exigimos que comenzaran con las premisas.
La consecuencia de esto es que los diagramas de Fitch no pueden mostrar toda derivación,
sino solo aquellas que comienzan con sus premisas. Pero esto carece de importancia, porque
nuestro interés central pasa por el establecimiento de la consecuencia sintáctica. Es claro
que un diagrama de Fitch correctamente construido muestra una derivación. Y también
se cumple, como el lector advertirá a través de una reflexión ligera, que dada cualquier
derivación D de A a partir de Γ se puede obtener otra derivación D 0 , de la misma fórmula
a partir del mismo conjunto, que sí es representable mediante un diagrama de Fitch. Basta
para ello remover todas las premisas de donde se encuentren en D y colocarlas en el bloque
inicial, generando así D 0 .

El conjunto Γ
El conjunto a partir del cual se va a hacer una derivación puede ser cualquiera.
Supongamos que Γ es infinito. Es claro Γ ` A si y solo si para algún subconjunto finito
Γ0 de Γ se tiene Γ0 ` A, lo que es debido a que las derivaciones son secuencias finitas de
fórmulas.
Γ puede ser el conjunto vacío. En ese caso, la derivación no puede comenzar con una
premisa, porque no las hay, ni tampoco con una fórmula que surja de la aplicación de reglas
a fórmulas anteriores de la sucesión, porque tampoco hay, de modo que es necesario que la
derivación comience con un supuesto.
Mostremos que existe una derivación a partir del conjunto vacío de cualquier fórmula
de la forma ¬(A ∧ ¬A), donde A es cualquier fórmula de LP. Para lograrlo, utilizaremos
un diagrama de Fitch, sobre el que haremos algunas observaciones:

1 (A ∧ ¬A)

2 A E∧ i, 1

3 ¬A E∧ d, 1

4 (A ∧ ¬A) I∧ , 2, 3

5 ¬(A ∧ ¬A) I¬ , 1–4

La primera observación es que este diagrama no presenta una derivación, sino un


esquema de derivación. A es una metavariable (o sea, una variable del metalenguaje que
166 Capítulo 7. Consecuencia sintáctica

ranguea sobre objetos del lenguaje LP). Sustituyendo A por cualquier fórmula obtenemos
una derivación.
La segunda observación es que se evidencia que tales derivaciones no tienen premisas
porque la fórmula que se encuentra sobre la primera barra horizontal tiene dos barras
verticales (y no solo una) a la izquierda.
Es obvio que si A es consecuencia sintáctica del conjunto vacío, será consecuencia
sintáctica de todo conjunto. Al igual que hicimos con la consecuencia semántica, daremos la
notación y la definición correpondiente:
Notación 7.2. Si A es consecuencia sintáctica del conjunto vacío escribimos ` A.

Definición 7.3.2 — Teorema.


A es un teorema si y solo si ` A.

Reglas derivadas
Se podría pensar que sería conveniente agregar al sistema reglas diferentes a las que
hemos admitido si es que no ofrecen dudas acerca de su adecuación para nuestros propósitos.
Si se observa la última derivación presentada, vemos que en la línea 4 obtuvimos lo que
teníamos en la 1. Eso podría llevarnos a considerar que tal vez sea conveniente agregar una
regla que podríamos esquematizar así:

Regla Repetición
A
A

cuya conveniencia se hace evidente en un caso como el que acabamos de ver (en la última
derivación nos ahorraría dos líneas) y cuya inocuidad es del todo evidente. A nivel intuitivo
dice que lo que está en una secuencia deductiva puede repetirse o volverse a tomar, y su
apoyo semántico es trivial.
Se podría plantear una infinidad de “candidatos” a reglas, pero esto llevaría a una
proliferación insostenible. Por esto, tomaremos una solución salomónica: no admitiremos
esas reglas como reglas de nuestro sistema, pero nos permitiremos usarlas en la práctica
siempre que hayamos demostrado que lo que con ellas se logra se puede lograr prescindiendo de ellas.
Veámoslo con un ejemplo, el de la regla de repetición. Antes de usarla, debemos demostrar
que sin hacer uso de ella, siempre podemos “repetir” una fórmula en una derivación.
En nuestro caso la demostración consiste en una secuencia que respete las reglas origina-
les y partiendo de una fórmula, termine en la misma fórmula. Aquí se presenta una:

1 A

2 ¬A

3 (A ∧ ¬A) I∧ , 1, 2

4 ¬¬A I¬ , 2–3

5 A E¬ , 4
7.4 Heurística 167

Esto justifica que se pueda repetir una fórmula siempre en una derivación, ya que el
procedimiento es totalmente general. Podemos, por tanto, aceptar esta regla como regla “de-
rivada”, es decir, que se justifica con las reglas del sistema. Usando esa regla, la demostración
de que ¬(A ∧ ¬A) es un teorema se reduce a:

1 (A ∧ ¬A)

2 (A ∧ ¬A) Repetición, 1

3 ¬(A ∧ ¬A) I¬ , 1–2

Obviamente, en toda derivación es posible agregar una fórmula que sea un teorema
(con independencia de lo que se haya hecho en la derivación, se podría en cualquier punto
comenzar la derivación del teorema a partir del conjunto vacío). Por eso, aceptaremos como
regla derivada la introducción de teoremas:

Regla Teorema

siendo τ un teorema.
En los ejercicios veremos varios ejemplos de reglas que suelen considerarse derivadas.

7.4 Heurística
Dado un conjunto Γ y una fórmula A tales que se cumple que Γ ` A, no siempre es fácil
encontrar una derivación que así lo demuestre9 .
Veamos algunos ejemplos con el fin de ir captando ciertas estrategias que ayudan a
guiarse en la maraña de posibilidades que nos ofrecen las reglas:
 Ejemplo 7.2 Para toda fórmula A, (A ∨ ¬A) es un teorema.
Cuando vamos a probar que algo es un teorema, la única posibilidad es comenzar con un
supuesto. Alguna regla deberá cerrar ese supuesto. Una reflexión nos muestra que en nuestro
caso lo más fructífero es comenzar suponiendo la negación de lo que queremos demostrar
es teorema, y eso marca nuestra estrategia: intentaremos llegar a una contradicción. Por lo
tanto:

1 ¬(A ∨ ¬A)

La única fórmula que tenemos es una negación. Un repaso por todas las reglas nos
muestra que no podemos aplicar ninguna, excepto I∨ , pero no parece tener ningún sentido
9 Hay trampa en esta afirmación. Lo fácil o difícil depende, muchas veces, de las herramientas de que se
dispone para acometer la tarea. Veremos sobre el final del curso que en LP existe un procedimiento mecánico
para encontrar la derivación en caso de que la haya y para afirmar que no existe la derivación en caso de que no
se dé la relación de consecuencia sintáctica. Pero ese procedimiento traiciona el objetivo original de la deducción
natural: reflejar de algún modo los procesos corrientes de razonamiento.
168 Capítulo 7. Consecuencia sintáctica

obtener una disyunción con lo que ya tenemos. Parece necesario utilizar otro supuesto.
Claramente no vamos a suponer algo que no tenga nada que ver con lo que ya tenemos.
¿Qué sucede si suponemos A? Quizá lleguemos a una contradicción así. (El lector puede
intentar en este punto continuar por sí mismo la derivación). Probémoslo:

1 ¬(A ∨ ¬A)

2 A
Ahora podemos aplicar muchas reglas, pero recordemos que estamos bajo supuestos,
y por ello es una buena idea intentar llegar a contradicciones. ¿Podremos construir en el
siguiente paso una fórmula que en conjunción con alguna de las que tenemos sea una
contradicción? Claramente podemos llegar a la fórmula (A ∨ ¬A), y de allí seguir hasta
extraer las consecuencias de la contradicción inferida:

1 ¬(A ∨ ¬A)

2 A

3 (A ∨ ¬A) I∨ , 2

4 ((A ∨ ¬A) ∧ ¬(A ∨ ¬A)) I∧ , 3, 1

5 ¬A I¬ , 2–4
En este punto hemos demostrado que bajo nuestro supuesto inicial se deriva ¬A. No es
lo que queríamos, nuestro plan era llegar a una contradicción. Es claro que no podemos
cerrar el supuesto inicial ahora porque lo haríamos introduciendo un condicional que no
nos serviría para nada. ¿Habrá que desistir de este camino e intentar otro?
De ninguna manera. Si recordamos que Si con caldito va sanando, caldito seguile dando,
nos daremos cuenta de que podemos repetir la estrategia de construir una fórmula que
en conjunción con alguna de las que tenemos (que son la que acabamos de obtener y el
supuesto abierto) dé la contradicción buscada. Una vez visto esto, el resto de la derivación
es fácil:

1 ¬(A ∨ ¬A)

2 A

3 (A ∨ ¬A) I∨ , 2

4 ((A ∨ ¬A) ∧ ¬(A ∨ ¬A)) I∧ , 3, 1

5 ¬A I¬ , 2–4

6 (A ∨ ¬A) I∨ , 5

7 ((A ∨ ¬A) ∧ ¬(A ∨ ¬A)) I∧ , 6, 1

8 ¬¬(A ∨ ¬A) I¬ , 1–7

9 (A ∨ ¬A) E¬ , 8
7.4 Heurística 169

¿Qué aprendimos en este ejemplo? Principalmente, que los supuestos son “armas” muy
poderosas. Pero debemos usarlas con extremo cuidado, porque una vez que abrimos un
supuesto, estamos obligados a cerrarlo alguna vez. Por eso, uno debe hacer un supuesto con
una idea de hacia dónde quiere dirigir la derivación. En este caso hemos visto la posibilidad
de introducir supuestos con la idea de obtener contradicciones, lo que da como resultado la
negación de la fórmula supuesta. En cada caso se debe evaluar si eso es útil o no.
 Ejemplo 7.3 Mostrar que {(p1 → p2 ), (p2 → p3 )} ` (p1 → (p2 ∧ p3 ))
Observemos la fórmula final. Siempre debemos empezar por eso, ya que nos fija la meta.
Normalmente, uno debe pensar en la derivación a realizar en grandes bloques, con ideas
borrosas que se van precisando al avanzar. Una de las primeras preguntas que debemos
hacernos, en ese intento de delinear bloques, es ¿Es razonable esperar que la fórmula final se
obtenga en el último paso por medio de la regla de introducción del conectivo correspondiente? En
nuestro caso, la pregunta es si podemos esperar razonablemente obtener esto:

1 (p1 → p2 )

2 (p2 → p3 )
.. ..
. .

n (p1 → (p2 ∧ p3 )) I→

¿Qué sería necesario para obtenerlo? Según la justificación de la regla I→ , una subderi-
vación iniciada con el antecedente del condicional final como supuesto y terminada en el
consecuente de ese condicional:

1 (p1 → p2 )

2 (p2 → p3 )

3 p1
.. ..
. .

n−1 (p2 ∧ p3 )

n (p1 → (p2 ∧ p3 )) I→ , 3–(n − 1)

Obsérvese que el problema se ha reducido a obtener (p2 ∧ p3 ), con todas las premisas y
además bajo el supuesto p1 . Y si con caldito va sanando, caldito seguile dando, corresponde,
en primer lugar, preguntarnos si podemos obtener esa conjunción por la regla de introduc-
ción. Su justificación nos exige disponer de ambos conyuntos al momento de aplicarla, de
modo que deberíamos llegar a algo así:
170 Capítulo 7. Consecuencia sintáctica

1 (p1 → p2 )

2 (p2 → p3 )

3 p1
.. ..
. .

k p2
.. ..
. .

n−2 p3

n−1 (p2 ∧ p3 ) I∧ , (k), (n − 2)

n (p1 → (p2 ∧ p3 )) I→ , 3–n − 1

Si el lector piensa con cuidado, verá que las letras proposicionales que necesitamos
surgen de aplicar eliminación sobre las premisas:

1 (p1 → p2 )

2 (p2 → p3 )

3 p1

4 p2 E→ , 1, 3

5 p3 E→ , 2, 4

6 (p2 ∧ p3 ) I∧ , 4, 5

7 (p1 → (p2 ∧ p3 )) I→ , 3–6

¿Qué hemos aprendido en este ejemplo? Principalmente, la importancia de considerar a


la fórmula a la que debemos arribar como guía a través de las reglas de introducción. Eso
nos obliga a pensar “hacia atrás”, analíticamente. También se nos hizo aparente algo que no
debe sernos indiferente: sobre el final de nuestro razonamiento encontramos que sobre las
premisas aplicamos reglas de eliminación. Profundizaremos esto en el siguiente
 Ejemplo 7.4 Debemos mostrar que {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 )} ` (p3 ∨ p4 )
En este caso la fórmula a la que queremos llegar es una disyunción. Razonamos, como
en el ejemplo anterior, que quizá podamos obtenerla por la regla de introducción. Pero eso
nos obligaría a obtener, libres de supuestos, o bien p3 o bien p4 . Y examinando las premisas,
no se ve cómo lograr eso (es muy fácil obtener p3 bajo el supuesto de p1 , o p4 bajo el
supuesto de p2 , pero esto no nos sirve a causa de la dependencia de supuestos). Por lo tanto,
volvamos nuestra atención a las premisas y consideremos la posibilidad de avanzar desde
7.4 Heurística 171

ellas, obteniendo consecuencias a través de las reglas de eliminación. Si nos planteamos


eliminar la disyunción en la primera premisa, con la idea de que esa eliminación nos lleve a
la fórmula buscada, estaríamos pensando en algo así:

1 (p1 ∨ p2 )

2 (p1 → p3 )

3 (¬p2 ∨ p4 )

4 p1
.. ..
. .

j (p3 ∨ p4 )

k p2
.. ..
. .

l (p3 ∨ p4 )

l+1 (p3 ∨ p4 ) E∨ , 1, 4–j, k–l

Concentrémonos en la primera subderivación. Es necesario llegar a la misma disyunción


que nos planteamos al principio, pero ahora bajo el supuesto de p1 . Bajo esa condición es
muy fácil lograrla por introducción, ya que podemos obtener p3 en forma inmediata:

1 (p1 ∨ p2 )

2 (p1 → p3 )

3 (¬p2 ∨ p4 )

4 p1

5 p3 E→ , 2, 4

6 (p3 ∨ p4 ) I∨ , 5

7 p2
.. ..
. .

l (p3 ∨ p4 )

l+1 (p3 ∨ p4 ) E∨ , 1, 4–6, 7–l

Ahora nos enfrentamos a un problema más complicado, obtener nuevamente la misma


disyunción pero bajo el supuesto p2 . No parece haber nada tan directo como lo que
172 Capítulo 7. Consecuencia sintáctica

recién usamos para completar la primera subderivación, y para empeorar las cosas (o para
mejorarlas, ya que no nos deja demasiadas opciones), p2 solo aparece en la tercera premisa,
¡que también es una disyunción! Entonces, como no parece razonable obtener ahora (p3 ∨ p4 )
a través de una regla de introducción, intentaremos aplicar eliminación a la tercera premisa.
Esto nos impulsa a pensar en abrir dos nuevas subderivaciones, cada una de ellas iniciada
con un disyunto de la premisa de la línea 3 como supuesto, esperando que terminen en la
fórmula buscada. Estas dos nuevas subderivaciones se encontrarán bajo el supuesto de la
línea 7. Concretamente, estamos impulsados a plantear algo así:

1 (p1 ∨ p2 )

2 (p1 → p3 )

3 (¬p2 ∨ p4 )

4 p1

5 p3 E→ , 2, 4

6 (p3 ∨ p4 ) I∨ , 5

7 p2

8 ¬p2
.. ..
. .

j (p3 ∨ p4 )

j+1 p4
.. ..
. .

l (p3 ∨ p4 )

l+1 (p3 ∨ p4 ) E∨ , 3, 8–j, j + 1–l

l+2 (p3 ∨ p4 ) E∨ , 1, 4–6, 7–l + 1

Se advierte que para lograr la segunda subderivación que buscamos no hay que agregar
nada, solo justificar, porque podemos pasar del supuesto de la línea j + 1 a la fórmula buscada
en la línea l con una sola aplicación de I∨ . Esto nos deja con una única subderivación por
completar, en la que a partir de las tres premisas y los supuestos p2 y ¬p2 deberíamos
obtener (p3 ∨ p4 ):

1 (p1 ∨ p2 )

2 (p1 → p3 )

3 (¬p2 ∨ p4 )
7.4 Heurística 173

4 p1

5 p3 E→ , 2, 4

6 (p3 ∨ p4 ) I∨ , 5

7 p2

8 ¬p2
.. ..
. .

j (p3 ∨ p4 )

j+1 p4

j+2 (p3 ∨ p4 ) I∨ , j + 1

j+3 (p3 ∨ p4 ) E∨ , 3, 8–j, j + 1–j + 2

j+4 (p3 ∨ p4 ) E∨ , 1, 4–6, 7–j + 3


En la subderivación que nos resta se observa algo interesante: podemos obtener inmedia-
tamente una contradicción, (p2 ∧ ¬p2 ). ¿Será posible obtener, a partir de ella, la disyunción
que buscamos? Aquí conviene recordar algo que hemos dicho varias veces: las reglas, si bien
son sintácticas, fueron escogidas de modo que preserven la consecuencia semántica. Por eso, siempre
podemos apoyarnos en razonamientos semánticos para guiarnos en la maraña de reglas.
Una contradicción tiene como consecuencia semántica cualquier fórmula. ¿Valdrá también
que a partir de una contradicción se podrá derivar cualquier fórmula? Sí:

Teorema 7.4.1 Sean A y B fórmulas cualesquiera. Entonces {(A ∧ ¬A)} ` B.

demostración:

1 (A ∧ ¬A)

2 ¬B

3 (A ∧ ¬A) Repetición, 1

4 ¬¬B I¬ , 2–3

5 B E¬ , 4

Esto nos permite aceptar una importantísima regla derivada, llamada ex contradictione
quodlibet10 , que abreviaremos como ECQ y podemos representar así:
Regla ECQ
(A ∧ ¬A)
B
10 "De una contradicción se sigue lo que se desee".
174 Capítulo 7. Consecuencia sintáctica

Y volviendo a nuestra derivación, podemos terminarla construyendo la contradicción y


usando ECQ para obtener la disyunción que deseábamos:

1 (p1 ∨ p2 )

2 (p1 → p3 )

3 (¬p2 ∨ p4 )

4 p1

5 p3 E→ , 2, 4

6 (p3 ∨ p4 ) I∨ , 5

7 p2

8 ¬p2

9 (p2 ∧ ¬p2 ) I∧ , 7, 8

10 (p3 ∨ p4 ) ECQ, 9

11 p4

12 (p3 ∨ p4 ) I∨ , 11

13 (p3 ∨ p4 ) E∨ , 3, 8–10, 11–12

14 (p3 ∨ p4 ) E∨ , 1, 4–6, 7–13

En este ejemplo hemos aprendido a guiarnos por los puntos de partida (premisas
o supuestos abiertos) considerando las reglas de eliminación y hemos recordado que la
semántica ofrece invalorables puntos de apoyo para guiarse en las derivaciones. El próximo
ejemplo profundizará en este aspecto:
 Ejemplo 7.5 Demostrar: {(p1 ↔ p2 )} ` ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))
Nuevamente, la fórmula buscada es una disyunción, y eso desalienta inmediatamente la
idea de lograrla por introducción en este caso, a través de un razonamiento semántico, que nos
indica que ni (p1 ∧ p2 ) ni (¬p1 ∧ ¬p2 ) (las fórmulas que permitirían introducir la disyunción final)
son consecuencias semánticas de {(p1 ↔ p2 )}, de modo que no podemos esperar derivarlas libres de
supuestos.
Otra forma de enfrentar el problema sería suponer la negación de la fórmula buscada,
esperando derivar una contradicción. Pero en nuestro caso (imagine el lector cómo quedaría
planteado el inicio de la derivación) esto no parece simplificar ni acercarnos la solución.
Por tanto, debemos pensar en aplicar reglas de eliminación sobre la premisa, seguidas
de introducción de condicionales. Eso es fácil y obtenemos:
7.4 Heurística 175

1 (p1 ↔ p2 )

2 p1

3 p2 E↔ , 1, 2

4 (p1 → p2 ) I→ , 2–3

5 p2

6 p1 E↔ , 1, 5

7 (p2 → p1 ) I→ , 5–6
.. ..
. .

n ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))

Y parece que nos encontramos en una situación desesperada. Intentar llegar a la fórmula
final por introducción sigue siendo igualmente inapropiado, y las reglas de eliminación
aplicadas a los condicionales obtenidos no parecen poder darnos nada nuevo. Aquí debe
venir en nuestro apoyo la semántica. Podemos razonar así:
La premisa y los condicionales obtenidos expresan que si p1 es verdadera, p2 lo
es, y recíprocamente. Debo mostrar la disyunción según la cual o bien ambas son
verdaderas o bien ambas son falsas, que es lo que la fórmula buscada expresa.
Ahora bien, solo hay dos posibilidades:
(1) p1 es verdadera. En este caso, claramente p2 es verdadera, y por lo tanto
ambas lo son. Tenemos el primer disyunto de la disyunción y por tanto, la
disyunción.
(2) p1 es falsa. En ese caso, como si p2 es verdadera, p1 también lo es, debe ser p2
falsa. Tenemos que ambas son falsas, el segundo disyunto, y por lo tanto, la
disyunción.
¿Cómo nos puede servir este razonamiento para construir la derivación buscada? Obser-
vemos que parte de decir que hay solo dos posibilidades respecto al valor de verdad de p1 .
¿Hay alguna fórmula que exprese eso? Sí, claramente la fórmula (p1 ∨ ¬p1 ) lo hace. Luego
el razonamiento continúa extrayendo las consecuencias de cada una de las posibilidades, lo
que viene a ser una eliminación de la disyunción.
Para arrancar la contrapartida formal de ese razonamiento tendríamos que poder incluir
en nuestra derivación, libre de supuestos, la fórmula (p1 ∨ ¬p1 ). ¿Y lo podemos hacer?
La respuesta es que sí, lo podemos hacer gracias a que esa fórmula es un teorema, y
esto ha sido demostrado páginas atrás. O sea, podemos utilizar la regla Teorema para
introducir esa fórmula en la derivación, e inmediatamente nos planteamos eliminar esa
disyunción, iniciando dos subderivaciones, cada una con un disyunto como supuesto,
esperando que ambas terminen en la misma fórmula que estamos intentando derivar,
((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )), y lograr la última línea por regla E∨ :
176 Capítulo 7. Consecuencia sintáctica

1 (p1 ↔ p2 )

2 p1

3 p2 E↔ , 1, 2

4 (p1 → p2 ) I→ , 2–3

5 p2

6 p1 E↔ , 1, 5

7 (p2 → p1 ) I→ , 5–6

8 (p1 ∨ ¬p1 ) Teorema

9 p1
.. ..
. .

k ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))

k+1 ¬p1
.. ..
. .

l ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))

l+1 ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) E∨ , 8, 9–k, k + 1–l

Completar la primera de las subderivaciones restantes es fácil:

1 (p1 ↔ p2 )

2 p1

3 p2 E↔ , 1, 2

4 (p1 → p2 ) I→ , 2–3

5 p2

6 p1 E↔ , 1, 5

7 (p2 → p1 ) I→ , 5–6

8 (p1 ∨ ¬p1 ) Teorema


7.4 Heurística 177

9 p1

10 p2 E↔ , 1, 9

11 (p1 ∧ p2 ) I∧ , 9, 10

12 ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) I∨ , 11

13 ¬p1
.. ..
. .

l ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))

l+1 ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) E∨ , 8, 9–12, 13–l

Para completar la subderivación restante, recordemos lo que habíamos pensando en


términos semánticos al considerar la segunda posibilidad: “En ese caso, como si p2 es
verdadera, p1 también lo es, debe ser p2 falsa.” O sea, estamos diciendo que bajo ese supuesto
tendríamos ¬p2 . Para establecerlo en la derivación, podemos intentar hacer el supuesto p2 .
Si llegamos a una contradicción, inferimos ¬p2 por introducción de la negación, y podemos
construir la conjunción (¬p1 ∧ ¬p2 ) y a partir de allí la disyunción buscada, ya que la última
fórmula escrita es uno de sus disyuntos. Siguiendo ese plan, la derivación termina así:

1 (p1 ↔ p2 )

2 p1

3 p2 E↔ , 1, 2

4 (p1 → p2 ) I→ , 2–3

5 p2

6 p1 E↔ , 1, 5

7 (p2 → p1 ) I→ , 5–6

8 (p1 ∨ ¬p1 ) Teorema

9 p1

10 p2 E↔ , 1, 9

11 (p1 ∧ p2 ) I∧ , 9, 10

12 ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) I∨ , 11


178 Capítulo 7. Consecuencia sintáctica

13 ¬p1

14 p2

15 p1 E↔ , 1, 14

16 (p1 ∧ ¬p1 ) I∧ , 15, 13

17 ¬p2 I¬ , 14–16

18 (¬p1 ∧ ¬p2 ) I∧ , 13, 17

19 ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) I∨ , 18

20 ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) E∨ , 8, 9–12, 13–19

Este ejemplo debería ser muy instructivo. En primer lugar, muestra que el razonamiento
semántico es una guía insustituible al intentar encontrar derivaciones. En segundo lugar,
habrá observado el lector que podríamos haber hecho la derivación sin hacer lo que
estuvimos haciendo hasta la línea 7. Eso no nos sirvió para nada. Se prefirió hacerlo
así en vez de mostrar una marcha directa al objetivo porque si bien se puede generar
mecánicamente una derivación de lo buscado, a esta altura lo que se debe incentivar es la
práctica y el dominio de los sanos principios que hemos expuesto como heurística adecuada
para enfrentarse a estas tareas:
Los supuestos deben introducirse con un objetivo definido in mente, generan el com-
promiso de cerrarlos.
Las premisas sugieren la aplicación de reglas de eliminación, la fórmula buscada de
una regla de introducción.
En muchos casos, pensar cómo se demostraría algo estructuralmente igual a lo pedido
razonando en términos semánticos ilumina la construcción de una derivación. Esto es
así porque el sistema ha sido construido para reflejar de algún modo el razonamiento
común.
Luego de estudiar estos ejemplos, seguramente el lector está preparado para verificar la
corrección de la solución ofrecida al problema de la biblioteca que quedó pendiente a través
del siguiente

Ejercicio 7.1 Demostrar: {VF ↔ (¬VF ∨ ¬VG )} ` (VF ∧ ¬VG )

7.5 Errores frecuentes al intentar hacer derivaciones


Creer en la magia
Las reglas no dan recetas mágicas para obtener lo que se desea. Un error muy frecuente
es razonar de esta manera:

Necesito la disyunción A ∨ B ¿Qué problema hay? Agrego a mi derivación A ∨ B


y lo justifico por introducción de la disyunción.
7.5 Errores frecuentes al intentar hacer derivaciones 179

Este es un disparate común, las reglas no permiten, invocando su nombre, cual si


fueran conjuros mágicos, agregar lo que uno quiera a la secuencia. Cada una de ellas tiene
condiciones estrictas de aplicación. En el hipotético caso anterior, el paso solo es correcto
si en la secuencia aparecen previamente A o B. Un buen antídoto es recordar siempre lo
necesario para justificar la aplicación de una regla, y si no podemos justificarla, es que no la
podemos aplicar. Recordamos aquí lo necesario para justificar la aplicación de cada regla:

Regla Justificación
E¬ Línea con la fórmula obtenida doblemen-
te negada.
I¬ Una subderivación comenzada con la fór-
mula obtenida sin negar y terminada en
contradicción.
E∧ Línea con una conjunción de la cual uno
de los conyuntos es lo obtenido.
I∧ Dos líneas, cada una con un conyunto de
la conjunción obtenida.
E∨ Una línea con una disyunción y dos sub-
derivaciones, una comenzada con uno de
los conyuntos y la otra con el otro, y ter-
minadas ambas en la fórmula obtenida.
I∨ Una línea con uno de los disyuntos de la
disyunción obtenida.
E→ Dos líneas, en una de las cuales hay un
condicional cuyo antecedente está en la
otra línea y su consecuente es la fórmula
obtenida.
I→ Una subderivación comenzada con el an-
tecedente y finalizada con el consecuente
del condicional obtenido.
E↔ Dos líneas, en una de las cuales hay un bi-
condicional y en la otra uno de sus miem-
bros, siendo el otro miembro la fórmula
obtenida.
I↔ Dos líneas, en las cuales figuran condicio-
nales recíprocos, siendo el antecedente y
consecuente de uno de ellos los miembros
del bicondicional obtenido.

Invocar fórmulas bajo supuestos cerrados


La existencia de supuestos en una derivación tiene como resultado que no podemos
invocar toda fórmula anterior en la aplicación de una regla. Por eso, cuando comenzamos el
180 Capítulo 7. Consecuencia sintáctica

estudio de la consecuencia sintáctica, antes de introducir los diagramas de Fitch, tachábamos


las líneas que no nos eran accesibles.
Consideremos una derivación ya realizada:

1 (p1 ∨ p2 )

2 (p1 → p3 )

3 (¬p2 ∨ p4 )

4 p1

5 p3 E→ , 2, 4

6 (p3 ∨ p4 ) I∨ , 5

7 p2

8 ¬p2

9 (p2 ∧ ¬p2 ) I∧ , 7, 8

10 (p3 ∨ p4 ) ECQ, 9

11 p4

12 (p3 ∨ p4 ) I∨ , 11

13 (p3 ∨ p4 ) E∨ , 3, 8–10, 11–12

14 (p3 ∨ p4 ) E∨ , 1, 4–6, 7–13

En ella, desde cualquier línea se puede invocar las fórmulas que aparecen en 1, 2 y 3,
ya que ellas son las premisas. No repetiremos que esto es así. Hasta la línea 6, se pueden
invocar todas las anteriores. Pero como se indica gráficamente, allí termina la acción de un
supuesto y las líneas 4, 5, 6 ya no pueden ser invocadas en adelante, excepto para cerrar el
supuesto bajo el que están. Obsérvese la línea 10. Desde ella se pueden invocar (aparte de
las premisas) solo la 7, la 8 y la 9. En la 13 solo se pueden invocar las premisas y la línea 7
como fórmulas, pero es posible invocar subderivaciones que se encuentran bajo el supuesto
de 7.
Examinemos más cuidadosamente la derivación. Se observa que cada vez que agregamos
un supuesto, hacemos algo análogo a introducir una premisa. Evidentemente el supuesto
no es una premisa, pero lo que obtenemos bajo él, es consecuencia sintáctica de las premisas
y del supuesto. Mirando la derivación vemos:
1. Línea 5: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p1 } ` p3
2. Línea 6: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p1 } ` (p3 ∨ p4 )
3. Línea 9: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p2 , ¬p2 } ` (p2 ∧ ¬p2 )
4. Línea 10: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p2 , ¬p2 } ` (p3 ∨ p4 )
7.5 Errores frecuentes al intentar hacer derivaciones 181

5. Línea 12: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p2 , p4 } ` (p3 ∨ p4 )


6. Línea 13: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p2 } ` (p3 ∨ p4 )
7. Línea 14: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 )} ` (p3 ∨ p4 )

Por eso en general si utilizamos una fórmula obtenida bajo un supuesto ya cerrado,
estamos agregando ese supuesto al conjunto del cual extraemos la consecuencia sintáctica,
y eso nos lleva inevitablemente a un error. La forma de evitarlo es simple, cuidando la
construcción correcta de los diagramas y observando que solo se pueden utilizar fórmulas
por cuya izquierda pasen exactamente las mismas líneas verticales que las que pasan por el
lugar donde nos encontramos. Esto vale para la invocación de líneas y no de subderivaciones.

No cerrar supuestos
De lo dicho anteriormente, es claro que si uno presenta un diagrama de Fitch sin todos
los supuestos cerrados, la última fórmula será, en el mejor de los casos, consecuencia
sintáctica de las premisas y de los supuestos que hayan quedado abiertos. Por lo tanto, la
última fórmula de un diagrama de Fitch debe tener siempre una única línea vertical a su
izquierda, al igual que las premisas.

Abusar del conocimiento semántico


A veces sabemos que dos fórmulas son equivalentes o que una implica la otra, y
queremos usar eso para simplificar la derivación. Por ejemplo, supongamos que queremos
demostrar {p1 } ` ¬¬p1
Podemos estar tentados de presentar

1 p1

2 ¬¬p1 Me pareció que podía, 1

Eso es un error, la derivación, por supuesto, debió ser

1 p1

2 ¬p1

3 (p1 ∧ ¬p1 ) I∧ , 1, 2

4 ¬¬p1 I¬ , 2–3

La primera “derivación” equivale a utilizar una regla de este tipo:

Regla ¬¬
A
¬¬A
182 Capítulo 7. Consecuencia sintáctica

En general, para utilizar este tipo de reglas que no están en nuestro sistema, debemos
acordarlo explícitamente, y sobre todo, debemos tener demostrado que esa regla que
queremos usar es prescindible, o sea, que sin ella podemos obtener lo mismo en nuestro
sistema, aunque a través de derivaciones más largas. Veremos más sobre reglas derivadas
en los ejercicios.

7.6 Propiedades de la relación de consecuencia sintáctica


Corresponde ahora que examinemos las propiedades de la relación que hemos definido.
Al hacerlo, iremos ofreciendo las definiciones necesarias:
Definición 7.6.1 — Conjuntos consistentes, conjuntos inconsistentes.
Sea Γ un conjunto de fórmulas. Γ es inconsistente si existe una fórmula A tal que
Γ ` (A ∧ ¬A), y es consistente en caso contrario.

O sea, un conjunto es inconsistente si de él se puede derivar una contradicción, y es


consistente si no se puede.

Consecuencias de conjuntos inconsistentes


Supongamos que Γ es inconsistente. Es muy fácil demostrar que Γ ` B para toda fórmula
B:

0 Γ
.. ..
. .

n (A ∧ ¬A)

n+1 B ECQ, n

Hemos modificado la presentación del diagrama de Fitch en forma obvia: ponemos Γ


donde irían las premisas, y queda numerado con 0 (esto no se debe al deseo del autor, sino al
del realizador del paquete de LATEX utilizado para hacer diagramas de Fitch, Peter Selinger).
Bajo él, lo que se puede obtener según la información que se posee. Queda demostrado
el
Teorema 7.6.1 Si Γ es inconsistente, entonces Γ ` B, sea cual sea la fórmula B.

Monotonía
Supongamos que Γ y A son tales que Γ ` A. Modifiquemos ahora el conjunto Γ agre-
gándole fórmulas. Llamemos ∆ al conjunto de las fórmulas que agregamos obteniendo un
conjunto Γ ’ que será la unión de Γ y ∆. En símbolos de la teoría de conjuntos, Γ 0 = Γ ∪ ∆.
Nos preguntamos si se cumple Γ 0 ` A.
La respuesta afirmativa es inmediata. Como existe una derivación de A a partir de Γ ,
podemos construir siempre una derivación de A a partir de Γ 0 = Γ ∪ ∆, simplemente usando
como premisas los elementos de Γ e ignorando los de ∆. Y si Γ fuere vacío, A es un teorema
y no necesitamos premisa alguna para derivarlo.
Queda demostrado el
7.6 Propiedades de la relación de consecuencia sintáctica 183

Teorema 7.6.2 — Monotonía de la consecuencia sintáctica.


Si Γ ` A, entonces Γ ∪ ∆ ` A para todo conjunto de fórmulas ∆.

Se concluye también el siguiente

Corolario 7.6.3 Si τ es un teorema, entonces Γ ` τ para todo conjunto Γ .

El teorema de deducción (versión sintáctica)


El teorema de deducción en su versión sintáctica tiene la misma forma que en la versión
semántica, pero se refiere a la consecuencia correspondiente (usamos la misma notación que
al enunciar la versión semántica):

Teorema 7.6.4 — Deducción (versión sintáctica).


Para todo conjunto de fórmulas Γ y para cualesquiera fórmulas A y B:
Γ , A ` B si y solo si Γ ` (A → B).

demostración: Supongamos que se cumple Γ , A ` B. Entonces existe una derivación que


podemos presentar así:

0 Γ

n A
.. ..
. .

m B

Entonces lo siguiente también es una derivación:

0 Γ

n A
.. ..
. .

m B

m+1 (A → B) I→ , n–m

Esta segunda derivación tiene las mismas fórmulas que la primera entre A y B, y muestra
que Γ ` (A → B).

Supongamos ahora que se cumple Γ ` (A → B). Entonces existe una derivación que
corresponde al diagrama:
184 Capítulo 7. Consecuencia sintáctica

0 Γ
.. ..
. .

k A→B

A partir de ella, podemos construir la siguiente derivación:

0 Γ

n A
.. ..
. .

k+1 A→B

k+2 B E→ , n, k + 1

Las fórmulas que van en lugar de los puntos suspensivos de ambos diagramas son las
mismas, que se extraen exclusivamente de Γ . Esta derivación muestra que Γ , A ` B.

El “absurdo”
Su enunciado es
Teorema 7.6.5 — El “absurdo” (versión sintáctica).
Para todo conjunto Γ y toda fórmula A, Γ ` A si y solo si Γ , ¬A es inconsistente.

demostración: Supongamos que Γ ` A. Esto significa que existe una derivación así:

0 Γ
.. ..
. .

k A

Queremos demostrar que de Γ , ¬A se puede derivar una contradicción. Que esto es así
surge de que lo siguiente es una derivación:

0 Γ

n ¬A
.. ..
. .

k+1 A

k+2 (A ∧ ¬A) I∧ , n, k + 1
7.7 Aparatos deductivos 185

En los puntos suspensivos de ambas derivaciones van las mismas fórmulas.


Supongamos ahora que Γ , ¬A es inconsistente. Esto significa que existe una derivación
así:

0 Γ

n ¬A
.. ..
. .

k (B ∧ ¬B)

Que Γ ` A queda demostrado por el hecho de que lo siguiente es una derivación:

0 Γ

n ¬A
.. ..
. .

k (B ∧ ¬B)

k+1 ¬¬A I¬ , n–k

k+2 A E¬ , k + 1

Como en los casos anteriores, las fórmulas por las que están los puntos suspensivos son
las mismas en ambas derivaciones.
Hemos visto que la relación de consecuencia sintáctica comparte varias propiedades
con su homóloga semántica. Sobre las relaciones entre ambas nociones de consecuencia
hablaremos más adelante.

7.7 Aparatos deductivos


El sistema de deducción natural es un sistema formal. En esta parte del capítulo estudia-
remos los sistemas formales con mayor generalidad, sin centrarnos en un lenguaje ni unas
reglas específicas.
Un sistema formal se basa en un lenguaje formal pero no se reduce a él. Es más, así
como en el plano semántico el mismo lenguaje formal puede ser soporte de interpretaciones
diversas, en el plano sintáctico el mismo lenguaje formal puede ser soporte de sistemas
formales diversos.
Definición 7.7.1 — Sistema formal, aparato deductivo. Un sistema formal S es un len-
guaje formal L junto con un aparato deductivo, es decir:
Un conjunto de fórmulas destacadas de L, que se llaman los axiomas de S.
Un conjunto de reglas de inferencia que determinan inequívocamente, si dados dos
conjuntos o sucesiones de fórmulas Γ y ∆ de L cualesquiera, es posible obtener ∆
186 Capítulo 7. Consecuencia sintáctica

de Γ como resultado de aplicar una de las reglas. En caso de que se pueda, se dice
que ∆ es consecuencia inmediata de Γ .
El aparato deductivo debe poder explicitarse sin hacer referencia alguna a interpreta-
ciones del lenguaje formal, y puede carecer de axiomas o de reglas de inferencia pero no,
obviamente, de ambas cosas.
 Ejemplo 7.6 (Sistema formal S1 )

lenguaje formal:
Alfabeto: {a, b}
Fórmulas:
• a es una fórmula
• b es una fórmula
• Si Xa es una fórmula, o X es la cadena vacía, Xab es una fórmula.
• Si Xb es una fórmula, o X es la cadena vacía, Xba es una fórmula.
• Todas las fórmulas se obtienen de las cláusulas anteriores.
aparato deductivo:
Axiomas:
• ab es el único axioma
Reglas de inferencia:
1. La fórmula Xb tiene como consecuencia inmediata a la fórmula Xbaba
2. Toda fórmula tiene como consecuencia inmediata a la fórmula que se obtiene al
intercambiar todas las aes por bes y todas las bes por aes.

Podemos ver el lenguaje dispuesto en estructura arborescente a partir de las fórmulas


básicas, generándose mediante las reglas de formación de fórmulas. Obtendríamos:

a b

ab ba

aba bab

abab baba

ababa babab

ababab bababa

abababa bababab

abababab babababa

.. ..
. .
7.7 Aparatos deductivos 187

Pero si consideramos el sistema formal, vemos que este recoge algunas fórmulas del
lenguaje y otras no, en el siguiente sentido: Si partimos del axioma (o de los que tuviésemos),
aplicando las reglas de inferencia sucesivamente obtenemos algunas de las fórmulas del
lenguaje (idealmente, no todas, porque si no, ¿para qué sirve el sistema formal?). Esto puede
verse en el siguiente diagrama, en el que se resaltan las fórmulas que se pueden obtener a
partir del axioma ab, y donde las flechas indican la relación de consecuencia inmediata:

a b

ab ba

aba bab

abab baba

ababa babab

ababab bababa

abababa bababab

abababab babababa

.. ..
. .

Por ejemplo, la fórmula aba no puede obtenerse a partir del axioma aplicando reglas de
inferencia.
Se observa que en este caso particular, si en vez de tener como único axioma la fórmula
ab tuviésemos la fórmula ba, conservando las reglas de inferencia, el sistema deductivo
resultante nos permitiría obtener exactamente las mismas fórmulas que nos permite nuestro
sistema.
Este es un ejemplo de sistema formal que consta tanto de axiomas como de reglas de
inferencia. Si un sistema solo tiene axiomas, es decir, carece de reglas de inferencia, lo único
que hace es seleccionar algunas fórmulas, destacándolas y llamándolas axiomas. No son
sistemas interesantes, salvo para algunos propósitos teóricos, y no nos ocuparemos de ellos.
El sistema que conocemos bien, el de deducción natural, carece de axiomas. Es por ello que
no profundizaremos en ese tipo de sistemas y nos conformaremos con examinar brevemente
los sistemas axiomáticos.

Derivaciones en sistemas formales axiomáticos


Dijimos anteriormente que en el sistema formal S1 , la fórmula aba no se puede obtener
partiendo de los axiomas y aplicando las reglas de inferencia, no importa cuántas veces las
apliquemos. Sin embargo, el diagrama que hicimos muestra que la fórmula abababab sí
se puede obtener de ese modo. Podemos presentar una secuencia, que no es su secuencia de
formación justificándolo:
188 Capítulo 7. Consecuencia sintáctica

1. ab (Axioma)
2. ababa (Regla de inferencia 1, aplicada a 1.)
3. babab (Regla de inferencia 2 aplicada a 2.)
4. babababa (Regla de inferencia 1 aplicada a 3.)
5. abababab (Regla de inferencia 2 aplicada a 4.)

Lo que acabamos de mostrar es, como el lector habrá adivinado, una derivación de la
fórmula abababab en nuestro sistema formal. Cuando existe una derivación de una fórmula
en un sistema formal, esa fórmula es un teorema del sistema formal. Recogemos estas ideas
en las siguientes definiciones:
Definición 7.7.2 — Sistema axiomático, derivación en sistema axiomático, teorema.
Un sistema formal axiomático es un sistema formal que destaca algunas de las fór-
mulas del lenguaje formal sobre el que está definido como axiomas.
Una derivación de una fórmula A en un sistema formal axiomático es una secuencia
finita de fórmulas tal que cada fórmula de la secuencia:
o bien es un axioma
o bien es consecuencia inmediata de alguna o algunas de las fórmulas que figuran
como elementos anteriores de la secuencia
y la última fórmula de la secuencia es A.
Si en el sistema formal axiomático S hay una derivación de la fórmula A, se dice que
A es un teorema en el sistema S.
Está claro que en los sistemas formales axiomáticos sin reglas de inferencia, los únicos
teoremas son los axiomas, y todas las derivaciones en ellos tienen un solo elemento. Vol-
viendo al sistema formal axiomático en el que venimos trabajando, parece que las fórmulas
aba y bababa no son teoremas. Efectivamente, no lo son, y podemos demostrarlo. Para
demostrar que no son teoremas, se debe mostrar que ninguna derivación en el sistema
tiene como último elemento a una de esas fórmulas. No basta probar con unas cuantas
derivaciones y ver que no terminan con la fórmula buscada, porque eso no asegura que no
exista otra derivación que sí lo haga. Es por eso que debemos recurrir a propiedades de
todas las derivaciones, y demostrar que una derivación que terminara con la fórmula aba,
por ejemplo, carecería de una propiedad que todas las derivaciones en el sistema tienen.
Observando diagrama que presentamos, no es difícil conjeturar que todos los teoremas
de este sistema son fórmulas que constan de 2, o de 5, o de 8, o de 11, o en general, de
un número k de símbolos, donde k es un múltiplo de 3 más 2. Si lográsemos probar que
todos los teoremas tienen esa propiedad, inmediatamente quedaría probado que ni aba ni
bababa son teoremas, ya que la cantidad de símbolos en las dos fórmulas es múltiplo de 3.

Inducción sobre la longitud de las derivaciones


El método estándar para probar algo sobre todos los teoremas es muy parecido al
que se usaba para probar algo sobre todas las fórmulas del lenguaje. Allí se partía de las
fórmulas más básicas y se mostraba que la propiedad considerada se trasmitía por las
reglas de formación. Cuando trabajamos con sistemas formales axiomáticos, probamos
que los teoremas más simples (los axiomas) cumplen la propiedad, y que la propiedad se
7.7 Aparatos deductivos 189

trasmite por las reglas de inferencia. Así queda probado que todos los teoremas tienen la
propiedad. Esto equivale a demostrar que los teoremas que se pueden obtener por medio
de derivaciones de longitud mínima cumplen la propiedad, y que, si todos los teoremas
que se obtienen con derivaciones de longitud j cumplen la propiedad, los teoremas que se
obtienen por medio de derivaciones de longitud j + 1 también cumplen la propiedad. La
longitud se mide, naturalmente, como la cantidad de fórmulas en la derivación.

inducción sobre derivaciones en un sistema formal axiomático


si se demuestra que:
los axiomas cumplen una propiedad P.
cada vez que se aplica una regla de inferencia a fórmulas que cumplen la
propiedad P, se obtiene una fórmula que cumple la propiedad P
queda demostrado que todos los teoremas del sistema formal axiomático cumplen
la propiedad P.

De esta manera, es sencillo probar que aba y bababa no son teoremas:

El axioma, ab, consta de 0+2, o sea, un múltiplo de 3 (el cero) más dos símbolos.
Supongamos que la fórmula A consta de un múltiplo de 3 más 2 símbolos. Es decir, la
cantidad de símbolos de A es 3k + 2 para algún número natural k.
Si le aplicamos
La regla de inferencia 1, lo que hacemos es agregarle la cadena aba al final, que
consta de 3 símbolos. La cantidad total de símbolos de la fórmula obtenida es
3k + 2 + 3 = 3(k + 1) + 2, o sea, un múltiplo de 3 más 2.
La regla de inferencia 2, la cantidad de símbolos no se altera, o sea que en la
fórmula que obtenemos también hay 3k + 2, un múltiplo de 3 más 2 símbolos.

Por lo tanto, todos los teoremas tienen un múltiplo de 3 más 2 símbolos. Como aba y
bababa no tienen una cantidad de símbolos que se pueda expresar como un múltiplo de 3
más dos, no son teoremas de S1 .

Un sistema axiomático para la lógica proposicional


Existen sistemas axiomáticos para la lógica proposicional, y en esta sección presentaremos
uno. Este sistema no funciona sobre el lenguaje LP, sino sobre uno que además de las
letras proposicionales y paréntesis, solo consta de los conectivos ¬ y →, que constituyen un
conjunto adecuado. La sintaxis es la misma que en LP restringiéndose únicamente a esos
conectivos.
Los axiomas son todas las fórmulas de las siguientes formas:

(1) A → (B → A)
(2) (A → (B → C)) → ((A → B) → (A → C))
(3) (¬A → ¬B) → ((¬A → B) → A)

Esto nos da esquemas de axiomas que llamaremos por su número. El lector podrá
190 Capítulo 7. Consecuencia sintáctica

comprobar que las fórmulas con esas formas son tautologías, y con más trabajo, que son
teoremas en el sistema de deducción natural.
La única regla de inferencia es la eliminación del condicional o modus ponens(abreviado
MP).
Se puede demostrar que este sistema tiene la misma potencia que el nuestro, es decir, si
con este sistema se puede derivar una fórmula a partir de un conjunto –o sea, si existe una
derivación en la cual, además de axiomas y resultados de aplicar MP a fórmulas anteriores
podemos introducir en cualquier punto fórmulas del conjunto–, con el nuestro de deducción
natural también se puede; y si con nuestro sistema de deducción natural se puede derivar
una fórmula, con este sistema axiomático se puede derivar una fórmula equivalente.
Para que se haga una idea de lo poco intuitivo que puede ser trabajar en sistemas
axiomáticos, vamos a presentar una derivación de un teorema nada complejo, la fórmula
p1 → p1

1 p1 → (p1 → p1 ) Axioma, esq. (1)


2 p1 → ((p1 → p1 ) → p1 ) Axioma, esq. (1)
3 (p1 → ((p1 → p1 ) → p1 )) → ((p1 → (p1 → p1 )) → (p1 → p1 )) Axioma, esq. (2)
4 (p1 → (p1 → p1 )) → (p1 → p1 ) MP 2,3
5 p1 → p1 MP, 1,4

Espero que después de ver esto, por más que el lector haya sufrido con la deducción
natural, se sienta agradecido por la elección del sistema.

7.8 Excurso filosófico: Lógica intuicionista


Vamos a terminar este extenso capítulo haciendo un excurso que resultará de interés
para aquellos preocupados por ciertos problemas filosóficos.
La lógica que hemos estudiado es parte de la Lógica clásica, y esta no es, en modo
alguno, la única lógica que existe. No nos estamos refiriendo a la posibilidad de cambiar
nuestro lenguaje en modos que veremos en los próximos capítulos, con el objetivo de poder
formalizar clases de inferencias más amplias que las que actualmente están a nuestro alcance.
Nos referimos a lógicas con el mismo lenguaje pero con reglas de inferencia diferentes,
siendo esta diferencia de una profundidad tal que modifica la relación de consecuencia
sintáctica, haciendo que derivaciones correctas en nuestra lógica no sean tenidas como
correctas en esas otras lógicas.
El trasfondo de esto es que no todas las personas creen que los argumentos que validamos
como correctos lo sean. Algunos consideran que hay algo profundamente equivocado en la
forma en que hemos planteado las cosas.
Un ejemplo prominente de esto está dado por el intuicionismo, una corriente lógica que
rechaza algunas de las reglas de inferencia que hemos aceptado.
Más allá de que el intuicionismo se pueda rastrear, en su desarrollo, al menos hasta
Kant, haremos una exposición prescindente de los aspectos históricos y centrada en las
motivaciones filosóficas.
El problema se presenta en forma nítida en la filosofía de la matemática. Simplificando
mucho y hablando grosso modo, hay dos al menos formas de considerar los objetos del
discurso matemático (hay más, pero solo nos interesan, para propósitos explicativos, estas
7.8 Excurso filosófico: Lógica intuicionista 191

dos). Según la primera, que corresponde al llamado platonismo, los objetos del discurso
matemático son objetos reales, con existencia objetiva, del mismo modo que los objetos
físicos para un realista acerca del mundo externo. Así como la existencia de la luna no
depende de que nadie la perciba o la piense -según el realista-, los objetos matemáticos
existen con esa misma independencia objetiva. Según el platónico, cuando decimos

El gato está sobre el sillón.

y lo que decimos es verdadero, existe una cosa llamada “gato”, existe una cosa llamada
“sillón” y la primera está con la segunda en una relación que llamamos “estar sobre”.
Del mismo modo, cuando decimos

Siete es mayor que tres.

y lo que decimos es verdadero, existe una cosa llamada “siete”, existe una cosa llamada
“tres” y la primera está con la segunda en una relación que llamamos “mayor que”.
O sea, el platónico aboga por algo muy deseable: una uniformidad semántica en la
matemática y fuera de ella, y lo hace desde una perspectiva realista. Una cita del eminente
matemático G. H. Hardy, tomada de [Har12] dejará en negro sobre blanco lo que se postula
desde esta perspectiva:

Creo que la realidad matemática yace fuera de nosotros, que nuestra función
es descubrirla u observarla, y que los teoremas que demostramos, y que descri-
bimos en forma grandilocuente como nuestras “creaciones” son simplemente las
notas de nuestras observaciones.

Es esta una presentación del platonismo11 primigenio, por así decirlo, que ha sido muy
atacado12 y por eso muy pocos filósofos lo sostienen en esta forma.
Sin embargo, es interesante considerar la razón principal que expuso Kurt Gödel, el
mayor lógico del siglo XX y uno de los tres grandes de la historia, junto con Aristóteles y
Frege, para apoyar ese punto de vista.
Se resume en esta cita, de [Göd90]:

Me parece que la suposición de tales objetos [se refiere a los objetos mate-
máticos] es tan legítima como la suposición de los cuerpos físicos y que hay
tanta razón para creer en su existencia [como en la de estos]. Son necesarios para
obtener un sistema de matemática satisfactorio así como los cuerpos físicos son
necesarios para una teoría satisfactoria de nuestras percepciones sensoriales y en
ambos casos es imposible interpretar las proposiciones que se desea expresar
sobre esas entidades como proposiciones acerca de los “datos”, i. e., en el último
caso como sobre las percepciones mismas.
11 Debe tenerse en cuenta que “platonismo” no quiere decir “perteneciente a la filosofía de Platón”, sino que
refiere a un método filosófico de estructurar soluciones a diversos problemas consistente en la postulación de
objetos abstractos, o sea, sin determinación espaciotemporal. Es posible ser platónico al considerar problemas
que jamás preocuparon a Platón o aceptando soluciones diferentes a las aceptadas por él.
12 Quizá los dos ataques más fuertes que ha recibido el platonismo matemático en esta forma se deban a la

misma persona: Paul Benacerraf, quien en sendos artículos [Ben65] y [Ben73] plantea dos desafíos al platonismo
matemático tradicional que han llevado a modificaciones de la teoría dada la fuerza de sus argumentos.
192 Capítulo 7. Consecuencia sintáctica

Según Gödel, la postulación de la existencia del gato y el sillón es razonable dado


que es la mejor explicación de nuestras experiencias. No solamente vemos el gato y el
sillón aunque no queramos verlos. Permanecen y otros nos comunican que también los
ven. En esas circunstancias, la postulación de la existencia es la mejor explicación de lo que
experimentamos.
Con los objetos matemáticos pasa algo idéntico, según Gödel, solo que no a través del
aparato perceptual. Pero de algún modo sabemos que siete es mayor que tres, no podemos
hacer que no sepamos eso, y otros nos comunican lo mismo.
El platonismo matemático, muy especialmente en esta versión, no tiene mucho pre-
dicamento entre filósofos, aunque quizá sí entre matemáticos13 . Su debilidad mayor está
en la dificultad de proveer una epistemología razonable, una explicación de los modos
que los humanos, seres espaciotemporales, tenemos de conocer esos objetos que no tienen
determinación espaciotemporal.
Frente a esta concepción, que implica que el universo no está constituido únicamente
por objetos físicos, se levanta otra que sostiene que los objetos matemáticos no tienen el tipo
de existencia objetiva que el platónico cree que tienen, sino que son construcciones, o sea
objetos de algún modo dependientes de las mentes.
No quiere decir esto que cada individuo, cada mente, pueda hacer la matemática que
quiera, como si hacer matemática y escribir novelas fuese lo mismo. Una vez que se ha
realizado una construcción, es esa la construcción “correcta”. Pero en tanto no ha sido
realizada, está indeterminada.
O sea, para el platónico, la realidad matemática está completa y determinada, y el
matemático la explora y reporta sus descubrimientos, del mismo modo que un explorador
ingresa en un continente desconocido y va reportando sus observaciones, describiéndolo.
Para el intuicionista, la realidad matemática no está acabada y completa sino en cons-
trucción. El intuicionismo no tiene, por tanto, problemas para proveer una epistemología
adecuada para el conocimiento matemático. Sus problemas filosóficos son de otra índole y
emergen frente a la aparente necesidad y atemporalidad de los asertos matemáticos.
Pensándolo bien, la divergencia planteada no debería acarrear profundos desacuerdos,
de no ser por algo que se introduce en la matemática naturalmente y es la pesadilla de los
filósofos: el infinito. Si la realidad matemática fuera finita, la actividad constructiva podría
llegar a abarcarla toda, y no habría desacuerdo alguno.
Pero los matemáticos tratan objetos infinitos (por ejemplo, el conjunto de los números
naturales) como si fueran realidades acabadas, completas, y esto es inadmisible para los
intuicionistas, porque entienden, con toda razón, que los procesos constructivos infinitos no
se pueden acabar nunca, y en forma más discutible, agregan que ni siquiera idealmente. O
sea, para el intuicionista no existe nada como el conjunto de todos los números naturales.
Existen sí conjuntos de naturales que tienen tantos elementos como se quiera, pero son
siempre finitos. Según él, cuando un matemático dice que el conjunto de números naturales
es infinito, no quiere decir que hay un objeto con infinitos elementos, sino que dado cualquier
conjunto finito de números naturales, se puede construir un número natural que no está en
el conjunto. Básicamente, los intuicionistas rechazan los infinitos actuales, aceptando solo el infinito
13 Se suele decir que los matemáticos son platónicos fanáticos mientras hacen matemática pero luego, en el

bar, cuando se encuentran con el filósofo, frente a las debilidades del platonismo lo abandonan declarativamente
y se pasan a algo más políticamente correcto. Debe ser una infamia.
7.8 Excurso filosófico: Lógica intuicionista 193

potencial.
Este movimiento de fortísimos tintes antimetafísicos se complementa con el desinterés
semántico acerca de la noción de verdad, al menos en tanto “verdad” signifique lo que
significa para el platónico. Veamos la motivación para esto, considerando un problema
abierto en la matemática.
Un número perfecto es un número natural igual a la suma de sus divisores diferentes a
él. Por ejemplo, 6 es perfecto, ya que sus divisores diferentes de 6 son 1, 2 y 3 y 1+2+3=6.
28 es perfecto, ya que sus divisores diferentes de 28 son 1, 2, 4, 7 y 14 y 1+2+4+7+14=28.
Al momento de escribir estas líneas se conocen 49 números perfectos. Todos los números
perfectos conocidos son pares. Nadie sabe si existe algún perfecto impar, ya que nadie ha
demostrado que ser perfecto implique ser par, ni tampoco nadie ha hallado un perfecto
impar.
Frente a esta situación y el enunciado “Existe un número perfecto impar”, el intuicionista
dirá que preguntarse por su verdad es inapropiado. Suponer que la proposición expresada
por ese enunciado es verdadera o falsa es introducir tácitamente la presuposición metafísica
de que el conjunto de los números naturales es una totalidad completa y acabada, y por
supuesto, si es así, entonces el enunciado sería o bien verdadero o bien falso. Pero según el
intuicionista no es así, no hay una totalidad de números naturales completa y acabada en la
cual hay o no hay un perfecto impar.
Se comprende entonces la necesidad que tiene el intuicionista de rechazar nuestra lógica.
Sea p la proposición
Existe un número perfecto impar.
Nosotros, a partir de nuestra lógica, la clásica, y el matemático que adhiere a ella (los
llamaremos “matemáticos clásicos”, mote que incluye claramente a los platónicos pero no
solo a ellos), aceptamos que no sabemos si p es verdadera o si p es falsa. Pero a la vez
sostenemos que sabemos que la proposición
(1) Existe un número perfecto impar o no existe un número perfecto impar.
es verdadera.
Y si nos preguntan por qué, respondemos que simplemente lo sabemos por lógica.
Nuestra lógica tiene dos formas de afirmar eso: p ∨ ¬p, que es la representación formal de
(1), es tanto una tautología como un teorema, según ya hemos visto.
Frente a esto, el intuicionista dirá que estamos haciendo todo mal. Que partimos de un
concepto de verdad metafísico en forma inadvertida y eso ha contaminado todo nuestro
razonamiento. La validez es un concepto absolutamente dependiente de ese concepto estrafa-
lario de verdad y nuestra teoremicidad se debe a un sistema de reglas que fueron elegidas
para preservar esa misma validez.
Por supuesto, si esto fuera todo, el intuicionismo no sería más que una crítica a la lógica
clásica, pero es mucho más que eso, debido a que tiene una interesantísima parte propositiva
que vamos a exponer ahora. Si se le pregunta al intuicionista cómo es que hay que razonar
entonces, dado que nuestra lógica es incorrecta, él comenzará insistiendo en el rechazo al
concepto de verdad, y nos dirá:
Mira, olvídate de la verdad. Preocuparse por eso está mal, es un disparate.
No debería preocupar a nadie lo que es verdadero sobre los conjuntos que
194 Capítulo 7. Consecuencia sintáctica

llamamos infinitos, porque sobre esas realidades no acabadas, no hay verdad. En


vez de preocuparnos por las condiciones de verdad de un enunciado, debemos
preocuparnos por las condiciones bajo las cuales podemos sostener un enunciado,
o sea, debemos preocuparnos por las condiciones de asertabilidad. Lo que nos
debe importar no es bajo qué condiciones es verdadera o falsa la proposición,
sino bajo qué condiciones es asertable.
Y si se concede este paso fundamental, el rechazo del cumplimento las condiciones de
verdad como regulador de la aceptación de las proposiciones en favor de las condiciones
de asertabilidad, según lo entiendo, el intuicionista tiene la partida ganada. Veamos cómo
prosigue su argumentación:
En matemática, las condiciones de asertabilidad son las condiciones de prueba o
demostración. Podemos afirmar algo, algo es asertable, cuando ha sido probado.
Obsérvese el movimiento central del intuicionista: está queriendo sustituir los cimientos
del edificio lógico, constituidos por las relaciones de valores de verdad de las proposiciones,
por otros absolutamente epistémicos, referidos a lo demostrable. El punto no es otra cosa que
lo que podemos afirmar, demostrar, saber. Y continúa el intuicionista:
Entonces rechacemos esa semántica basada en la noción de verdad y tomemos
otra, la adecuada para nuestros propósitos, basada en el concepto de demos-
tración o prueba. Esta interpretación del significado de las fórmulas queda
expresada así:

una prueba de A ∧ B es un par de pruebas, una de A y una de B. (o sea, una


conjunción es asertable si y solo si lo son sus dos conyuntos).
una prueba de A ∨ B es una prueba de A o una prueba de B, con indicación de
cuál es la que se posee. (o sea, una disyunción es asertable si y solo si uno
de sus disyuntos, identificable, es asertable).
una prueba de A → B es una construcción que permite transformar toda
prueba de A en una prueba de B. (esta cláusula parece la más difícil de
entender. Significa que un condicional es asertable si y solo si, partiendo
de cualquier prueba del antecedente, es posible construir una prueba del
consecuente).
una prueba de ¬A es una prueba de A → ⊥ para cualquier B. (o sea, la
negación de una proposición A es asertable cuando es posible construir la
prueba de una contradicción a partir de cualquier prueba de la proposición
A).
no hay prueba de ⊥a .
a ⊥ es una constante lógica, que viene a funcionar como una contradicción, es lo no asertable

en circunstancia alguna.

Esta, la llamada interpretación Brouwer – Heyting – Kolmogorov14 (abrevia-


da BHK) es la sólida base que la lógica necesita, libre de dudosos supuestos
14 Tres prominentes intuicionistas.
7.8 Excurso filosófico: Lógica intuicionista 195

metafísicos.

Ahora podemos ver más claramente el rechazo intuicionista a afirmar (1). Para que el
intuicionista aceptara que esta proposición es asertable, debería tener una prueba de uno de
sus disyuntos, con indicación de cuál. Es decir, se debería conocer una prueba de
Existe un número perfecto par.
o una de
No existe un número perfecto par.
pero no se tiene prueba de ninguna de las dos.
Hemos visto que los matemáticos clásicos aceptarán cualquier instancia del tercero
excluido, o sea, cualquier instancia de fórmulas del tipo A ∨ ¬A, mientras que el intuicionista
no lo hará. Esto no quiere decir que el intuicionista rechace todas las instancias, sino solo
aquellas en las que se carece de prueba de ambos disyuntos.
Para evaluar la profundidad del desacuerdo, examinemos las reglas de inferencia que
hemos aceptado, para ver cuáles rechazaría el intuicionista y cuáles aceptaría. En vez de
presentarlas sistemáticamente, podemos dirigirnos a un núcleo del problema prestando
atención a la derivación clásica de la ley de tercero excluido (abreviada LTE). Esa derivación
fue presentada en 7.2, página 167 y es:

1 ¬(A ∨ ¬A)

2 A

3 (A ∨ ¬A) I∨ , 2

4 ((A ∨ ¬A) ∧ ¬(A ∨ ¬A)) I∧ , 3, 1

5 ¬A I¬ , 2–4

6 (A ∨ ¬A) I∨ , 5

7 ((A ∨ ¬A) ∧ ¬(A ∨ ¬A)) I∧ , 6, 1

8 ¬¬(A ∨ ¬A) I¬ , 1–7

9 (A ∨ ¬A) E¬ , 8

Obviamente, el intuicionista debe rechazar alguna de las reglas que ponemos en juego en
esta derivación, so pena de aceptar LTE, lo que no se puede permitir. La derivación se abre
con un supuesto. El intuicionista no tiene ningún problema con la posibilidad de hacerlos,
solo que al suponer una fórmula A lo interpreta como la suposición de que se tiene una
prueba de A. La primera regla que se aplica es I∨ , que tiene la forma

Regla I∨ i Regla I∨ d
A A
B∨A A∨B
196 Capítulo 7. Consecuencia sintáctica

Es claro que se corresponde exactamente con lo que el intuicionista requiere para poder
afirmar una disyunción. Bajo su interpretación, siempre que se tiene una prueba de A se
puede asertar A ∨ B o B ∨ A. De modo que no está aquí el problema.
La siguiente regla que se aplica es I∧ , cuya forma

Regla I∧
A
B
A∧B

es inobjetable por parte del intuicionista: Recoge la idea, una vez reinterpretada, de que
una prueba de A y una prueba de B constituyen una prueba de A ∧ B. Este tampoco es el
problema.
La siguiente regla en ser aplicada es I¬ , cuya forma

Regla I¬
[A]
..
.
B ∧ ¬B
¬A

se adapta perfectamente a las exigencias intuicionistas. Reinterpretada, expresa que a partir


de una prueba de A se puede construir una prueba de una contradicción (la construcción,
obviamente, es lo que queda en los puntos suspensivos). Por lo tanto, tampoco es este el
problema.
Y nos queda una única regla utilizada en la derivación, regla que el intuicionista debe
rechazar, si no quiere aceptar la asertabilidad de LTE en toda su generalidad. Esta regla es
E¬ :

Regla E¬
¬¬A
A

¿Cómo puede ser que alguien no acepte que de la doble negación de A se sigue A? ¿No
es claro que si la negación de la negación de A es verdadera, la negación de A es falsa, y
consecuentemente, A es verdadera?
Quien eso pregunta olvida completamente el terreno sobre el que se situó el intuicionista
desde el principio, rechazando hablar acerca de la verdad. La pregunta con sentido para
el intuicionista es: Suponiendo que se puede asertar la doble negación de A ¿es asertable
A? Para contestarla en el marco intuicionista, debemos recordar que podemos asertar A si
tenemos una prueba de A. ¿Y de qué partimos? Partimos de lo siguiente: es asertable ¬¬A.
Esto quiere decir (recordando la cláusula pertinente de BHK) que tenemos una construcción
c1 que, a partir de una prueba de ¬A nos da una contradicción. Y una prueba de ¬A es una
construcción c2 que, a partir de una prueba de A nos da una contradicción.
O sea, juntando todo esto, lo que afirmamos desde el punto de vista intuicionista al
afirmar ¬¬A es que tenemos una construcción que, dada una construcción cualquiera que
7.8 Excurso filosófico: Lógica intuicionista 197

produzca una contradicción a partir de una prueba de A, produce una contradicción. Lo


podemos ver así, dada la definición de negación intuicionista: ¬¬A es (A → ⊥) → ⊥. El
intuicionista dirá que a partir de eso es necesario negar la negación de A, ya que la negación
de A lleva a contradicción. Pero no aceptará que eso obligue a aceptar A, ya que no provee
de por sí una prueba de A. Solo sabemos que si suponemos que tener una prueba de A
lleva a contradicción, podemos construir una contradicción. Pero en todo esto las pruebas
de A brillan por su ausencia y por lo tanto el intuicionista no se ve obligado a aceptar A.

De este modo el intuicionista rechaza la regla E¬ . Quizá el lector esté pensando que si
bien la derivación de LTE que mostramos necesita de E¬ , tal vez haya alguna derivación de
LTE que prescinda de ella. No es así, se puede demostrar que todas las derivaciones de LTE
posibles en el sistema de deducción natural clásico utilizan en algún paso E¬ . De hecho, los
intuicionistas aceptan todas las demás reglas junto con ECQ (la regla que permite pasar a cualquier
fórmula a partir de una contradicción), la regla de repetición (la que permite repetir cualquier fórmula
anterior de una secuencia que no haya sido obtenida bajo un supuesto ya cerrado) y eso constituye el
aparato deductivo de la lógica proposicional intuicionista. De esta manera, todo razonamiento
intuicionista será aceptable para un clásico, pero no recíprocamente.

Veamos un ejemplo famoso de un razonamiento perfectamente aceptable para un clásico


pero que sería rechazado por un intuicionista:

 Ejemplo 7.7 teorema:

Existen dos números irracionales α y β tales que αβ es racional.

demostración:
√ √2
Consideremos el número 2 . Este número es racional o no es racional (es irracional).

Si es racional, entonces existen dos números irracionales, α y β, ambos

iguales a 2 tales
√ 2 √
que αβ es racional. Si es irracional,

entonces como se cumple ( 2 ) 2 = 2, existen dos
√ 2 √
números irracionales, α = 2 y β = 2 tales que αβ es racional. Como en ambos casos
existen α y β irracionales tales que αβ es racional, se concluye la tesis.

Como decíamos, esta demostración es totalmente correcta desde el punto de vista clásico,
y es inaceptable desde el punto de vista intuicionista.√ Sin formalizarla, podemos ver que el
√ 2
intuicionista se negará a aceptar “Este número ( 2 ) es racional o no es racional” si no
dispone una prueba de que lo es o bien una prueba de que no lo es. En ausencia de ambas,
no aceptará la instancia de LTE que la proposición representa.

Otro punto de discrepancia importantísimo entre clásicos e intuicionistas afecta una


estrategia demostrativa en forma profunda. Supongamos que un clásico y un intuicionista
quieren probar A. El clásico supone la negación de A, ¬A, y llega con métodos aceptables
para el intuicionista a una contradicción. Afirma que esto es una prueba de A. ¿Aceptará
esa prueba de A el intuicionista?

La respuesta es "no" por lo siguiente: El clásico ha hecho esto


198 Capítulo 7. Consecuencia sintáctica

1 ¬A
.. ..
. .

n B ∧ ¬B

n+1 ¬¬A I¬ , 1–n

n+2 A E¬ , n + 1

y por supuesto, el intuicionista lo rechazará debido a la presencia de la regla que no acepta


justificando la última línea. Es decir, el intuicionista dirá que todo que se ha demostrado es
la negación de la negación de A, y que luego de la línea donde eso se establece, la derivación
desbarra. De este modo, esta regla derivada ha llegado a llamarse “absurdo clásico”

Regla Absurdo clásico


[¬A]
..
.
B ∧ ¬B
A

y no es aceptada por los intuicionistas.


¿Qué consecuencias tiene todo esto? Los intuicionistas, convencidos de la inadecuación
de la lógica clásica para la actividad matemática abogan por una reforma de ella, que sería
más o menos profunda según los campos de que se trate. Por ejemplo, en aritmética no sería
demasiado importante, pero en análisis sería profundísima. La reacción de los matemáticos
clásicos ha sido en general ver al intuicionismo como una teoría matemática más, pero en
filosofía los debates han sido mucho más agudos. Esto es así porque la lógica intuicionista
es una lógica adecuada a todas las realidades indeterminadas, inacabadas, mientras que la
lógica clásica se adecua perfectamente a realidades determinadas, ya que esas realidades
imponen las condiciones de verdad de todo lo que se diga sobre ellas. Por lo tanto, la
lógica intuicionista viene como anillo al dedo a varias clases de antirrealismos, no solo en
matemática. Un antirrealista con respecto al pasado, por ejemplo, puede negarse a aceptar
la proposición “Napoleón vio un gato gris el día de su quinto cumpleaños o Napoleón no
vio un gato gris el día de su quinto cumpleaños” por razones estrictamente análogas a las
√ √2
que tendría el intuicionista para negarse a aceptar que “ 2 es racional o no es racional.”
El lector interesado en conocer más sobre intuicionismo puede leer con mucho provecho
los estupendos libros [Dum99] y [Dum00].
Espero que al lector no le dé un ataque de antirrealismo justo ahora, cuando retomaremos
el estudio de la lógica clásica.
7.9 Ejercicios 199

7.9 Ejercicios
1. Demostrar:
a) {(p1 → p2 ), (p3 → p4 ), (p1 ∧ p3 )} ` (p2 ∧ p4 )
b) {(p1 → p2 ), p1 , (p2 → p3 )} ` (p3 ∨ p5 )
c) {(p1 ∧ p2 ), ((p1 ∨ p3 ) → p8 )} ` (p1 ∧ p8 )
d) {(p1 → ((p1 ∧ p2 ) → p3 )), (p1 ∧ p2 )} ` p3
e) {p1 } ` (p2 → ((p2 ∧ p1 ) ∨ p3 ))
f ) {(p1 → p2 ), (p2 → p3 )} ` (p1 → p3 )
g) {((p1 ∧ p2 ) → p3 ), (p1 → p2 )} ` (p1 → ((p1 ∧ p2 ) ∧ p3 ))
h) {(p1 → p2 ), (p1 → (p2 → p3 ))} ` (p1 → p3 )
i) {(p1 → p2 ), (p3 → p4 ), (p1 ∨ p3 )} ` ((p1 ∧ p2 ) ∨ (p3 ∧ p4 ))
j) {(p1 ∨ p2 ), (p1 → p4 ), (p2 → p5 )} ` (p4 ∨ p5 )
k) {(p1 ∧ (p2 ∨ p3 )), (p1 → p4 ), (p2 → (p4 → p6 )), ((p3 ∧ p4 ) → p6 )} ` (p5 ∨ p6 )
l) {(p1 ∨ p2 ), (p3 → ¬p1 ), (p4 → p3 ), (¬p5 → p4 ), (p3 → ¬p2 )} ` p5
m) {(p4 → (p3 → ¬p2 )), p4 , (p3 → p2 )} ` ¬p3
n) {(¬p1 → p2 ), (p3 → (¬p1 → ¬p2 )), p3 } ` p1
ñ) {(p1 → p2 ), ((p2 ∨ p3 ) → p4 ), (p1 → ¬p4 )} ` ¬p1
o) {(p1 → (p2 ∨ p3 )), (p1 → p5 ), (p5 → ¬p2 ), (¬p7 → ¬p3 ), (p7 → ¬p5 )} ` ¬p1
p) {((p1 ∨ p2 ) → (p3 ∨ p4 )), ((p3 ∨ p4 ) → (p5 ∧ p6 )), p1 } ` p5
q) {(p1 ∧ p2 ), (p4 → ¬p2 ), (p3 → ¬p1 )} ` (¬p3 ∧ ¬p4 )
r) {(p1 → (p2 → ¬p3 )), (p1 → p3 )} ` (p1 → ¬p2 )

2. Demostrar que las siguientes reglas pueden aceptarse como derivadas (el estudiante
podrá usarlas apenas lo demuestre).

modus tollens (MT) contraposición transitiva


(A → B) (A → B)
¬B (A → B) (B → C)
¬A (¬B → ¬A) (A → C)

silogismos disyuntivos dilemas disyuntivos de morgan


(A ∨ B) (A ∨ B)
(A ∨ B) (A ∨ B) (A → C) (A → C)
¬A ¬B (B → C) (B → D) ¬(A ∨ B) ¬(A ∧ B)
B A C (C ∨ D) (¬A ∧ ¬B) (¬A ∨ ¬B)
200 Capítulo 7. Consecuencia sintáctica

definición → definición ∧ definición ∨


(A → B) (A → B) (A ∧ B) (A ∧ B) (A ∨ B) (A ∨ B)
¬(A ∧ ¬B) (¬A ∨ B) ¬(A → ¬B) ¬(¬A ∨ ¬B) (¬A → B) ¬(¬A ∧ ¬B)

3. a) Si un teorema es de la forma (A ∨ B), ¿son A y B necesariamente teoremas?


b) Si un teorema es de la forma (A ∧ B), ¿son A y B necesariamente teoremas?

4. Sean A, B y C fórmulas tales que C es consecuencia sintáctica del conjunto {A, B}.
Demostrar que (A → (B → C)) es un teorema.

5. Sea Γ un conjunto de fórmulas tal que:


i) Todos los teoremas pertenecen a Γ .
ii) Para cualesquiera dos fórmulas A y B, si A y (A → B) pertenecen a Γ , entonces B
pertenece a Γ .

a) Mostrar que si A y B pertenecen a Γ , entonces (A∧B) pertenece a Γ .


b) Mostrar que si A y ¬A pertenecen a Γ , entonces toda fórmula del lenguaje LP
pertenece a Γ .

6. ¿Cuántos pasos como mínimo tiene una derivación en deducción natural de un teorema
que tenga diez mil ocurrencias de constantes lógicas?

7. a) Demuestre que la concatenación de dos derivaciones, una a partir de Γ1 y otra a


partir de Γ2 es una derivación a partir de Γ1 ∪ Γ2 .
b) Demuestre que la secuencia que se obtiene al alternar líneas de dos derivaciones
como las de la parte anterior, respetando el orden y sin omitir ninguna es una
derivación a partir de Γ1 ∪ Γ2 .
c) Demuestre que en general, al alterar el orden en una derivación no se obtiene
una derivación.
d) Demuestre que cualquier secuencia finita de fórmulas es una derivación de su
última fórmula a partir de algún conjunto.

8. Demuestre que en la derivación de cualquier teorema se utiliza la introducción del


condicional o de la negación.

9. Dadas las siguientes premisas, elija una de las opciones como conclusión que se
sigue de ellas. Demuestre, traduciendo al lenguaje LP y evaluando la relación de
consecuencia sintáctica, que efectivamente el argumento así formado es correcto
lógicamente.

a) Si hay agua en el planeta entonces es probable que haya vida en él.


O no hay actividad atmosférica en el planeta o no hay agua en él.
7.9 Ejercicios 201

No es probable que haya vida en el planeta.

Posibles conclusiones:

Hay actividad atmosférica en el planeta.


No hay actividad atmosférica en el planeta.
No hay agua en el planeta.

b) Si hay viento entonces, si no llueve, el incendio se extenderá.


Hay viento o no llueve.
Es necesario que la lectura del higrómetro descienda para que no llueva.
La lectura del higrómetro no desciende.

Posibles conclusiones:

El incendio se extenderá.
Si no llueve, el incendio se extenderá.
El incendio no se extenderá.

10. Demuestre que son equivalentes:


a) Para ninguna fórmula A, A ∧ ¬A es teorema.
b) Existe una fórmula A que no es teorema.
c) Existen Γ y A tales que Γ 0 A

11. a) Se ha atribuido a un político la frase: “Si [se] es de izquierda no [se] es corrup-


to y si [se] es corrupto no [se] es de izquierda”. Claramente, desde el punto
de vista de la lógica proposicional clásica se trata de un pleonasmo, ya que
{(p → ¬q)} ` (q → ¬p), de modo que la segunda mitad de la frase se puede
inferir de la primera. ¿Sucede lo mismo en lógica intuicionista? Justifique.
b) ¿Sería el mismo caso si hubiera dicho una instancia de “Si no se es A se es B y si
no se es B se es A”? Justifique.

12. Suponga que en un sistema formal existe la regla de inferencia

A
A

¿Es necesariamente esta regla inútil, es decir, si tenemos un sistema que incluye esta
regla y consideramos el sistema que se obtiene al eliminarla, ambos sistemas tendrán
los mismos teoremas?
III
Lógica de primer orden
8 Introducción; . . . . . . . . . . . . . . . . . . . . . . . 205

9 Sintaxis;. . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
9.1 Alfabeto
9.2 Fórmulas
9.3 El teorema de lectura única
9.4 Árbol de formación de una fórmula
9.5 Lenguajes de Primer Orden
9.6 Ejercicios

10 Semántica; . . . . . . . . . . . . . . . . . . . . . . . . . 225
10.1 Interpretaciones
10.2 Estructuras
10.3 Valores de verdad bajo una interpretación
10.4 Modelos, fórmulas válidas, tautologías
10.5 Conjuntos satisfacibles e insatisfacibles
10.6 Ejercicios

11 LPO y lenguaje natural; . . . . . . . . . . . . 249


11.1 La elección de los predicados
11.2 La cuantificación
11.3 En la práctica
11.4 La igualdad
11.5 Excurso filosófico: Descripciones definidas según Rus-
sell
11.6 Excurso filosófico: Una versión del argumento onto-
lógico
11.7 Ejercicios

12 Consecuencia semántica; . . . . . . . . . . . 271


12.1 Definición y primeros ejemplos
12.2 Propiedades de la consecuencia semántica en primer
orden
12.3 La consecuencia semántica y la corrección argumen-
tal
12.4 Excurso filosófico: Lógica aristotélica y crítica de Rus-
sell
12.5 Ejercicios

13 Consecuencia sintáctica;. . . . . . . . . . . . 293


13.1 Las reglas de inferencia
13.2 El sistema de deducción natural para LPO
13.3 Consecuencia sintáctica
13.4 Heurística
13.5 Propiedades de la consecuencia sintáctica
13.6 Excurso filosófico: Contextos indirectos
13.7 Ejercicios
8 | Introducción

n los capítulos anteriores hemos presentado la lógica proposicional. A partir de

E aquí se nos abren opciones acerca de cómo proseguir nuestro estudio. Una posibilidad
es examinar características generales de esa lógica, como la corrección y la completitud,
que son cuestiones acerca de las relaciones entre la consecuencia semántica y la consecuencia
sintáctica. No tomaremos esa dirección ahora –lo dejaremos para más adelante– sino que
daremos las motivaciones que tenemos para estudiar otra lógica, que es lo que haremos en
esta parte del curso.
Desde nuestro punto de vista, la lógica proposicional representa una excelente herra-
mienta para distinguir algunos argumentos como válidos. Esto debe ser visto como una
limitación de esta lógica. No porque pretendamos construir una lógica que permita resol-
ver el problema de la validez para todos los argumentos, sino porque existen inferencias
muy comunes que son válidas pero no pueden ser clasificadas como tales utilizando la
lógica proposicional. Para ejemplificar lo que acabamos de decir, examinemos el siguiente
argumento:

Si tenemos conocimiento, entonces o algunas cosas son


conocidas sin prueba o podemos probar toda premisa me-
diante premisas previas, y así sucesivamente.
No podemos probar toda premisa mediante premisas pre-
vias y así sucesivamente pero tenemos conocimiento.

Algunas cosas son conocidas sin prueba.

Este argumento es válido y esto puede ser determinado utilizando el instrumental de la


lógica proposicional. Sea

p : Tenemos conocimiento.
q : Algunas cosas son conocidas sin prueba.
r : Podemos probar toda premisa mediante premisasprevias y así sucesivamente.

Como q es consecuencia tanto semántica como sintáctica de {(p → (q ∨ r)), (¬r ∧ p)},
podemos afirmar que el argumento es válido con el instrumental proporcionado por la
lógica proposicional.
El argumento que acabamos de presentar es un ejemplo profesoral, especialmente
preparado para que la lógica proposicional capture su validez. Una minúscula modificación
206 Capítulo 8. Introducción

hará que obtengamos otro, igualmente válido, pero cuya validez sea imposible de establecer
con ese instrumental:
Si tenemos conocimiento, entonces o los axiomas de la
geometría son conocidos sin prueba o podemos probar toda
premisa mediante premisas previas, y así sucesivamente.
No podemos probar toda premisa mediante premisas pre-
vias y así sucesivamente pero tenemos conocimiento.

Algunas cosas son conocidas sin prueba.

Es claro que este argumento es válido: el lector podrá comprobar que la proposición
Los axiomas de la geometría son conocidos sin prueba es consecuencia lógica del conjunto de
premisas1 . Y a su vez, Algunas cosas son conocidas sin prueba es consecuencia lógica de Los
axiomas de la geometría son conocidos sin prueba. Por lo tanto, el argumento es válido. Sin
embargo, su validez no queda capturada por el instrumental de la lógica proposicional. Sea
s : Los axiomas de la geometría son conocidos sin prueba.
Aunque el argumento es válido, no se cumple {(p → (s ∨ r)), (¬r ∧ p)} |= q. En realidad
no tenemos nada en la lógica proposicional que capture la validez de esa inferencia que
hicimos según la cual si algo se cumple para un ente en particular (en este caso, se cumple
que conocemos sin prueba esos entes particulares que son los axiomas de la geometría),
entonces ese algo se cumple para algunos entes.
Tal vez el lector pueda pensar que estos argumentos en los que la validez reposa en
último término en constantes lógicas que quedan representadas en el lenguaje natural
por palabras como algún, algunos, todos, ninguno, etc., son eficazmente tratados por la
silogística, que es la lógica desarrollada por Aristóteles y cultivada durante casi toda la
historia de la disciplina en Occidente. Y parcialmente, el lector tendría razón si así pensara.
El archiconocido argumento Todos los hombres son mortales. Sócrates es hombre. Por lo tanto,
Sócrates es mortal, que tanta tiza ha consumido, es por supuesto válido. Su validez no se
captura con la lógica proposicional (verifíquelo el lector) y sí con la silogística. Sin embargo,
la silogística no captura la validez de algunos argumentos tratables mediante la lógica
proposicional. Además de eso, existen otros argumentos muy sencillos cuya validez no
queda certificada por ninguna de las dos lógicas que venimos mencionando. Por ejemplo:
Hipatia es una perra.
Hipatia tiene dos collares.
Hay una perra que tiene más de un collar.
Nuestro objetivo en el resto del curso será el estudio de una lógica que nos permita tratar
con todos estos argumentos en forma eficaz, es decir, que de alguna manera subsumirá a la
lógica proposicional, a la silogística y además podrá tratar con argumentos inaccesibles a
cualquiera de ellas2 . El recorrido a realizar será el mismo que el que hemos seguido para
1Y esto puede ser verificado con el instrumental de la lógica proposicional.
2 En cuanto a la potencia de la lógica que vamos a estudiar hay filósofos que afirman que es suficientemente
potente como para capturar la validez de todos los argumentos matemáticos, lo que obviamente no es poco.
Esta afirmación es conocida como Tesis de Hilbert.
207

la lógica proposicional: el establecimiento de la sintaxis, la semántica, y el estudio de dos


modos formales de capturar la consecuencia lógica: las relaciones de consecuencia semántica
y de consecuencia sintáctica. Como el aparato de la lógica proposicional se incorpora en
enorme medida en lo que sigue, en general necesitaremos exposiciones y razonamientos
más breves, ya que conceptualmente hemos hecho un largo camino totalmente aprovechable
de aquí en adelante.
La lógica que estudiaremos se llama Lógica de predicados de primer orden o simplemente
Lógica de primer orden y vio la luz en un trabajo de Frege llamado Conceptografía, publicado
en 1879 [Fre72], cuya importancia es difícil de exagerar. Puede parecer curioso que una
lógica que permita tratar argumentos tan sencillos como los presentados demorara dos mil
trescientos años en aparecer desde el surgimiento de la Lógica como ciencia y más aun que
las mentes más avisadas hayan podido decir cosas como

Que la lógica ha tomado este camino seguro desde los tiempos más antiguos
es algo que puede inferirse del hecho de que no ha necesitado dar ningún
paso atrás desde Aristóteles, salvo que se quieran considerar como correcciones
la supresión de ciertas sutilezas innecesarias o la clarificación de lo expuesto,
aspectos que afectan a la elegancia, más que a la certeza de la ciencia. Lo curioso
de la lógica es que tampoco haya sido capaz, hasta hoy, de avanzar un solo paso.
Según todas las apariencias se halla, pues, definitivamente concluida.3 [Kan98]

Cuando Kant escribía esto, en las primeras páginas de un libro repleto de complejísimos
argumentos, la lógica conocida por la humanidad era incapaz de validar argumentos tan
simples que un niño de cinco años comprende que son correctos.

3 Seguramente el lector esté comenzando sus estudios de Filosofía. Kant es un autor inevitable en su
formación. No está de más advertirle que no es un autor particularmente claro. Por ejemplo, este texto parece
clarísimo, pero ¿tendría a bien alguien explicarme cómo es posible un camino sin un paso atrás y sin un paso
adelante?
9 | Sintaxis

ara enfrentar un proyecto tan ambicioso como el que acabamos de plantear debe-

P mos empezar casi desde cero. Esto significa construir un lenguaje formal adecuado a
nuestros propósitos, y por lo tanto, la primera tarea a emprender consiste en establecer
el alfabeto, para luego determinarlo mediante la sintaxis.

9.1 Alfabeto
La elección del alfabeto estará guiada por la expresividad que deseamos tenga nuestro
lenguaje. Investiguemos qué cosas deseamos poder representar con él.
Considere el silogismo más famoso de la historia:

Todos los hombres son mortales.


Sócrates es hombre.
Sócrates es mortal.
La incapacidad de la lógica proposicional para capturar la validez de ese argumento está
íntimamente relacionada con el hecho de que en ella no podemos discernir que el mismo
nombre, “Sócrates”, aparece en una premisa y en la conclusión. (Observe que es crucial para
la validez del argumento que el nombre sea el mismo. Si dejamos inalteradas las premisas y
en la conclusión cambiamos “Sócrates” por “Protágoras”, el argumento así obtenido no es
válido). Necesitamos entonces disponer de medios para desagregar los constituyentes de
proposiciones en una forma que va más allá de las posibilidades de la lógica proposicional.
Por lo dicho, es claro que necesitamos símbolos aptos para funcionar como nombres, es decir,
que serán introducidos en el alfabeto con la idea de que puedan ponerse en correspondencia
con objetos arbitrarios, tal y como los nombres en el lenguaje natural. Nuestro alfabeto nos
proveerá entonces de símbolos que en él incluiremos con ese propósito. Estos símbolos serán
llamados constantes de individuo (o simplemente constantes), y su grafía será una letra “c”
minúscula subindizada por un numeral natural. De esta manera, los símbolos c4 , c1324 , c0 ,
etc., pertenecen al alfabeto del lenguaje formal de la lógica de primer orden.

el alfabeto de la lógica de primer orden incluirá los símbolos c0 , c1 , c2 , . . . y en


general, toda c subindizada con un numeral natural.

Por supuesto, es necesario que tengamos además la capacidad de expresar la adscripción


a Sócrates de su calidad de hombre. Esto puede verse como la expresión de que Sócrates tiene
una determinada propiedad o que Sócrates pertenece a un cierto conjunto. La propiedad en
cuestión sería la de ser hombre, el conjunto sería el conjunto de los seres humanos. Nos va a
210 Capítulo 9. Sintaxis

interesar entonces expresar que un individuo tiene una propiedad o pertenece a un conjunto,
y para hacer esto necesitamos disponer de alguna forma de representar propiedades o
conjuntos. Por ello, incluiremos en nuestro alfabeto infinitos símbolos cuya grafía será
la siguiente: una letra “R”, que como se ve será mayúscula, supraindizada con un 1 (ya
veremos por qué) y subindizada con un numeral natural. Así, los símbolos R124 , R1315 , etc.,
pertenecen al alfabeto de nuestro lenguaje. Si hemos elegido la constante de individuo c14
para representar a Sócrates y el símbolo R1117 para representar la propiedad de ser hombre o
el conjunto de los seres humanos, representaremos la proposición
Sócrates es hombre.
con

R1117 c14

Estos símbolos, de la forma R1n con n natural, serán llamados letras de relación de aridad 1.
Si bien la introducción de las letras de relación de aridad 1 da una gran capacidad
expresiva al lenguaje, esto no es suficiente para llegar a lo que pretendemos.
Supongamos que deseamos expresar “Platón es discípulo de Sócrates”. En cuanto a
los nombres que allí aparecen tenemos el problema resuelto, simplemente elegimos dos
constantes de individuo.
Ahora bien, ¿qué expresa el enunciado? Una posibilidad es pensar que expresa que Platón
tiene una determinada propiedad, a saber, la de ser discípulo de Sócrates. Otra posibilidad es
pensar que expresa que Sócrates tiene una propiedad, a saber, la de ser maestro de Platón.
Y también sería correcto pensar (y esto crucial para el éxito de nuestro proyecto, como
veremos) que expresa que dos individuos se encuentran en una determinada relación, a
saber, la de ser discipulo de.
Observe que esta relación, cuando se da, siempre involucra dos individuos. No es una
propiedad que tenga uno de ellos. Del mismo modo nos va a interesar poder representar
una proposición como ‘‘Juan es hijo de Pedro y de María” en una forma que evidencie una
relación entre tres individuos, la de ser hijo de . . . y de . . .
Así, debemos considerar relaciones que se dan entre una cantidad arbitraria de indivi-
duos. La aridad de una relación es, justamente, la cantidad de individuos entre los que se
da y lo que acabamos de decir significa que nuestro lenguaje tiene que poder representar
relaciones de cualquier aridad. Así, representaremos relaciones de aridad 2, de aridad
3, etc. Lo haremos del modo siguiente: el alfabeto de nuestro lenguaje tendrá todos los
símbolos cuya grafía es una “R” supraindizada con un numeral correspondiente a un natural
positivo y subindizada con un numeral natural cualquiera. Consecuentemente el alfabeto de
24 3
nuestro lenguaje tendrá los símbolos: R21 , R0 , etc., pero no al símbolo R015 . Pretendemos que
el supraíndice indique la aridad de la relación representada, y que tengamos la posibilidad
de representar tantas relaciones de una aridad dada como queramos.
Si elegimos R212 para que esté por la relación ser discípulo de, c7 para que esté por Platón
y c3 por Sócrates, podemos traducir la proposición
Platón es discípulo de Sócrates.
escribiendo

R212 c7 c3
9.1 Alfabeto 211

donde el orden en que se colocan las constantes de individuo es de primordial importancia.


R212 c3 c7 representaría algo muy diferente, a saber, la proposición según la cual Sócrates es
discípulo de Platón.
Habrá observado el lector que estamos tratando las propiedades como relaciones de
aridad 1. Es exactamente así. La propiedad, por ejemplo, de ser rojo puede ser considerada
como una relación que involucra individuos, no pares o ternas de ellos, etc., como quedará
claro al considerar la semántica que propondremos para este lenguaje. Estos símbolos que
acabamos de introducir serán llamados letras de relación o letras de predicado.
Existe una relación de aridad 2 para la cual tendremos un símbolo especial, es decir,
este símbolo, a diferencia de las erres supra y subindizadas, que pueden utilizarse para
denotar cualquier relación, denotará siempre la misma relación. Esta es la igualdad y por
razones que no merecen ser explicadas adoptaremos para ella el símbolo =. Así, podríamos
representar la proposición “Platón es Aristocles” como c1 = c2 donde la primera constante
de individuo funciona como “Platón” y la segunda como “Aristocles”.

el alfabeto de la lógica de primer orden incluirá los símbolos


3 3 3
=, R10 , R11 , R12 , . . . , R20 , R21 , R22 , . . . , R0 , R1 , R2 , . . .

Aun estamos lejos de tener los medios necesarios para alcanzar la expresividad que
deseamos. Es menester para ello tener la posibilidad de expresar que todos los individuos
cumplen algo, ya sea tener una propiedad, o estar en una determinada relación y también
que al menos un individuo cumple algo. Es por esto que introduciremos los cuantificadores y las
variables.
Supongamos que queremos expresar que Sócrates tiene al menos un alumno. Esto se
puede parafrasear diciendo que “existe un individuo que está en la relación ‘ser discípulo de’
con Sócrates”. Introduciremos el símbolo ∃, llamado cuantificador existencial, con el propósito
de que nos sirva para expresar la existencia de un individuo que cumple algo. Como
veremos detalladamente al estudiar la sintaxis propiamente dicha, este símbolo siempre
será seguido por otro cuya grafía será una x subindizada con un numeral natural. Esos
símbolos, como x0 , x5 , x17 serán llamados variables de individuo. Estamos proponiendo que
en nuestro lenguaje habrá fórmulas que contendrán el bloque indisoluble ∃xn , siendo n un
numeral natural. Este bloque no podrá ser una fórmula completa porque en todos los casos
nos interesará expresar que existe un individuo que cumple algo y para ello necesitamos
las letras de relación o el símbolo de igualdad que indicarán lo que cumple. Entonces
proponemos que el bloque ∃xn sirva para expresar “Existe un individuo que cumple . . . ”,
donde lo que iría por los puntos suspensivos será expresado a través de las letras de relación
o el símbolo de igualdad.
Comencemos considerando algunos casos simples. Supongamos que hemos escogido la
letra de relación R112 para que esté por la propiedad de ser azul. La proposición expresada
por “Existe algo azul”, “Hay al menos una cosa azul”, o incluso “Hay cosas azules”1 podrá
ser representada como

∃x0 R112 x0

Observe que la variable colocada inmediatamente después del cuantificador es la misma


1 Afirmar que hay cosas azules no es lo mismo que afirmar que hay más de una cosa azul.
212 Capítulo 9. Sintaxis

que sigue a la letra de relación. Abundaremos sobre esto al estudiar la semántica; hasta
entonces es bueno pensar en lo escrito como representando “Existe algo tal que ese algo
es azul”, donde la función anafórica del “ese” se recoge al colocar la misma variable que
figura al lado del cuantificador.
Si queremos expresar que Sócrates tiene un discípulo, tenemos varias posibilidades. Una
de ellas es considerar la propiedad ser discípulo de Sócrates, representarla con la letra de
relación R16 y escribir

∃x2 R16 x2

Otra posibilidad es considerar la relación de aridad 2 es discípulo de y representarla con,


por ejemplo, R21 , tomar la constante de individuo c1 para que esté por el nombre “Sócrates”
y escribir

∃x1 R21 x1 c1

También necesitaremos expresar que todos los individuos cumplen algo. Para ello intro-
duciremos en nuestro alfabeto el símbolo ∀, llamado cuantificador universal2 , el cual también
será siempre seguido por una variable de individuo, y tal que valiéndonos de él podemos
expresar “Todo es azul” como

∀x0 R112 x0

y “Todo es discípulo de Sócrates” o “Todos son discípulos de Sócrates” como

∀x1 R21 x1 c1

Unas palabras acerca de las variables de individuo que son esos símbolos cuya grafía
es una x subindizada por un natural: Es muy difícil encontrar en el lenguaje natural un
correlato preciso de ellas. Tal vez en el caso en el que están afectadas por un cuantificador
existencial lo que más se acerque sean los pronombres indefinidos tipo uno, como en “Hay
uno que es alto”. En el caso de las variables que aparecen afectadas por el cuantificador
universal es mucho más oscuro el correlato con algún elemento del lenguaje natural ya que,
al menos en español, la expresión “Todos cumplen algo” funciona perfectamente elidiendo
“los individuos” y en estas expresiones no aparecen pronombres indefinidos.

el alfabeto de la lógica de primer orden incluirá los símbolos ∀, ∃, x0 , x1 , x2 , ...

Tornemos ahora nuestra atención a expresiones como “Sócrates es griego y sabio”, o


“Todos los hombres son mortales”.
Consideremos la primera. En cuanto a sus condiciones de verdad, como el lector sabrá
apreciar, es totalmente equivalente a la conjunción de dos proposiciones, a saber “Sócrates
es sabio” y “Sócrates es griego”. Por supuesto, podemos expresar cada una de estas proposi-
ciones en el lenguaje que estamos introduciendo y si queremos expresar su conjunción no
2 Esta introducción no es estrictamente necesaria ya que se puede expresar que todos los individuos cumplen

una propiedad negando que exista alguno que no la cumpla, pero facilita la comprensión de las fórmulas y el
trabajo con ellas.
9.1 Alfabeto 213

necesitamos más que rescatar el símbolo apropiado para ello que habíamos visto al estudiar
la lógica proposicional.
En cuanto a la segunda, “Todos los hombres son mortales”, parece claro que si la
queremos expresar en este marco podemos utilizar el cuantificador universal. Pero se nos
presenta un problema: cuando utilizamos el cuantificador universal expresamos que todos
los individuos cumplen algo. Sin embargo, la proposición que estamos considerando no
afirma, al menos no directamente, algo de todos los individuos (que en principio pueden ser
cualquier objeto3 ), sino meramente algo de todos los hombres. ¿Cómo podemos expresar
que todos los hombres son mortales afirmando algo de todos los individuos, o sea, de todos
los objetos?
Consideremos lo siguiente: tomemos un objeto cualquiera del universo. Se nos pueden
dar cuatro casos:
(a) que el objeto sea hombre y sea mortal,
(b) que el objeto sea hombre y no sea mortal,
(c) que el objeto no sea hombre y sea mortal, o
(d) que el objeto no sea hombre y no sea mortal.
Al afirmar que todos los hombres son mortales, lo que estamos diciendo es que jamás nos
encontraremos con el caso (b). Es decir, todos los individuos, o bien serán serán mortales o
bien no serán hombres. Por lo tanto hemos encontrado una propiedad que se afirma cumplen
todos los individuos, a saber, ser mortal o no ser hombre, y afirmar que esa propiedad vale
para todos los individuos del universo es equivalente a afirmar que todos los hombres son
mortales. Por supuesto, podemos expresar esa propiedad con la disyunción y la negación,
que tomaremos prestadas del lenguaje de la lógica proposicional, o también mediante el
condicional, como recordará el lector que considere la cuestión de la equivalencia pertinente.
Así, la proposición “Todos los hombres son mortales” podrá ser expresada, entre otras
posibilidades, como

∀x4 (¬R10 x4 ∨ R11 x4 )

o como

∀x2 (R10 x2 → R11 x2 )

donde se han elegido las letras de predicado R10 y R11 para que estén por la propiedad ser
hombre y ser mortal respectivamente.
Podríamos ofrecer otros ejemplos, pero en definitiva, lo que estamos fundamentando es
la inclusión en el alfabeto del lenguaje de la lógica de primer orden de todos los símbolos
de los conectivos lógicos de la lógica proposicional.
Al heredar todas las constantes lógicas de LP, la lógica que estamos desarrollando
dispondrá de sus mismas capacidades, con el agregado de las que surgen debido a que
desde nuestro nuevo punto de vista, podemos analizar muchas proposiciones que con LP
son inanalizables.
3 Recuerde siempre que en estos contextos, cuando se habla de individuos se está hablando de objetos

cualesquiera del universo de discurso, no de personas, como en el habla coloquial.


214 Capítulo 9. Sintaxis

Como sugieren los últimos ejemplos, necesitaremos los paréntesis, por razones análogas a
las que se habían ofrecido para incluirlos en el alfabeto del lenguaje de la lógica proposicional.
También en esta lógica será necesario evitar la ambigüedad estructural.
Hemos llegado al final de nuestro recorrido para definir el alfabeto de la lógica de primer
orden:
alfabeto de la lógica de primer orden

consta de los siguientes símbolos:


constantes de individuo c0 , c1 , c2 , . . .
variables x0 , x1 , x2 , . . .
letras de relación o de predicado R10 , R11 , R12 , . . . , R20 , R21 , R22 , . . .
cuantificadores ∀, ∃
conectivos proposicionales ∧, ∨, →, ↔, ¬
símbolo de igualdad =
paréntesis (, )

9.2 Fórmulas
Corresponde ahora indicar exactamente cuáles cadenas de símbolos de nuestro alfabeto
pertenecen al lenguaje y cuáles no. Esta descripción, que constituye el núcleo de la sintaxis,
se hará también teniendo en cuenta nuestros propósitos al formular el lenguaje. Se trata de
un emprendimiento bastante más complejo que el análogo para la lógica proposicional, y
esto se debe no solamente a la mayor riqueza en la dimensión representacional, sino también
a que existirán fórmulas de nuestro lenguaje tales que no habrá expresión corriente alguna
del lenguaje natural de la cual sean una traducción adecuada.
Esta complicación se encuentra en el núcleo del salto prodigioso que Frege hizo dar a la
Lógica al presentar un lenguaje con la capacidad expresiva que requerimos (y aun mayor).
La reflexión fregeana partió, por supuesto, de un análisis de expresiones del lenguaje natural
y corrió según las líneas que vamos a presentar brevemente.
Consideremos la oración
El cielo es azul.
En ella distinguimos un nombre, “el cielo”, y lo que la gramática ha llamado predicado,
“azul”, además de la cópula, “es”. Ese análisis en términos de sujeto y predicado que la
Lógica hasta Frege seguía a pies juntillas, fue puesto en cuestión por este iniciando un
cambio totalmente revolucionario. Frege propuso analizar esa oración, para propósitos
lógicos, no en términos de sujeto y predicado sino de forma muy diferente. Lo primero
que hizo Frege fue retirar el nombre “el cielo” de la expresión que venimos considerando
obteniendo una forma incompleta:
. . . es azul.
Observe el lector que esta expresión incompleta no es algo que vaya a encontrar jamás
en el lenguaje natural. Sin embargo, según Frege, esta expresión que presenta un hueco, (o
sea, no debe ser confundida con lo que expresa la oración “Es azul”) se corresponde con un
9.2 Fórmulas 215

concepto. Si completamos la expresión con diversos nombres, obtenemos proposiciones que


por supuesto podrán ser verdaderas o falsas: “Frege es azul”, “Mi casa es azul”, “Este tomate
es azul”. Según Frege, los nombres denotan objetos y esas expresiones que se completan
una vez que en sus “huecos” se colocan nombres, denotan conceptos. Estas expresiones
incompletas, cuya referencia son conceptos, serán llamadas predicados4 . En este caso el
concepto denotado por la expresión generada al retirar el nombre “el cielo” es lo que
llamaríamos la propiedad de ser azul. Los objetos cuyos nombres, al completar el predicado
producen proposiciones verdaderas, caen bajo el concepto, según Frege, y el conjunto de
los objetos que caen bajo el concepto es la extensión del concepto. A todos los propósitos,
podemos no hablar de propiedades y hablar de conceptos. Y más, el procedimiento de retirar
nombres de la expresión de una proposición puede conducirnos a expresar predicados cuya
referencia son conceptos que reconocemos como relaciones: consideremos
Sócrates es maestro de Platón.
Si retiramos el nombre “Sócrates” obtenemos el predicado
. . . es maestro de Platón.
que denota el concepto ser maestro de Platón y que requiere un solo nombre para completarse
formando una proposición. Algo análogo sucede si retiramos el nombre “Platón”. Pero si
retiramos ambos nombres, “Platón” y “Sócrates”, obtenemos el predicado
. . . es maestro de . . .
que según Frege también denota un concepto y nosotros reconocemos como como la relación
ser maestro de. El trabajo de Frege es más complejo que lo que acabamos de decir, entre
otros motivos porque reconoce diversos órdenes, es decir, predicados cuyos “huecos” deben
ser llenados, para obtener proposiciones verdaderas, por nombres de conceptos, como por
ejemplo se ve en el siguiente caso:
Partimos de la oración
El fuego es rojo.
Retiramos el nombre “el fuego” y obtenemos
. . . es rojo.
que denota un concepto y cuyo hueco debe ser llenado por nombres de objetos para obtener
proposiciones verdaderas. Pero además podemos considerar el concepto denotado por
. . . es un color.
Obviamente el hueco de esta última expresión puede ser llenado por el nombre de un
concepto para obtener proposiciones verdaderas. En particular podemos formar
El rojo es un color.
4 Esde central importancia observar que se está estableciendo una correlación entre el plano lingüístico y un
plano no língüístico. En el nivel lingüístico tenemos nombres y predicados, que refieren, respectivamente, a
objetos y conceptos. Los nombres son lo que en el habla común se considera un nombre, pero los predicados no
son lo que la gramática tradicional llama así. Son expresiones incompletas que no se encuentran en el lenguaje
natural en forma aislada.
216 Capítulo 9. Sintaxis

Entonces . . . es un color denota un concepto de segundo orden ya que los nombres que
llenando su hueco forman proposiciones verdaderas son a su vez nombres de conceptos.
En la lógica que estudiaremos, la lógica de primer orden, no existirá esta proliferación de
órdenes. Abundaremos sobre el punto más adelante, pero en principio es a esto a lo que
debe su nombre.
Lo dicho basta para iniciar nuestro estudio de la parte combinatoria de la sintaxis.
Comencemos considerando la proposición “El cielo es azul”. Es claro que si queremos
representarla en nuestro lenguaje lo podemos hacer mediante una letra de relación unaria y
una constante de individuo, por ejemplo así:
R11 c2
Consideremos ahora la operación que hace Frege que es retirar el nombre “el cielo”. Lo
que queda debe denotar la propiedad y aparentemente para eso hemos introducido las letras
de relación. Sin embargo, será conveniente recoger la idea fregeana de que el predicado . . .
es azul es algo incompleto, listo para ser “llenado” por un nombre, obteniéndose al hacer
esto, una proposición. La indicación de ese hueco estará a cargo de las variables. Así debemos
ver una expresión de nuestro lenguaje, por ejemplo R11 x5 como destinada a representar lo
que Frege llamaría un predicado, esa estructura con huecos, que al ser llenados por nombres
se convierte en una proposición, y nosotros reconocemos como lo que denota una propiedad.
Ese “llenado” por un nombre, si lo fuéramos a ver reflejado en nuestro lenguaje sería la
sustitución de la variable por una constante de individuo.
Habíamos dicho que en nuestro lenguaje tendríamos fórmulas sin un correlato directo en
el lenguaje natural. Sucede que serán fórmulas no solamente las expresiones obtenidas una
vez hecha la sustitución de las variables por constantes de individuo, sino también aquellas
que hemos traído a cuento a través de los predicados fregeanos. Pero es claro que algo como
. . . es azul no puede ser verdadero o falso, ni tiene correlato directo en el lenguaje natural y
sin embargo tendremos fórmulas que introducimos con el propósito de representarlo. Por
lo tanto tendremos fórmulas que, en caso de que les queramos asignar un valor de verdad
no tendremos una forma natural de hacerlo. Pero esto lo veremos al tratar la semántica.
Luego de este largo interludio tenemos los elementos necesarios para indicar exactamente
cuáles cadenas de símbolos serán fórmulas en nuestro lenguaje. Comenzaremos con una
definición:
Definición 9.2.1 — Términos.
Llamaremos términos a las constantes de individuo y a las variables.

Según lo que hemos discutido, aceptaremos toda cadena formada por una letra de
relación n-aria seguida por n términos será una fórmula. Además, toda cadena formada
por un término seguido por el símbolo = seguido por un término será una fórmula. Las
fórmulas de este tipo son especiales, lo que se recoge en la siguiente
Definición 9.2.2 — Fómulas atómicas.
(i) Rn
j t1 . . . tn con t1 , . . . , tn términos es una fórmula (llamada atómica).
(ii) t1 = t2 con t1 y t2 términos es una fórmula (llamada atómica).

Por ejemplo, son fórmulas atómicas:


5
R0 c1 c4 x2 x7 c1 R20 c1 c2 R123 c3 x25 = x445 c3 = c8 c16 = x2
9.2 Fórmulas 217

Observe que en el caso de que algunos de los términos que aparecen en una fórmula
atómica sean variables, esas fórmulas no representarán proposiciones, al menos no en el
sentido de que puedan ser consideradas verdaderas o falsas directamente.
Volvamos por un momento a los conceptos fregeanos. Supongamos que afirmo “Todo
es azul”. Esto significa que al llenar con el nombre del objeto que sea el hueco de ... es
azul obtendré una proposición verdadera. ¿Cómo expresamos en nuestro lenguaje formal
esa condición de que, sin importar el nombre elegido para llenar el hueco, se obtendrá
una proposición verdadera? Lo que tendremos es, por ejemplo, R13 x0 y queremos expresar
que R13 cn es verdadera para todo n. Para esto utilizamos el cuantificador universal que,
recordará el lector, debe aparece como un bloque indisoluble formado por él seguido por
una variable. En nuestro caso obtendríamos

∀x0 R13 x0

Por esto estableceremos que si A es una fórmula, entonces para todo n, ∀xn A es una
fórmula y por consideraciones análogas, ∃xn A es una fórmula. Observe que no se está
requiriendo que A tenga la variable que está adosada al cuantificador ni ninguna otra
condición. Vamos a estipular que se puede cuantificar cualquier fórmula.
Finalmente tenemos que describir cómo se comportan sintácticamente los conectivos
de la lógica proposicional. Las reglas sintácticas que los rigen son las mismas que en
LP. Resumiendo, podemos decir lo siguiente: cualquier fórmula de la lógica de primer
orden se obtiene a través de un proceso que comienza tomando términos, formando
fórmulas atómicas, cuantificándolas y/o conectándolas a través de los conectivos de la lógica
proposicional y a través de este proceso solo se obtienen fórmulas. Esto nos permite ofrecer
la siguiente definición de secuencia de formación:
Definición 9.2.3 — Secuencia de formación para la lógica de primer orden.
Una secuencia de formación para la lógica de primer orden es una secuencia finita en la
que cada elemento cumple lo siguiente:

(i) O bien es una fórmula atómica.


(ii) O bien es de la forma ¬A, siendo A es un elemento anterior en la propia secuencia.
(iii) O bien es de la forma (A ∧ B), siendo A y B elementos anteriores en la propia
secuencia.
(iv) O bien es de la forma (A ∨ B), siendo A y B elementos anteriores en la propia
secuencia.
(v) O bien es de la forma (A → B), siendo A y B elementos anteriores en la propia
secuencia.
(vi) O bien es de la forma (A ↔ B), siendo A y B elementos anteriores de la propia
secuencia.
(vii) O bien es de la forma ∀xn A, siendo A un elemento anterior en la propia secuencia.
(viii) O bien es de la forma ∃xn A, siendo A un elemento anterior en la propia secuencia.

Definición 9.2.4 — Fórmula de la lógica de primer orden.


A es una fórmula de lógica de primer orden si y solo si existe una secuencia de formación
para la la lógica de primer orden de la cual A es el último elemento.
218 Capítulo 9. Sintaxis

Notación 9.1. Al lenguaje de la lógica de primer orden, o sea, al conjunto de las fórmulas de la lógica
de primer orden lo notaremos LPO.

Es muy importante observar que, tal como habíamos dicho, no hacemos esta construcción
para que una fórmula atómica con variables represente una proposición. Al sustituir sus
variables por constantes de individuo obtenemos la representación de una proposición. Pero
no es esta la única forma de obtener representantes de proposiciones a partir de fórmulas
atómicas que tienen variables. El caso que hemos visto nos servirá de ejemplo. Partimos del
predicado
. . . es azul
que representamos como

R13 x0

Si cuantificamos sobre esta fórmula universalmente obtenemos un representante de la


proposición “Todo es azul”:

∀x0 R13 x0

Lo mismo sucede si cuantificamos existencialmente: obtenemos un representante de la


proposición “Algo es azul”:

∃x0 R13 x0

O sea que cuantificando hemos obtenido representantes de proposiciones. Esto se debe a


que las variables que aparecían en la fórmula sin cuantificar caen bajo el alcance de un cuantificador.
Cuando una variable de una fórmula cae bajo el alcance de un cuantificador se dice que
esta variable está ligada y cuando no cae bajo el alcance de cuantificador alguno se dice que
esta variable está libre. La definición precisa es:
Definición 9.2.5 — Variables libres y ligadas.
Las variables de una fórmula atómica están libres y una fórmula atómica no tiene
variables ligadas.
Las variables libres (ligadas) de la fórmula ¬A son las variables libres (ligadas) de
A.
Las variables libres (ligadas) de las fórmulas (A ∧ B), (A ∨ B), (A → B), (A ↔ B)
son las variables libres (ligadas) de A y de B.
Las variables libres de las fórmulas ∀xn A y ∃xn A son las variables libres de A
excepto xn .
Las variables ligadas de las fórmulas ∀xn A y ∃xn A son las variables ligadas de A y
xn .

Debido a las reglas sintácticas, cada vez que en una fórmula aparece un cuantificador
∀xn o ∃xn , debe ser seguido por una fórmula A. Esa fórmula A es llamada el alcance del
cuantificador. Si la fórmula A tiene la variable libre xn , se dice que esa variable cae bajo el
alcance del cuantificador, quedando ligada por el mismo. Observe que no es lo mismo estar en
el alcance de un cuantificador que caer bajo el alcance del cuantificador. Una variable xn
9.3 El teorema de lectura única 219

cae bajo el alcance de un cuantificador si y solo si está en el alcance del cuantificador y el


cuantificador cuantifica, justamente, sobre xn . Así, x7 puede estar en el alcance de ∀x12 pero
nunca caerá bajo él. Por ejemplo:
5
En R0 c1 c4 x2 x7 c1 las variables x2 y x7 están libres.
En ∀x0 R20 c1 x0 la variable x0 está ligada.
En ∃x0 R20 x4 x0 la variable x0 está ligada y x4 está libre.
En ∀x445 ∀x25 x25 = x445 ambas variables están ligadas.
3
En ∀x2 ∀x3 R0 x3 x4 x2 las variables x2 y x3 están ligadas y x4 está libre.
Examinemos ahora la fórmula (∃x1 R21 x1 x2 ∧ R21 c0 x1 )
. En ella aparece la variable x1 dos veces. (Nunca se cuenta la aparición que está “pegada” al
cuantificador). Decimos que esa variable tiene dos ocurrencias en la fórmula. ¿Está la variable
x1 libre o ligada en la fórmula? La respuesta es: Ambas cosas, está libre y está ligada. En
la primera ocurrencia está ligada -bajo el alcance del cuantificador existencial, porque este
está seguido por la fórmula R12 x1 x2 que es la que contiene esa primera ocurrencia, y es
el alcance del cuantificador-, y en la segunda está libre, ya que no cae bajo el alcance de
cuantificador alguno. En definitiva, las ocurrencias libres de las variables son aquellas que
no caen bajo el alcance de cuantificador alguno, y las ocurrencias ligadas de las variables
son aquellas que caen bajo el alcance de algún cuantificador. En nuestra fórmula, el alcance
del único cuantificador que aparece es R21 x1 x2 , quedando todo el resto fuera de este alcance.
La variable x2 si bien está en el alcance del cuantificador, no cae bajo él, porque en general,
la variable xn solo puede caer bajo el alcance de ∀xn o de ∃xn .
Veámoslo con detalle analizando una de sus secuencias de formación, en la que no
justificaremos la pertinencia de cada uno de sus términos sino que solo atenderemos a la
calidad de libre o ligada de las variables que aparezcan:
1. En R21 x1 x2 las variables x1 y x2 están libres.
2. En ∃x1 R21 x1 x2 la variable x1 está ligada y la variable x2 está libre.
3. En R21 c0 x1 la variable x1 está libre.
4. En (∃x1 R21 x1 x2 ∧ R21 c0 x1 ) la variable x1 está ligada (en su primera ocurrencia, que
proviene de 2) y está libre (en su segunda ocurrencia, que proviene de 3), mientras
que la variable x2 está libre.
Las fórmulas con variables libres no representarán proposiciones, mientras que las
fórmulas que no las tengan sí lo harán. Eso justifica la siguiente
Definición 9.2.6 — Fórmula abierta, fórmula cerrada o sentencia.
Las fórmulas que tienen variables libres se llaman fórmulas abiertas.
Las fórmulas que no tienen variables libres se llaman fórmulas cerradas o sentencias.

Para que una fórmula sea abierta basta que tenga una ocurrencia libre de una variable.

9.3 El teorema de lectura única


Al igual que hicimos al ocuparnos de la lógica proposicional, debemos preguntarnos
por la posibilidad de que aparezcan fórmulas estructuralmente ambiguas, es decir, que
220 Capítulo 9. Sintaxis

puedan ser leídas, por ejemplo, como una conjunción de dos fórmulas y también como la
cuantificación universal de una fórmula, lo que tendría efectos catastróficos para nuestros
propósitos.
Gracias a la introducción de los paréntesis en el lenguaje y a las reglas de su disposición,
este indeseable resultado se evita. La demostración es totalmente análoga a la que hicimos
para el lenguaje de la lógica proposicional. Para llevarla a cabo hay que notar que desde el
punto de vista sintáctico, los cuantificadores se comportan como la negación (es decir, se
introducen antecediendo a una fórmula), y que las fórmulas atómicas no pueden ser a la
vez atómicas y de otro tipo, y que dentro de las atómicas, si una fórmula es una igualdad
no es una letra de relación seguida de términos, ni puede ser leída como igualdad en dos
formas diferentes, además de que si una fórmula atómica involucra una letra de relación,
puede ser leída de una única manera.
Debido a que no se necesita ninguna idea nueva para realizarla, no haremos la demos-
tración. Directamente consignaremos el resultado pertinente:

Teorema 9.3.1 — Lectura única.


Toda fórmula de LPO tiene una y solo una de las siguientes formas:

1. Rn
j t1 . . . tn o t1 = t2 (o sea, es una fórmula atómica)
2. ¬A, siendo A una única fórmula.
3. (A ∧ B), siendo A y B fórmulas únicas.
4. (A ∨ B), siendo A y B fórmulas únicas.
5. (A → B), siendo A y B fórmulas únicas.
6. (A ↔ B), siendo A y B fórmulas únicas.
7. ∀xn A, siendo A una única fórmula.
8. ∃xn A, siendo A una única fórmula.

9.4 Árbol de formación de una fórmula


El Teorema de lectura única nos asegura que cada fórmula tiene un árbol de formación,
que es un diagrama que se construye del siguiente modo:
1. En la raíz del árbol se coloca la fórmula en cuestión.
2. Como es una fórmula, o bien:
a) Es una fórmula atómica (en cuyo caso no tiene descendientes)
b) Es de la forma ¬A, ∀xn A, o ∃xn A, en cuyo caso tiene como descendiente a A.
c) Es de la forma (A ∧ B), (A ∨ B), (A → B), (A ↔ B), en cuyo caso tiene como
descendientes a A y a B.
3. Se repite el proceso con los descendientes obtenidos, hasta que solo queden fórmulas
atómicas en los nodos terminales del árbol.
Las fórmulas que aparecen en los nodos del árbol son las subfórmulas de la fórmula dada
(incluyendo a ella misma).
9.5 Lenguajes de Primer Orden 221

De todo lo visto en este capítulo surge que hay enormes similitudes entre la sintaxis
de LPO y la de LPO: las fórmulas atómicas de esta última se comportan como las letras
proposicionales de la primera, los conectivos binarios tienen el mismo comportamiento en
ambas y los cuantificadores tienen un comportamiento sintáctico idéntico a la negación.
 Ejemplo 9.1 Árbol de formación de la fórmula ∀x2 ¬∃x3 ((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 )

∀x2 ¬∃x3 ((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 )

¬∃x3 ((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 )

∃x3 ((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 )

((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 )

(R12 x3 x2 ∧ ¬R11 x3 ) ∀x5 R14 x5 c7

R12 x3 x2 ¬R11 x3 R14 x5 c7

R11 x3

9.5 Lenguajes de Primer Orden


Hemos visto que en la lógica de primer orden disponemos de un conjunto infinito
de símbolos que consta de los paréntesis, los conectivos de la lógica proposicional, los
cuantificadores, las variables, las constantes de individuo y las letras de relación, además
del símbolo específico para la igualdad. Los paréntesis funcionan como si fueran signos
de puntuación, que evitan el traspaso de problemas estructurales del lenguaje natural al
lenguaje formal y aseguran la lectura única de las fórmulas. Los conectivos heredados
de la lógica proposicional tendrán en todos los contextos el mismo comportamiento y lo
mismo podremos decir de los cuantificadores, las variables y el símbolo de igualdad. Sin
embargo, hemos visto que la introducción de constantes de individuo y letras de relación
es debida a nuestro deseo de traducir a nuestro lenguaje formal nombres de objetos y de
propiedades o relaciones. Así, aparece una diferencia fundamental: en todos los contextos el
símbolo ∧ tendrá el mismo comportamiento, lo que es decir que tendrá siempre el mismo
significado, a saber, estará indicando algo verdadero si y solo si los dos componentes que
conecta son verdaderos. Y lo mismo podemos decir de los demás conectivos lógicos, de los
cuantificadores y del símbolo de la igualdad.
Por otro lado, y en contraste, un nombre no significará lo mismo en todos los contextos
imaginables. La evaluación de si una proposición que incluye un nombre es verdadera
o falsa depende en forma estricta de la consideración de la denotación de ese nombre.
Por ejemplo, la proposición Miguel Ángel es un gran pintor es verdadera si “Miguel Ángel”
denota cierto florentino famoso que vivió en el siglo XVI, y si por el conjunto de los grandes
pintores entendemos el de aquellos individuos que son así calificados en al menos la mitad
222 Capítulo 9. Sintaxis

de los libros de Historia de la Pintura. Pero podría ser falsa si cambiásemos la denotación
del nombre de objeto “Miguel Ángel” o la denotación del nombre de propiedad “ser un
gran pintor”.
Debido a esta diferencia, las constantes de individuo y las letras de relación serán
llamadas símbolos no lógicos y los restantes símbolos serán llamados símbolos lógicos.
Esta diferencia es importante y tiene efectos prácticos: cuando uno desea trabajar con
la lógica de primer orden, normalmente lo hace para enfrentar problemas concretos que
involucran un conjunto dado de individuos y de relaciones. Como ejemplo trivial, puedo
estar interesado en un problema que involucra cinco triángulos y la relación entre ellos que
resulta relevante es tener mayor área que. En ese caso, está claro que no necesito más que cinco
constantes de individuo y una letra de relación, que será binaria. Al hacer esa selección,
se determina un lenguaje de primer orden. Es decir, un lenguaje de primer orden queda
determinado haciendo una selección de símbolos no lógicos. De aquí surge la existencia de
infinitos lenguajes de primer orden. Así, cada lenguaje de primer orden tiene un alfabeto
que consta de paréntesis, cuantificadores, los conectivos de la lógica proposicional, variables,
el símbolo de igualdad y un conjunto (finito o infinito) de constantes de individuo y de letras de
relación. Entre los infinitos lenguajes de primer orden se cuenta el lenguaje vacío, que es
aquel que no tiene símbolos no lógicos. Por ejemplo, la fórmula

∀x0 ∀x1 x0 = x1

pertenece a este último lenguaje. De aquí en más nos referiremos a cada lenguaje de primer
orden particular indicando cuál es el conjunto de sus símbolos no lógicos. Por ejemplo,

El conjunto de los símbolos no lógicos de L1 es {R20 , R21 }


El conjunto de los símbolos no lógicos de L2 es {c0 , c1 }
El conjunto de los símbolos no lógicos de L3 es {R0 , R20 , R21 , R11 , c0 , c1 }
3

A veces, en un abuso notacional se escribe L1 = {R20 , R21 } aunque claramente el lenguaje


no es ese conjunto, sino que queda determinado por él.
9.6 Ejercicios 223

9.6 Ejercicios
1. Demostrar que las siguientes cadenas de símbolos son fórmulas de LPO. Presentar su
árbol de formación.
a) ∀x0 ∃x0 ¬R25 x0 c4
b) ∀x0 ∃x1 ¬R25 x0 c4
c) ∀x0 ∃x1 ¬R25 x3 c4
d) ∀x7 ∀x0 ∃x0 ¬R25 x0 c4
e) ¬∀x4 (R13 c2 ∧ R28 c5 x4 )
f ) (∀x7 ¬∃x5 (R2 x7 x7 x5 → ¬R21 x5 c4 ) ∨ R4 x5 x7 x7 x5 c9 )
3 5

2. En las siguientes fórmulas, indicar para cada ocurrencia de las variables, si son libres
o ligadas. Indicar, para cada fórmula, si se trata de una sentencia o no.
a) ∃x2 R21 x1 x3
b) ∃x2 R21 x2 x3
c) ∃x2 R21 x2 x2
d) (∃x3 R11 x3 ∧ ∀x2 R2 x2 x2 x3 )
3

e) ∃x3 (R11 x3 ∧ ∀x2 R2 x2 x2 x3 )


3

3. Presentar cinco fórmulas pertenecientes al lenguaje de primer orden vacío, o sea, el


que no tiene símbolos no lógicos.

4. Demostrar que en ninguna fórmula de LPO aparecen las siguientes subcadenas, siendo
n, m, i, j numerales:
a) ∀xn =
b) ∃xn )
c) )∀
d) Rn
i =
e) Rn m
i Rj

5. Sea A una fórmula de LPO. Una subfórmula propia de A es una subfórmula de A


distinta de A. Indicar si lo siguiente es verdadero o falso:

Si A y B son dos fórmulas de LPO que tienen las mismas subfórmulas propias,
entonces A y B difieren a lo sumo en un único símbolo.

6. Diremos que dos símbolos del alfabeto de LPO son intercambiables si el resultado de
sustituir uno de ellos por el otro en una fórmula es siempre una fórmula. ¿Cuáles
símbolos son intercambiables? ¿Qué modificación en las definiciones sintácticas haría
para lograr que = fuera intercambiable con R2i , manteniendo el resto de la relación de
intercambiabilidad igual?
224 Capítulo 9. Sintaxis

7. ¿Qué modificaciones hay que hacer al Teorema de lectura única para LP de modo que
se tenga el teorema para LPO?

8. Demostrar que si en una fórmula de LPO se sustituye cada cuantificador (con su varia-
ble adosada) por una negación y cada subfórmula atómica por una letra proposicional,
se obtiene una fórmula de LP.
10 | Semántica

a semántica de la lógica de primer orden consistirá en la atribución de los valores

L de verdad Verdadero o Falso bajo determinadas interpretaciones a algunas fórmulas


del lenguaje. Esto requerirá especificar cómo hacerlo para cada uno de los infinitos
lenguajes de primer orden.
En lógica proposicional manejábamos interpretaciones que eran modelos o contramo-
delos de las fórmulas, y esas interpretaciones quedaban determinadas a través de las
asignaciones proposicionales, es decir, una vez que dábamos un único valor de verdad a
cada letra proposicional. En la lógica que estamos estudiando una interpretación será algo
bastante más complejo, con un universo extralingüístico a tener en cuenta mucho más rico.

10.1 Interpretaciones
Considere un lenguaje de primer orden L dado. L está determinado por sus símbolos
no lógicos y una interpretación para L consistirá en algo complejo destinado a dar significado
a esos símbolos: un conjunto no vacío M y una función de denotación. El conjunto M puede
ser cualquiera –siempre que no sea vacío– y será llamado dominio de la interpretación. La
función de denotación será la encargada de otorgar significado a los símbolos no lógicos,
asignándole algún objeto a cada uno de ellos. Normalmente la interpretación se designa con
el mismo nombre que su dominio, solo que se lo escribe en un tipo de letra especial. De ese
modo, hablaremos de la interpretación M de dominio M.

dado un lenguaje de primer orden L, una interpretación para L es un par formado


por un conjunto no vacío –el dominio de la interpretación– y una función de
denotación que asigna algún objeto a cada uno de los símbolos no lógicos de L.

El lector hará bien en este punto pensando en la enorme diferencia que existe entre la
semántica de LP y la que queremos establecer para LPO: en la primera, las interpretaciones
ya eran asignaciones de valores de verdad a todas las fórmulas del lenguaje, mientras que
en la segunda, las interpretaciones no involucran directamente los valores de verdad. Por
supuesto, las fórmulas serán verdaderas o falsas bajo una interpretación dada, pero la
interpretación misma no es la asignación de valores de verdad a las fórmulas.
Estudiemos ahora cómo deben ser esas funciones de denotación que, junto con un
dominio, constituyen las interpretaciones. Ellas deben asignar algún objeto a cada uno de
los símbolos no lógicos del lenguaje L sobre el que se hace la interpretación, objeto que
será llamado la denotación del símbolo. Como los símbolos no lógicos son las constantes
226 Capítulo 10. Semántica

de individuo y las letras de relación, debemos considerar cómo tratan las funciones de
denotación a cada una de esas categorías.
Las constantes de individuo fueron introducidas para que funcionaran como nombres
de individuos, y el dominio de la interpretación funcionará como universo del discurso, lo
que quiere decir que los objetos a los cuales las constantes de individuo denotarán serán
elementos del dominio, y las relaciones denotadas por las letras de relación serán relaciones
entre los elementos del dominio. Por lo tanto, la función de denotación asignará a cada una
de las constantes de individuo del lenguaje L un elemento del conjunto M. Los elementos
de M que quedan asignados como denotación de constantes de individuo son llamados
individuos destacados en la interpretación.
Veamos un ejemplo. Sea L1 el lenguaje que queda determinado por {c3 , c5 , c11 , R14 , R20 },
y sea M el conjunto {Juan, María, Pedro, Diego, Elena}, en el que todos sus elementos son
personas. Necesitamos asignar una denotación a cada constante de individuo de L1 , y la
denotación de cada una de ellas debe ser un único elemento de M. Podemos elegir entonces:
c3 denota a María.
c5 denota a Pedro.
c11 denota a Elena.
En general, el objeto denotado se indica supraindizando el símbolo al que se le asigna
denotación con el elegido para nombrar la interpretación. Así
cM
3 = María
cM
5 = Pedro
cM
11 = Elena

Observe que hemos utilizado el símbolo “=” en el metalenguaje. Para evitar confusiones
podríamos haber optado por otro símbolo para la igualdad en el lenguaje formal, pero esto
no parece muy natural. Con un mínimo de atención, se puede evitar toda consecuencia
indeseable de esta situación.
Nos resta asignar denotación a los otros símbolos no lógicos, o sea, a las letras de
relación. Concentrémonos en las unarias. Habíamos dicho que deseábamos que estos
símbolos indicasen propiedades de individuos. Es claro que la propiedad en cuestión
determina el conjunto de los individuos que la poseen, y que conociendo ese conjunto
siempre haremos atribuciones correctas de la propiedad a individuos particulares. Por esto,
consideraremos que la denotación de un símbolo de relación unaria será un subconjunto de
M, el subconjunto formado por aquellos individuos a los que se les atribuye la propiedad.
Observe que al tomar esta decisión nos hemos desprendido de la idea complicada de
propiedad y nos hemos quedado con la mucho más precisa de conjunto.
Ejemplifiquemos con el caso que venimos tratando en el cual tenemos el lenguaje L1
determinado por {c3 , c5 , c11 , R14 , R20 } y deseamos construir una interpretación con dominio
M={Juan, María, Pedro, Diego, Elena}. En el lenguaje tenemos una letra de relación unaria
R14 y queremos que esta indique la propiedad ser mujer. Para ello, haremos que la denotación
de esa letra sea el conjunto de los individuos que tienen la propiedad. Por lo tanto nuestra
elección será:
M
R14 denota a {María, Elena}, o R14 = {María, Elena}
10.1 Interpretaciones 227

Falta considerar cómo se debe asignar denotación a las letras de relación n-arias con
n > 1. Obviamente queremos que estos símbolos indiquen relaciones de su aridad.
Consideremos una relación n-aria cualquiera. Esta vincula n individuos en un orden.
Si conociéramos todos los conjuntos ordenados de n individuos que efectivamente se
encuentran en la relación, siempre haríamos atribuciones correctas con respecto a esta. Por
ejemplo, si no sé que es nieto de se puede reducir a es hijo de un hijo de, pero dada una familia
cualquiera conozco cuáles pares ordenados de individuos están vinculados por la relación
es nieto de nunca haré una atribución incorrecta por más que desconozca todo acerca de las
relaciones de paternidad.
En forma totalmente análoga a lo que habíamos hecho con las letras de relación unaria,
a las cuales habíamos asignado como denotación subconjuntos de M, a las letras de aridad
superior n les asignaremos como denotación conjuntos de n-uplas ordenadas de elementos
del conjunto.
Volvamos a nuestro ejemplo del lenguaje L1 , del cual nos falta asignar denotación a una
letra de relación binaria: R20 . Supongamos además que el conjunto M = {Juan, María, Pedro,
Diego, Elena} es el de los integrantes de una familia formada por el matrimonio de Juan
y María cuyos hijos son Diego, Pedro y Elena. ¿Cómo deberíamos hacer denotar a la letra
R20 para que indicase la relación . . . es hijo de . . . ? Está claro que coloquialmente diríamos
que Diego, Pedro y Elena son los hijos en esta familia. Sin embargo si a partir de esto
alguien desea hacer que la denotación de la letra R20 sea el conjunto {Diego, Pedro, Elena}
estaría cometiendo un grave error. La relación . . . es hijo de . . . se da entre pares ordenados de
individuos. En nuestro caso, Pedro es hijo de María pero María no es hija de Pedro. Como
Pedro es hijo de María y no al revés, diremos que el par ordenado hPedro, Maríai está en la
relación en cuestión mientras que el par hMaría, Pedroi no está en esa relación. Nuevamente
es claro que la relación determina los pares que están en ella y que conociendo esos pares
siempre atribuiremos correctamente la existencia de la relación entre dos individuos. Es por
esto que optaremos por asignar como denotación de la letra de relación R20 al conjunto de
pares ordenados que están en la relación . . . es hijo de . . . En nuestro caso,

R20 denota a {hDiego, Juani, hPedro, Juani, hElena, Juani, hDiego, Maríai,
hPedro, Maríai, hElena, Maríai}, o
M
R20 = {hDiego, Juani, hPedro, Juani, hElena, Juani, hDiego, Maríai, hPedro, Maríai,
hElena, Maríai}

Hemos asimilado la noción de relación binaria a la de conjunto de pares ordenados. De


hecho, en matemática se define una relación binaria justamente así: es un conjunto de
pares ordenados, y en general, una relación n-aria se define como un conjunto de n-uplas
ordenadas1 .
Resumimos ahora el caso general. Si nuestro lenguaje las contiene, la función de denota-
ción asignará, a cada constante de individuo, un elemento del conjunto M; a cada letra de
relación unaria, un subconjunto de M; a cada letra de relación binaria, un conjunto de pares
1 Es de notar que este compromiso indisoluble de la interpretaciones con los conjuntos hace que la lógica sea
extensional, o sea, las interpretaciones solo dependerán de los elementos de los conjuntos que involucren, y
no de la forma en que estos se describan. Si cambiamos un elemento, tenemos una nueva interpretación. Si
alteramos la descripción de uno de los conjuntos que involucra, y la nueva descripción sigue correspondiendo
al mismo conjunto, la interpretación es la misma. Veremos más sobre esto al tratar contextos indirectos.
228 Capítulo 10. Semántica

ordenados de elementos de M; y en general, a cada letra de relación n-aria, un conjunto de


n-uplas ordenadas de elementos de M.
Estamos en condiciones de caracterizar completamente las interpretaciones para los
lenguajes de primer orden:
Definición 10.1.1 — Interpretación para un lenguaje de primer orden.

Una interpretación M para un lenguaje de primer orden dado L es un par formado


por:

(a) Un conjunto no vacío M (llamado dominio de la interpretación)


(b) Una función de denotación que asigna
(i) A cada constante ci de L un elemento cM
i de M.
M
(ii) A cada letra de relación unaria R1i de L un subconjunto R1i de M y
(iii) A cada letra de relación n-aria (n > 1) de L un conjunto de n-uplas
Rn
i ,
n M
ordenadas Ri de elementos de M.

Notación 10.1. El dominio de la interpretación M se denota con |M|.

10.2 Estructuras
Es claro que una interpretación vincula dos niveles: uno lingüístico, constituido por
los símbolos no lógicos del lenguaje y otro conjuntístico constituido por un conjunto,
elementos de ese conjunto, subconjuntos de ese conjunto, conjuntos de pares ordenados
de elementos de ese conjunto, etc. Este segundo nivel conjuntístico determina lo que se
llama una estructura. La estructura queda determinada considerando en orden el conjunto,
las denotaciones de las letras de individuo, las denotaciones de las relaciones unarias, las
denotaciones de las relaciones binarias, etc. Las denotaciones de las constantes de individuo
se consideran en el orden que dan sus subíndices y lo mismo ocurre con las denotaciones
de las letras de la misma aridad. En el ejemplo que hemos trabajado, la estructura es la
siguiente (ya veremos por qué la llamamos del mismo modo que a la interpretación):
M M
M = hM, cM M M
3 , c5 , c11 , R4 , R0 i = hM, María, Pedro, Elena, D, Hi
1 2

siendo
M = {Juan, María, Pedro, Diego, Elena}
D = {María, Elena}
H = {hDiego, Juani, hPedro, Juani, hElena, Juani, hDiego, Maríai, hPedro, Maríai,
hElena, Maríai}
Una estructura, siguiendo la convención recién mencionada determina una interpretación.
Por ejemplo, sea el lenguaje

L4 = {c4 , c7 , c8 , R11 , R14 , R23 , R5 }


3

y la estructura

A = hA; a, b, a; B, C; D; Ei
10.2 Estructuras 229

donde
A = {a, b, c, d}
B = {d}
C = {b, c}
D=∅
E = {ha, b, ai, ha, b, ci, hd, d, di}
La estructura nos indica unívocamente la interpretación porque
En primer lugar aparece el conjunto sobre el que se hace la interpretación.
El primer elemento destacado que aparece es la denotación de la constante de indivi-
duo de subíndice más bajo de nuestro lenguaje. En nuestro caso, la denotación de c4
es el elemento a.
Análogamente, quedan determinadas las denotaciones de las restantes constantes de
individuo: c7 denota al elemento b y c8 denota al elemento a.
En forma similar, se encuentra la denotación de las letras de predicado: R11 denota el
3
conjunto B, R14 denota el conjunto C, R23 denota el vacío y R5 denota al conjunto E.

Por supuesto, la interpretación también determina unívocamente la estructura. Es por


esto que se puede hablar indistintamente de una interpretación o de una estructura sabiendo
cómo encontrar una a partir de la otra.
La estructura y la interpretación se denotan frecuentemente de la misma manera, co-
locando en una tipografía especial el nombre del conjunto sobre el cual se construye. Es
claro que para un mismo conjunto, existen muchas estructuras. Es posible que necesitemos
diferenciar dos interpretaciones o estructuras sobre un mismo conjunto, y en ese caso lo
haremos subindizando el nombre del conjunto con una tipografía especial. Así, Mα y Mβ
son dos interpretaciones o estructuras de L sobre el conjunto M.
Por ejemplo, consideremos las siguientes estructuras, donde B, C, D y E son los conjuntos
que vimos anteriormente, y F = ∅:
A1 = hA; a, b, a; B, C; D; Ei
A2 = hA; a, a, b; C, B; D; Fi

En ambas el conjunto A es {a, b, c, d}, pero la función de denotación sobre el lenguaje


L4 = {c4 , c7 , c8 , R11 , R14 , R23 , R5 } es diferente:
3

Denotación en A1 Denotación en A2
c4 a a
c7 b a
c8 a b
R11 {d} {b, c}
R14 {b, c} {d}
R23 ∅ ∅
{ha, b, ai, ha, b, ci, hd, d, di}
3
R5 ∅
230 Capítulo 10. Semántica

10.3 Valores de verdad bajo una interpretación

Fórmulas atómicas

El camino que vamos a seguir es muy parecido al que ya vimos en lógica proposicional:
resolveremos el problema de la asignación de valores de verdad a las fórmulas más simples,
es decir, las atómicas, y a partir de esto asignaremos valores de verdad a las más complejas.
Una fórmula atómica solo puede tener dos formas: o bien es de la forma Rn i t1 , ..., tn ,
donde cada uno de los ti es un término (esto es, una variable o una constante de individuo)
o bien es de la forma t1 = t2 , donde t1 y t2 son términos. Consideremos dos casos:

1. Ninguno de los términos que aparece en la fórmula atómica es una variable. Esto, a su
vez, nos da dos posibilidades:
a) La fórmula atómica en cuestión es de la forma Rn i t1 , ..., tn y además todos los tér-
minos que aparecen en ella son constantes de individuo. Dada una interpretación
M, esta asigna denotación tanto a la letra de relación como a los términos que
aparecen en la fórmula. Diremos que la fórmula Rn i t1 , ..., tn es verdadera bajo
la interpretación M si y solo si la n-upla formada por las denotaciones de los
términos t1 , ..., tn (en ese orden) pertenece a la denotación de la letra de relación
Rni , o sea, la interpretación M hace verdadera a la fórmula Ri t1 , ..., tn si y solo si
n
M
htM M n
1 , ..., tn i pertenece a Ri .
b) La fórmula atómica en cuestión tiene la forma t1 = t2 y ambos términos son
constantes de individuo. Diremos que la interpretación M la hace verdadera si y
solo si la denotación de ambos términos es la misma en esa interpretación2 , o sea,
tM M
1 = t2 .

2. Alguno de los términos que aparece en la fórmula atómica es una variable. Ya ex-
pusimos las razones por las cuales estas fórmulas no son aptas para representar
proposiciones. Por ello, no asignaremos valores de verdad a fórmulas atómicas que
incluyan variables. Esto, que en principio puede parecer algo defectuoso o arbitrario,
tiene un correlato claro en el lenguaje natural. Suponga que estamos trabajando so-
bre los números naturales, considerando la propiedad ser mayor que 15. Si decimos
algo como “x es mayor que 15”, lo que con un lenguaje de primer orden podría ser
perfectamente representado a través de la fórmula R11 x0 , no estoy expresando una
proposición. Lo expresado no tiene un valor de verdad. Se obtiene una proposición si
se sustituye la x por un nombre o si se cuantifica. Pero sea como sea, lo expresado no
es una proposición, no tiene valor de verdad y por lo tanto, en nuestra semántica no
asignaremos valores de verdad a fórmulas atómicas que contengan variables. Observe
el lector que una fórmula atómica con variables es inevitablemente una fórmula abierta.
Por lo tanto hemos descrito cómo asignar inequívocamente un valor de verdad bajo
una interpretación a una fórmula atómica cerrada y hemos optado por considerar que
las fórmulas atómicas abiertas carecerán de valor de verdad.

2 Observe que esto implica asignar denotación fija al símbolo “=”: la denotación de ese símbolo es siempre

el conjunto {ha, ai : a ∈ M}.


10.3 Valores de verdad bajo una interpretación 231

Cuantificador universal
Sabemos por las prescripciones sintácticas que siendo A una fórmula, ∀xn A será una
fórmula. Y siguiendo nuestra idea de una semántica composicional, el valor de verdad de
esta última debe depender del de fórmulas más simples que ella. Como dijimos, lo que
expresa coloquialmente la fórmula ∀xn A es que todos los elementos del conjunto dado
por la interpretación “cumplen” lo que expresa la fórmula A. Guiados por ese principio
asignaremos valores de verdad a las fórmulas cuantificadas universalmente. Consideremos
los siguientes casos.
1. A partir de una fórmula A, que no tiene ocurrencias libres de la variable xn se forma
la fórmula ∀xn A. Este es el caso llamado cuantificación vacua. El valor de verdad de
la fórmula ∀xn A bajo la interpretación dada será el valor de verdad de A bajo la
interpretación dada en caso de que lo tenga.
2. A partir de una fórmula A que tiene ocurrencias libres de la variable xn y además
otras variables libres se forma la fórmula ∀xn A, que es abierta. Por consideraciones
análogas a las ya hechas anteriormente no asignaremos valor de verdad a esta fórmula.
3. A partir de la fórmula A cuya única variable libre es xn se forma la fórmula ∀xn A.
Este caso merece consideraciones especiales que desarrollamos inmediatamente.
Debemos asignar un valor de verdad a la fórmula ∀xn A donde A tiene a xn como su
única variable libre, y esto debe hacerse en una forma dependiente de fórmulas más simples
que ella. Parece natural entonces decir que la fórmula ∀xn A será verdadera si y solo si
cada vez que sustituimos todas las ocurrencias libres de la variable xn en A por una de las
constantes de individuo del lenguaje, obtenemos una fórmula verdadera. Sin embargo esto,
natural como es, constituye un error. Es importante tener claro por qué.
Volvamos a considerar el ejemplo del matrimonio formado por Juan y María cuyos
hijos son Diego, Pedro y Elena. Formemos un lenguaje de primer orden que conste de dos
constantes de individuo c1 y c2 y dos letras de relación unarias R11 y R12 . El dominio de la
interpretación será {Juan, María, Diego, Pedro, Elena}. La denotación de c1 será María, la
de c2 será Elena, la de R11 será el subconjunto {María, Elena} y la de R12 será {Juan, Diego,
Pedro}. Observe que la letra de relación R11 denota la propiedad ser mujer y la letra R12 denota
la propiedad ser hombre.
Considere ahora la expresión “Todos son mujeres”. Claramente en esta interpretación la
proposición expresada debería ser considerada falsa ya que en el conjunto hay individuos
que no son mujeres. En nuestro lenguaje formal esa proposición se representaría como

∀x0 R11 x0
A pesar de que esa fórmula debería ser considerada falsa bajo la interpretación dada,
se cumple lo siguiente: si sustituimos la variable cuantificada por cualquier constante de
individuo de nuestro lenguaje en la fórmula que sigue al cuantificador, obtenemos una
fórmula verdadera:
1. Sustituyendo x0 por c1 en R11 x0 obtenemos R11 c1 , la que es verdadera bajo la interpreta-
ción ya que la denotación de la constante (María) pertenece a la denotación de la letra
de relación ({María, Elena}).
232 Capítulo 10. Semántica

2. Sustituyendo x0 por c2 en R11 x0 obtenemos R11 c2 , la que es verdadera bajo la interpreta-


ción ya que la denotación de la constante (Elena) pertenece a la denotación de la letra
de relación ({María, Elena}).

Y no tenemos más constantes de individuo en el lenguaje para realizar la sustitución. O sea,


es verdad que siempre que sustituimos la variable libre por una constante de individuo en
nuestro lenguaje en la fórmula A obtenemos una fórmula verdadera. Sin embargo, sería
claramente incorrecto asignar el valor de verdad verdadero a la fórmula ∀x0 R11 x0 bajo la
interpretación considerada.
Hay más de un modo de resolver este problema. Nosotros optaremos por esta línea
de pensamiento: nos vemos en esta situación debido a que nuestro lenguaje no provee
nombres para todos los elementos del dominio de la interpretación, y de esta manera
resulta una suerte de “invisibilidad” de algunos elementos de ese conjunto a través de las
fórmulas más simples que estamos considerando. Por lo tanto, una vía de solución es dotar
a nuestro lenguaje de nombres para todos los elementos del dominio de la interpretación. Si
dispusiéramos de un nombre para cada elemento del dominio, o sea, si cada elemento del
dominio fuera denotado por una constante de individuo del lenguaje, sería perfectamente
correcto este enfoque sustitucional.
De todo esto surge la necesidad de considerar extensiones del lenguaje de primer orden
con el que estemos trabajando. Una extensión L+ de nuestro lenguaje L será cualquier
lenguaje que se obtenga agregando símbolos no lógicos a L. De todas las extensiones
posibles de un lenguaje, al estar trabajando con una interpretación, nos interesarán aquellas
que nos permiten dar un nombre a cada elemento del dominio de la interpretación. Es decir,
agregaremos tantas constantes de individuo como sea necesario para que cada elemento del
dominio sea denotado por al menos una constante.
En el ejemplo anterior teníamos un lenguaje con dos constantes de individuo c1 y c2 y el
dominio tenía cinco elementos: Juan, María, Diego, Pedro y Elena. Según lo que venimos
diciendo extendemos el lenguaje de forma tal que tengamos constantes de individuo
suficientes como para denotar cada elemento del conjunto. En nuestro caso, eso implica
agregar por lo menos tres constantes de individuo (esto es lo mínimo que hay que agregar
pero se pueden agregar más).
Obviamente, al cambiar el lenguaje cambia la interpretación, ya que debemos asignar
denotación a las constantes añadidas. Formamos entonces una nueva interpretación M+
que tiene el mismo dominio que M (la interpretación que se había dado para el lenguaje sin
extender), coincide con M en la denotación de los símbolos de L y otorga denotación a las
nuevas constantes de tal forma que cada elemento del dominio sea denotado por alguna de
ellas.
A L, que está determinado por c1 , c2 , R11 y R12 le agregamos tres constantes de individuo
resultando L+ que queda determinado por c1 , c2 , R11 , R12 , c3 , c4 y c5 .
La interpretación M+ queda definida así:

El dominio |M+ | = |M| = M = {Juan, María, Diego, Pedro, Elena}.


La denotación de c1 será María, la de c2 será Elena, la de R11 será el subconjunto {María,
Elena} y la de R12 el conjunto {Juan, Diego, Pedro} (igual que en M).
10.3 Valores de verdad bajo una interpretación 233

La denotación de c3 será Juan, la denotación de c4 será Pedro, la denotación de c5 será


Diego (por supuesto, es indiferente cuál constante denota cuál elemento. Lo único que
importa es que todos los elementos del dominio sean denotados por alguna constante).

En esta nueva interpretación funciona correctamente en sentido intuitivo el principio


que habíamos intentado: la fórmula ∀xn A donde A tiene como única variable libre xn es
verdadera si y solo si cualquier sustitución de la variable libre xn en A por una constante de
individuo resulta en una fórmula verdadera.
En nuestro ejemplo, ∀x0 R11 x0 es falsa porque la fórmula R11 c3 es falsa, ya que la denotación
de c3 no pertenece a la denotación de R11 .
Y es claro que esto no depende de cómo se asigna la denotación de las nuevas constantes,
ni de cuántas se agreguen, sino solo de que se cumpla lo requerido, esto es, que en la
interpretación de la extensión cada elemento del conjunto sea denotado por al menos una
constante.
De todo lo dicho surge la adecuación de la siguiente caracterización semántica de las
fórmulas que venimos tratando:
Una fórmula de la forma ∀xn A donde A tiene como única variable libre xn , es verdadera
bajo una interpretación M de un lenguaje L si y solo si, bajo una interpretación M+ de un
lenguaje L+ , con el mismo dominio que M y que extiende la función de denotación de M
de modo que todos los elementos del dominio sean denotados por alguna constante de L+ ,
se cumple que al sustituir xn por cualquier constante de individuo en todas sus ocurrencias
libres en A, se obtiene una fórmula verdadera.

Cuantificador existencial
Nuevamente, la idea de hacer una semántica composicional nos llevará a resolver el
valor de verdad de una fórmula del tipo ∃xn A, donde A es una fórmula, a partir de
fórmulas más simples. Recordemos que queremos que esta fórmula represente lo que
coloquialmente describiríamos diciendo que al menos un elemento del conjunto de la
interpretación "cumple" lo que la fórmula A expresa. Distinguimos los siguientes casos:

1. A partir de una fórmula A, que no tiene ocurrencias libres de la variable xn se forma


la fórmula ∃xn A. Este es el caso llamado cuantificación vacua. El valor de verdad de
la fórmula ∃xn A bajo la interpretación dada será el valor de verdad de A bajo la
interpretación dada en caso de que lo tenga.
2. A partir de una fórmula A que tiene ocurrencias libres de la variable xn y además
otras variables libres se forma la fórmula ∃xn A, que es abierta. Por consideraciones
análogas a las ya hechas anteriormente no asignaremos valor de verdad a esta fórmula.
3. A partir de la fórmula A cuya única variable libre es xn se forma la fórmula ∃xn A.
Nuevamente, este es el caso que se debe considerar en forma particular, lo que haremos
a continuación.

Aquí, en forma análoga al caso del cuantificador universal, estaríamos tentados de


afirmar que la fórmula existencial será verdadera si lo es alguna de las fórmulas que se
obtienen sustituyendo todas las ocurrencias de la variable libre en A por una constante de
234 Capítulo 10. Semántica

individuo del lenguaje L, pero eso sería un error. Consideremos nuevamente el caso que
hemos elegido para ejemplificar, en el que tenemos una interpretación M tal que:

(i) El dominio M = {Juan, María, Diego, Pedro, Elena}.


(ii) La denotación de c1 será María, la de c2 será Elena, la de R11 será el subconjunto {María,
Elena} y la de R12 será el subconjunto {Juan, Pedro, Diego} .

Bajo esta interpretación, la fórmula ∃x0 R12 x0 expresará que hay al menos un hombre, lo
que obviamente queremos que sea verdadero. Pero como no tenemos ningún hombre del
conjunto denotado por una constante de individuo de L, al sustituir x0 por una constante de
L en la fórmula R12 x0 , siempre obtendremos una fórmula falsa. Ya conocemos el remedio para
esto: se extiende el lenguaje, agregando constantes de modo que cada individuo del conjunto
quede denotado por al menos una de ellas y se trabaja con esta nueva interpretación.
Así, una fórmula de la forma ∃xn A, donde A tiene como única variable libre xn es
verdadera bajo una interpretación M de un lenguaje L si y solo si, bajo una interpretación
M+ de un lenguaje L+ , con el mismo dominio que M y que extiende la función de
denotación de M de modo que todos los elementos del dominio sean denotados por alguna
constante de L+ , se cumple que al sustituir xn por alguna constante de individuo en todas
sus ocurrencias libres en A, se obtiene una fórmula verdadera.
Como ya dijimos, la extensión de la función de denotación puede hacerse de muchas
maneras. Sin embargo, la atribución semántica que reciben las fórmulas no depende de
cuáles denotaciones se asignan a las constantes agregadas.

Comportamiento semántico de los conectivos proposicionales


Aquí la mente del lector puede descansar ya que no recibirá novedad alguna. La lógica de
primer orden incorpora en su totalidad la semántica propuesta para la lógica proposicional,
o sea, el comportamiento semántico de los conectivos proposicionales es el ya estudiado.
Esto permite ver a la lógica proposicional como un fragmento de la de primer orden, es
decir, podemos esperar que la clase de inferencias que se pueden evaluar por medio de la
lógica de primer orden incluya estrictamente a la de las inferencias cuya validez se puede
asegurar por medio de la lógica proposicional.
Por lo tanto estamos en condiciones de establecer las reglas semánticas para un lenguaje
cualquiera de primer orden:

Evaluación semántica de un lenguaje L bajo una interpretación M


Cualquier fórmula cerrada X del lenguaje L será verdadera o falsa bajo una interpretación
M, (lo que escribiremos como M(X) = V o M(X) = V) según las siguientes reglas:

semántica de LPO

sean L un lenguaje de primer orden y M una interpretación de L, L+ una exten-


sión de L obtenida agregando a este lenguaje constantes de individuo de forma
que haya tantas como para denotar cada elemento de |M| con por al menos una
constante y M+ una interpretación de L+ que tiene el mismo dominio que M,
coincide con ella en la denotación de los símbolos de L y otorga denotación a
10.4 Modelos, fórmulas válidas, tautologías 235

las constantes de individuo de tal forma que cada elemento del dominio esté
denotado por alguna de ellas. entonces
M M M
1. M(Rn n
i t1 , . . . , tn ) = V si y solo si ht1 , . . . , tn i pertenece a Ri .
2. M(t1 = t2 ) = V si y solo si tM M
1 = t2 .

3. M(¬A) = V si y solo si M(A) = F.


4. M(A ∧ B) = V si y solo si M(A) = V y M(B) = V.
5. M(A ∨ B) = F si y solo si M(A) = F y M(B) = F.
6. M(A → B) = F si y solo si M(A) = V y M(B) = F.
7. M(A ↔ B) = V si y solo si M(A) = M(B).
8. M(∀xn A) = V si y solo si M+ (A(xn ← cj )) = V para toda cj de L+ , donde
A(xn ← cj ) es la fórmula que se obtiene sustituyendo todas las ocurrencias
libres de xn por cj en A.
9. M(∃xn A) = V si y solo si M+ (A(xn ← cj )) = V para alguna cj de L+ .
10. todas las fórmulas cerradas de L son V o F bajo M.

En las reglas para las fórmulas cuantificadas se apela al valor de verdad que otorga la
interpretación M+ , el cual puede hallarse usando todo el conjunto de reglas que hemos
dado.

10.4 Modelos, fórmulas válidas, tautologías


Una vez determinada la semántica de LPO (o de los lenguajes basados en LPO), podemos
definir nociones análogas a las que habíamos considerado en LP.
Definición 10.4.1 — Modelos, contramodelos.
Un modelo de una fórmula es una interpretación bajo la cual es verdadera, y un contra-
modelo una interpretación bajo la cual es falsa. Un modelo de un conjunto de fórmulas
es una interpretación bajo la cual todas las fórmulas del conjunto son verdaderas.

Obsérvese que la únicas fórmulas que tienen modelos y contramodelos son las sentencias.
 Ejemplo 10.1 Toda interpretación es modelo de una sentencia de la forma ∃xn xn = xn .3
Sea M una interpretación cualquiera. Su dominio no es vacío, por lo que L+ tiene por
lo menos una constante de individuo ck y obviamente cM = cM
+ +
k k . Por lo tanto, por la
claúsula 2, M+ (ck = ck ) = V, lo que implica, por la cláusula 9, M(∃xn xn = xn ) = V.

 Ejemplo 10.2 Toda interpretación es contramodelo de la sentencia (∀xn R11 xn ∧ ¬∃xn R11 xn ).
Sea M una interpretación cualquiera tal que M(∀xn R11 xn ) =V. Entonces, M+ (R11 cj ) =V
para toda constante cj de L+ , según la cláusula 8. Sea ck una constante de L+ . (En L+
tiene que existir por lo menos una constante ya que el dominio de M no es vacío y la
3 Debido a que x no es una variable, ∃x x = x no es una fórmula, sino un esquema de fórmula. Se
n n n n
obtiene una fórmula al sustituir n por cualquier numeral natural. De aquí en más cometeremos abuso de
lenguaje refiriéndonos a estos esquemas de fórmulas como fórmulas.
236 Capítulo 10. Semántica

extensión de L tiene por lo menos una constante por cada elemento de ese dominio.)
Entonces M+ (R11 ck ) =V, lo que implica que M(∃xn R11 xn ) =V, según la cláusula 9 y por
lo tanto, M(¬∃xn R11 xn ) =F, según la cláusula 3. Por lo tanto, ninguna interpretación es
modelo a la vez de ∀xn R11 xn y de ¬∃xn R11 xn , con lo que todas las interpretaciones son
contramodelos de (∀xn R11 xn ∧ ¬∃xn R11 xn ), según la cláusula 4.

Los dos ejemplos anteriores nos dan los análogos a los conceptos de tautología y
contradicción, presentados para LP.
Definición 10.4.2 — Fórmula válida, contradicción, contingencia.
Una fórmula válida es una sentencia de la cual todas las interpretaciones son modelo.
Una contradicción es una sentencia que no tiene modelos. Una contingencia es una
sentencia A tal que existen un par de interpretaciones I y J tales que I(A) = V y J(A) = F

Antes de proseguir, aflojemos las restricciones impuestas por la rigidez del lenguaje
formal, como lo hicimos al trabajar en la lógica proposicional. De ahora en más, usaremos las
primeras letras del abcedario en minúsculas a, b, c, ... sin subindizar para indicar constantes
de individuo, las últimas letras en minúsculas u, v, x, y..., también sin subindizar, para
indicar variables, y letras mayúsculas para indicar letras de predicado. La aridad de estas se
hará evidente a partir de la cantidad de términos que les siguen. Así, al representar una
fórmula como Abxz indicamos inequívocamente que A es una letra de predicado ternaria.
 Ejemplo 10.3 Las fórmulas que siguen son válidas:

(∀xPx ∨ ∀xQx) → ∀x(Px ∨ Qx)


(∀xPx → ∀xPx)
(Pa → ∃xPx)
∃x(Px → ∀yPy)

La última fórmula de la lista anterior es llamada “fórmula del trago” por Smullyan
debido al siguiente chiste: Llega un cuate grandote y con pinta de muy malo a una cantina,
tira un par de tiros al aire, golpea en el mostrador y grita: “¡Cantinero! ¡Sírvame un
tequila y sírvale a todos, porque cuando yo bebo, todos beben!”. Algarabía general en la
cantina, gritos, etc. Al rato, el mismo cuate grita: “¡Caaaantinero! ¡Sírvaaame un teeequila
y sírvaaale a toooodos, porque cuaaaando yo beeebo, toooodos beeeeeben!” Más festejos.
Al rato, el mismo cuate: “¡Caaaaantineero! ¡Shíiiirvame un teeeeeequila y... shíiiiirvale a
tooooooooodos, porque cuaaaaaaando sho bebo, toooooooooodos beeeeeben!”. Y así se iban
alegrando todos mientras tomaban las vueltas mandadas por este tipo, hasta que grita:
“¡Caaaaaaaaaaantineeeeero! ¡Cóoooobremé y cóooobrelee a tooooooooodoss, poooooque
cuando shoo paaaagooo, tooooooodos pagan!”.
La fórmula “dice” que hay un individuo tal que si él tiene la propiedad P, entonces
todos los individuos la tienen. Y es una fórmula válida. O sea, podemos decir, refiriéndonos
a la humanidad, que existe un individuo tal que si él fuma, entonces todos fuman. Puede
parecer extraño, pero es así. Veamos que efectivamente se trata de una fórmula válida.
Desde un punto de vista informal se puede ver la validez de la sentencia considerando
que solo hay dos casos posibles: o bien todos los individuos cumplen la propiedad P o
10.4 Modelos, fórmulas válidas, tautologías 237

bien existe algún individuo que no cumple la propiedad P. Si estamos en el primer caso, es
claro que existe un individuo tal que si él tiene la propiedad P, entonces todos la tienen.
Cualquier individuo del dominio cumple eso. Si estamos en el segundo caso, también
existe un individuo tal que si tiene la propiedad P, entonces todos la tienen. Cualquiera
de los individuos que no tienen la propiedad P cumple eso, ya que en esas condiciones el
antecedente del condicional es falso.
Un poco más formalmente, consideremos una interpretación M de dominio M. Hay dos
y solo dos posibilidades:

(1) PM = M
(2) PM 6= M

Si se cumple la primera posibilidad, entonces cualquier constante de individuo a del


lenguaje extendido hace que M+ (Pa → ∀yPy) = V, ya que el consecuente del condicional
es verdadero. Por lo tanto la fórmula del trago es verdadera bajo M.
Si se cumple la segunda posibilidad, existe un elemento de M denotado por una
constante a en M+ tal que se cumple M+ (Pa) = F y por tanto M+ (Pa → ∀yPy) = V, ya
que el antecedente del condicional es falso. Y esto implica que la fórmula del trago es
verdadera bajo M. Como en cualquiera de los casos posibles la fórmula es verdadera bajo
M, se concluye que la fórmula es verdadera bajo M cualquiera, o sea es válida.4

una pregunta pertinente es si existirá un procedimiento mecánico, análogo a


las tablas de verdad, para determinar en todos los casos, dada una sentencia
de LPO, si se trata de una fórmula válida o no. la respuesta es que no, no existe.
no se trata de no conozcamos uno, sino de que con una definición precisa y
razonable de lo que es un “procedimiento mecánico”, se puede demostrar que tal
procedimiento no existe. para precisar un poco más, es demostrable que no se
puede confeccionar un programa de computadora que determine en todos los
casos si una fórmula es válida o no lo es. Este es uno de los descubrimientos
lógicos más importantes del siglo pasado, hecho por alonzo church e, indepen-
dientemente, por alan turing, al que se suele referir diciendo que la lógica de
primer orden es indecidible. tiene importantes implicaciones en otras áreas de
la filosofía, como por ejemplo, en filosofía de la mente. es un tema ineludible en
un segundo curso de lógica para estudiantes de filosofía.

Volvamos a la clasificación de las sentencias. Es claro que el lugar que ocupaban las
tautologías en la lógica proposicional lo ocupan las fórmulas válidas en la lógica de primer
orden. Sin embargo, seguiremos usando el término tautología. Lo reservaremos para aquellas
fórmulas válidas en virtud exclusivamente del comportamiento semántico de los conectivos
proposicionales, o sea, que seguirían siendo válidas aunque se cambiara el comportamiento
semántico de los cuantificadores. Precisamos el concepto de esta manera:

4 Observe el lector la utilización de LTE en este razonamiento. Así como existe una lógica proposicional

intuicionista, existe una lógica de predicados intuicionista. Y, en forma nada sorprendente, los intuicionistas
rechazan que la fórmula del trago represente una “ley lógica”.
238 Capítulo 10. Semántica
Definición 10.4.3 — Valuación booleana.
Una valuación booleana es una asignación V de valores de verdad a todas las sentencias
de la lógica de primer orden tal que para cualesquiera sentencias A y B:

V(¬A) = V si y solo si V(A) = F.


V(A ∧ B) = V si y solo si V(A) = V y V(B) = V.
V(A ∨ B) = F si y solo si V(A) = F y V(B) = F.
V(A → B) = F si y solo si V(A) = V y V(B) = F.
V(A ↔ B) = V si y solo si V(A) = V(B).

Definición 10.4.4 — Tautología en lógica de primer orden.


Una sentencia es una tautología si todas las valuaciones booleanas le asignan valor de
verdad V.
Debe advertirse que todas las interpretaciones son valuaciones booleanas pero no se
cumple lo recíproco. Por ejemplo, existe una valuación booleana que asigna valor de verdad
V a todas las fórmulas encabezadas por un cuantificador, con lo que daría valor V a ∃x¬Px
como a ∀xPx y por tanto, no puede ser una interpretación. Por eso, si una fórmula es
verdadera bajo todas las valuaciones booleanas (tautología) es necesariamente verdadera
bajo todas las interpretaciones (válida).
 Ejemplo 10.4 La sentencia ∀xPx → ∀xPx es una tautología. Sin importar cómo se comporta
el cuantificador universal, esta fórmula toma valor V solo debido al comportamiento semán-
tico del condicional. Otra forma de ver la diferencia entre fórmulas válidas y tautologías
es darse cuenta de que quien conozca la lógica proposicional pero no la lógica de primer
orden podría reconocer que, de asignársele un valor de verdad, la fórmula sería “siempre”
verdadera. Si una fórmula es válida y no tautológica, es necesario conocer el significado
de los cuantificadores para dar cuenta de su validez. La fórmula del trago es válida y no
tautológica, mientras que la fórmula (∃xPx ∨ ¬∃xPx) es una tautología (sea lo que sea que
represente lo encabezado por el cuantificador existencial, es una instancia de LTE).

Definición 10.4.5 — Sentencias equivalentes.


La sentencia A es equivalente a la sentencia B si y solo si todos los modelos de A son
modelos de B y recíprocamente.

Notación 10.2. Si A es equivalente a B escribimos A ≡ B.

Definición 10.4.6 — Implicación.


La sentencia A implica la sentencia B si y solo si todos los modelos de A son modelos de
B.
 Ejemplo 10.5 ∀xPx ≡ ¬∃x¬Px
Sea M tal que M(∀xPx) = V. Esto significa que
(1) M+ (Pa) = V para toda constante a de L+ .
Supongamos que fuera M(¬∃x¬Px) = F y llegaremos a una contradicción: En este caso,
sería M(∃x¬Px) = V, y eso implica que para alguna constante b de L+ , M+ (¬Pb) = V, o
sea que para alguna constante b de L+ , M+ (Pb) = F, lo que contradice (1).
10.5 Conjuntos satisfacibles e insatisfacibles 239

Esto demuestra que todos los modelos de ∀xPx son modelos de ¬∃x¬Px, y por tanto,
que la primera fórmula implica la segunda. Queda como ejercicio mostrar que se cumple lo
recíproco, con lo que quedará demostrada la equivalencia.

10.5 Conjuntos satisfacibles e insatisfacibles


Continuamos con las definiciones análogas a las vistas en el estudio de LP:
Definición 10.5.1 — Conjunto satisfacible.
Un conjunto de sentencias se llama satisfacible si tiene un modelo e insatisfacible en caso
contrario.
De la definición surge que para mostrar que un conjunto dado es satisfacible, basta
mostrar un modelo común a todas sus sentencias. Mostrar la instasfacibilidad de un conjunto
requiere mostrar la imposibilidad de que exista un modelo común a sus sentencias.
 Ejemplo 10.6 El conjunto Γ = {∀xRax, Pb} es satisfacible.
Es sencillo encontrar modelos de este conjunto. Para hacerlo, es necesario determinar un
dominio, y una vez establecido este, otorgar denotación a los símbolos no lógicos R (una
letra de predicado binaria), P (una letra de predicado unaria) y a las constantes a y b.
Vamos a presentar varios modelos del mismo conjunto.
1. La presencia de dos constantes nos puede hacer pensar en tomar un dominio con dos
elementos. Esto no es necesario, como veremos, pero hagámoslo así. Tomemos como
dominio de la interpretación que queremos construir el conjunto M = {1, 2}. Ahora
debemos asignar denotación a los símbolos no lógicos. Tomemos como denotación de
la constante a el número 1 y como denotación de la constante b el número 2. Una vez
hecho esto, hay que asignar denotación a P y R. Con respecto a P, la presencia en Γ
de la fórmula Pb y la denotación ya elegida para la constante b, nos obliga a elegir
como denotación de esa letra un subconjunto de M al que pertenezca el elemento 2.
Podemos sencillamente elegir, como denotación de P, {2}. Finalmente, la denotación
de R debe ser un conjunto de pares ordenados de elementos de M. La presencia en
Γ de la fórmula ∀xRax y la denotación ya elegida para a nos obliga a elegir como
denotación de R un conjunto de pares tal que le pertenezcan todos los pares posibles
en los que 1 sea la primera componente. O sea, debemos elegir como denotación de R
un conjunto que incluya a {h1, 1i, h1, 2i}. Podemos elegir ese mismo conjunto. Así, el
modelo M hallado es:
Dominio: {1, 2}
aM = 1
bM = 2
PM = {2}
RM = {h1, 1i, h1, 2i}
2. Otra posibilidad es tomar como dominio el conjunto de los símbolos no lógicos
del lenguaje en el que se expresan las sentencias que tenemos bajo consideración:
O = {a, b, P, R}. Tomamos como denotación de la letra a la propia letra a, como
denotación de la letra b la letra R, la denotación de P será el conjunto {a, R} y la de R
será {ha, ai, ha, bi, ha, Pi, ha, Ri hP, bi}. En este caso, el modelo O hallado es:
240 Capítulo 10. Semántica

Dominio: {a, b, P, R}
aO = a
bO = R
PO = {a, R}
RO = {ha, ai, ha, bi, ha, Pi, ha, Ri hP, bi}

En este ejemplo no se utilizaron objetos extralingüísticos para encontrar el modelo. Es


conveniente recordar que siempre se tienen a mano los objetos propios del lenguaje
para pensar en modelos
3. Considerando otro enfoque, podemos pensar en la posibilidad de encontrar un modelo
Z cuyo dominio tenga un único elemento. Ni siquiera es necesario comprometerse
con qué cosa será ese objeto. Lo podemos representar con un círculo o punto, y lo
llamamos u.
u

Como ya está dado el dominio, resta determinar la función de denotación. Obviamente,


no tenemos muchas opciones para aZ y bZ , ambas deben ser u.

aZ = bZ
u

Como el modelo debe hacer verdadera la sentencia Pb, es obligado que la denotación
de la letra P sea el conjunto {u}, el propio dominio:

aZ = b Z
u PZ

Resta dar denotación a la letra R. Obviamente, no podemos elegir RM = ∅ porque


la sentencia ∀xRax debe ser verdadera en la interpretación, por lo que es obligado
que RM = {hu, ui}. Desde el punto de vista gráfico, las relaciones binarias pueden
representarse con un conjunto de flechas que vayan desde las primeras componentes
de sus pares a sus segundas componentes. En nuestro caso, lo representamos con una
flecha que empieza en u y llega a u:

aZ = b Z
u PZ
RZ

Ahora solo resta hallar un objeto u realmente existente y se tiene un modelo.


4. También podemos hallar un modelo infinito: El lector demostrará fácilmente que la
interpretación N con dominio N (el conjunto de los números naturales), tal que a
denota el 0, b denota el 1, P denota el conjunto de los números impares y R denota la
relación menor o igual es modelo del conjunto Γ .
10.5 Conjuntos satisfacibles e insatisfacibles 241

 Ejemplo 10.7 El conjunto {∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y))} es satisfacible y todo


conjunto es modelo de él si y solo si tiene exactamente dos elementos.
Ante todo, observemos que la única sentencia del conjunto bajo consideración pertenece
al lenguaje vacío, es decir, no aparecen en ella símbolos no lógicos. Por lo tanto, en la
interpretación no tenemos que dar una función de denotación, basta encontrar un dominio.
Comencemos como en el último ejemplo, busquemos la posibilidad de encontrar un dominio
con un único elemento u. En el lenguaje extendido L+ habrá al menos una constante cuya
denotación será u, y si hay más constantes, todas denotarán u. Si la sentencia es verdadera
bajo una interpretación I cuyo dominio es unitario, tendremos:

I(∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y))) = V

o sea que para alguna constante a de L+

I+ (∃y(¬a = y ∧ ∀z(z = a ∨ z = y))) = V

por lo que para algún par de constantes a y b de L+

I+ ((¬a = b ∧ ∀z(z = a ∨ z = b))) = V

lo que implica que en ese lenguaje extendido hay constantes a y b tales que

I+ (¬a = b) = V

pero eso implica, a su vez, que

aI 6= bI
+ +

lo que es imposible ya que en I+ todas las constantes denotan el mismo objeto, u.


Por lo tanto, ninguna interpretación de dominio unitario es modelo de la sentencia bajo
consideración.
Consideremos ahora una interpretación K cuyo dominio sea un conjunto de dos elemen-
tos, u y v. Mostremos que es modelo de la sentencia.
En L+ hay al menos dos constantes, a y b, tales que una de ellas denota u y la otra
denota v. Cualquier otra constante, en caso de existir, denota uno de esos dos objetos. Sin
perder generalidad, consideramos que aK = u y bK = v.
+ +

Como u y v son objetos diferentes, tenemos

K+ (¬a = b) = V

Por otro lado, para cualquier constante c de L+ , se tiene que cK = u o cK = v, por lo


+ +

que

K+ ((c = a ∨ c = b)) = V

para toda constante c, de modo que

K+ (∀z(z = a ∨ z = b)) = V
242 Capítulo 10. Semántica

Entonces

K+ ((¬a = b ∧ ∀z(z = a ∨ z = b))) = V

con lo que

K+ (∃y(¬a = y ∧ ∀z(z = a ∨ z = y))) = V

y finalmente

K(∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y))) = V

lo que demuestra que todo conjunto de dos elementos es modelo de la sentencia.


Por otro lado, si una interpretación P tiene un dominio con más de dos elementos,
encontraríamos que en L+ habría al menos tres constantes denotando objetos diferentes.
Supongamos que a, b y c denotan esos tres objetos, y que se cumple

P(∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y))) = V

Entonces para alguna constante d de L+

P+ (∃y(¬d = y ∧ ∀z(z = d ∨ z = y))) = V

y por tanto, para algún par de constantes d y e de L+

P+ ((¬d = e ∧ ∀z(z = d ∨ z = e))) = V

Esto implica que

P+ (∀z(z = d ∨ z = e)) = V

lo que a su vez implica que para toda constante f de L+

P+ (f = d ∨ f = e)) = V

lo que claramente no puede ser, ya que si e y d denotan el mismo objeto, podemos elegir
entre las constantes a, b y c cualquiera de las dos que no denotan ese mismo objeto
(supongamos que a no denota ese objeto) para obtener P+ (a = d ∨ a = e)) = F; y si e y d
denotan objetos diferentes del dominio, podemos elegir de entre a, b y c la constante que
denota el objeto restante (supongamos que es c) para obtener P+ (c = d ∨ c = e)) = F.
Esto demuestra que P no sería modelo del conjunto puesto a consideración.
En general, para cada n natural positivo, existe una sentencia Sn de LPO tal que un
conjunto será modelo de Sn si y solo si tiene más de n elementos. También existe una
sentencia Tn tal que un conjunto será modelo de Tn si y solo si tiene menos que n elementos,
y otra Un tal que un conjunto será su modelo si y solo si tiene exactamente n elementos.
(Obviamente, se puede tomar Un = ¬Sn ∧ ¬Tn ).
10.5 Conjuntos satisfacibles e insatisfacibles 243

Ejercicio 10.1 Hallar un esquema de sentencia tal que toda sentencia que responda a él
tenga como modelo cualquier conjunto con al menos n elementos y solo a ellos y otro
esquema de sentencias que sean modeladas por todos los conjuntos con por lo menos n
elementos y solo por ellos.

 Ejemplo 10.8 El conjunto Γ = {∀x∃yRxy, ¬∃xRxx, ∀x∀y∀z((Rxy ∧ Ryz) → Rxz)} es satisfa-


cible y ninguno de sus modelos tiene dominio finito5 .
En este caso, para encontrar un modelo se debe dar, además de un dominio, la denotación
de la letra binaria R.
La sentencia que aparece en tercer lugar en el conjunto expresa que la relación R
es transitiva, o sea que cumple la propiedad característica de los órdenes. La segunda
sentencia expresa que ningún elemento está relacionado por R consigo mismo, de manera
que podemos pensar en un orden estricto. A partir de aquí es sencillo considerar, por
ejemplo, como dominio el conjunto de los números naturales, N y como denotación de
R la relación menor que, que usualmente se nombra con el signo <. Así obtenemos una
interpretación N que es modelo del conjunto dado:

1. N es modelo de ∀x∃yRxy porque dado cualquier número natural n existe otro, m tal
que n < m.
2. N es modelo de ¬∃xRxx porque ningún número natural está relacionado consigo
mismo en la relación menor que.
3. N es modelo de ∀x∀y∀z((Rxy ∧ Ryz) → Rxz) porque la relación menor que es transitiva.

Mostremos ahora que si M es modelo de Γ , su dominio es infinito.


En general, si en el dominio de una interpretación hay exactamente j elementos, esa
interpretación será contramodelo del conjunto Γ y lo podemos demostrar así: supongamos
que una interpretación M es modelo de Γ y su dominio tiene j elementos. La denotación de R
en M será un conjunto de pares ordenados de elementos de ese dominio. Como la sentencia
∀x∃yRxy es verdadera bajo M, cada uno de los elementos del dominio debe aparecer como
primera componente en alguno de los pares que conforman la denotación de R. Tomemos
un elemento cualquiera del dominio, llamémosle a1 . Este elemento debe aparecer como
primera componente de un par en la denotación de R. Tomemos un par cualquiera en el
que a1 es la primera componente y llamemos a su segunda componente a2 . Repitamos el
procedimiento, llamando a3 a la segunda componente de un par cualquiera cuya primera
componente es a2 . En general, si hemos hallado a1 , a2 , . . . , an , para hallar an+1 buscamos
un par cualquiera en la denotación de R que tenga a an como su primera componente y
llamamos an+1 a su segunda componente. Hacemos esto hasta obtener aj+1 . Es claro que

5 Diremos que un conjunto o sentencia tiene modelo finito (o infinito) si alguna interpretación que le sirve

de modelo tiene dominio finito (o infinito). En este ejemplo se demuestra que todos los modelos del conjunto
dado son infinitos.
244 Capítulo 10. Semántica

se tiene

RM a1 a2
RM a2 a3
RM a3 a4
..
.
RM aj aj+1

Si M es modelo de Γ , RM debe ser transitiva, para que ∀x∀y∀z((Rxy ∧ Ryz) → Rxz) sea
verdadera bajo M. Entonces se cumple que si k < l, RM ak al , por transitividad. Dado que en
el dominio de M solo hay j elementos, es necesario que entre a1 , a2 , . . . , aj , aj+1 haya al
menos un elemento repetido6 . Entonces para algún k y algún l con k < l tenemos ak = al .
Pero eso implica, ya que Rak al , que Rak ak , lo que hace falsa la sentencia ¬∃xRxx. Esto
demuestra que ninguna interpretación con dominio finito es modelo de Γ .
 Ejemplo 10.9 El conjunto Γ = {∃x(Hx ∧ ∀y(Hy → (Axy ↔ ¬Ayy)))} es insatisfacible:
Sea M tal que

M(∃x(Hx ∧ ∀y(Hy → (Axy ↔ ¬Ayy)))) = V

Entonces, para alguna constante a de L+

M+ (Ha ∧ ∀y(Hy → (Aay ↔ ¬Ayy)))) = V

de donde

(1) M+ (Ha) = V
(2) M+ (∀y(Hy → (Aay ↔ ¬Ayy))) = V

Por (2) se tiene que

(3) M+ (Ha → (Aaa ↔ ¬Aaa))) = V

y de (1) y (3) surge

M+ (Aaa ↔ ¬Aaa) = V

pero ninguna interpretación puede otorgar el valor V a la sentencia Aaa ↔ ¬Aaa, porque
para ello debería otorgar el mismo valor de verdad a Aaa y a su negación.
Queda demostrado, por tanto, que el conjunto Γ es insatisfacible.

6 Esto
se debe al llamado principio de Dirichlet o principio del palomar. Como hemos elegido impuesto j + 1
nombres a j objetos, es necesario que algún objeto haya recibido más de un nombre. El principio frecuentemente
se expresa diciendo que si n palomas entran en m palomares y es n > m, habrá al menos un palomar en el que
entre más de una paloma.
10.6 Ejercicios 245

10.6 Ejercicios
1. Se presentan a continuación cinco conjuntos de símbolos no lógicos que determinan
cinco lenguajes de primer orden. Presentar una interpretación para cada uno de esos
lenguajes.

a) L1 = {c1 , c3 , R11 , R12 , R21 }


b) L2 = {R8 }
4

c) L3 = {c1 , R12 , R22 }


d) L4 = {c3 }
e) L5 = {c0 , c1 , c2 , c3 , ...}

2. Para cada lenguaje y cada interpretación presentada en el ejercicio anterior, indique dos
fórmulas que sean verdaderas y dos fórmulas que sean falsas bajo esas interpretaciones.

3. Considere el lenguaje L = {c1 , c2 , R11 , R21 } y las interpretaciones A, B para el mismo:

A B
A = {0, 1, 2} B = {1}
cA
1 =0 cB B
1 = c2 = 1
cA
2 =1
A B
R11 = {0, 1} R11 = B
A B
R21 = {h0, 1i h1, 1i} R21 = {h1, 1i}

Indique el valor de verdad de cada una de las sentencias siguientes bajo A y bajo B

¬∀x7 R11 x7 ¬∃x3 ∃x5 R21 x5 x3


∀x15 ¬R11 x15 ∀x3 ∀x5 R21 x5 x3
¬∃x12 ¬R11 x12 ∃x3 R21 x3 x3
∀x3 ∀x5 (R21 x5 x3 → R21 x3 x5 ) ∃x3 ∀x5 R21 x5 x3
∀x3 ∀x5 ∀x1 ((R21 x5 x3 ∧ R21 x3 x1 ) → R21 x5 x1 ) ∀x5 ∃x3 R21 x5 x3
∀x3 ∃x5 R21 x5 x3 ∃x5 ∀x3 R21 x5 x3
∀x3 ∀x5 ∀x1 ((R21 x5 x3 ∧ R21 c2 x1 ) → R21 x5 c1 ) ∀x3 ∀x5 (R21 c2 x3 → R21 x3 c1 )

4. De las fórmulas del ejercicio anterior, considere aquellas que tienen el mismo valor de
verdad bajo A y bajo B. Para aquellas que son verdaderas bajo ambas interpretaciones,
encuentre un contramodelo. Para aquellas que son falsas bajo ambas interpretaciones,
encuentre un modelo.

5. Indique si los conjuntos siguientes son satisfacibles. Para los que lo son, presente un
246 Capítulo 10. Semántica

modelo. Para los que no lo son, justifique su respuesta.

{¬∀x1 ∀x2 R21 x1 x2 , R21 c1 c2 }


{∀x1 R11 x1 , ∃x3 ¬R12 x3 , (∃x7 R11 x7 → ∀x8 ¬R12 x8 )}
{∀x1 R21 x1 x1 , ¬∀x1 ∀x2 R21 x1 x2 }
{∀x1 (R11 x1 ∨ R11 x1 ), ∃x2 (¬R11 x2 ∧ ¬R12 x2 )}

En los ejercicios siguientes se trabajará con la notación flexible presentada en el texto.

6. Demostrar que todos los modelos de la sentencia ∀x∀y(x = y ∨ ¬Rxy) son modelos
de la sentencia ∀x∀y(Rxy → Ryx).

7. Paradoja de Russell. La paradoja de Russell es un importante resultado que el filósofo


que le da nombre comunicó a Frege, acto que tuvo como resultado inmediato el mostrar
que el proyecto fregeano de fundamentación de la matemática era inviable en la forma
en que se estaba intentando. Se puede expresar así en lenguaje natural: Aceptemos que
todas las propiedades determinan conjuntos, particularmente, el conjunto de objetos
que cumplen la propiedad. Entonces, “ser un conjunto” es una propiedad, y existe por
lo tanto, el conjunto de todos los conjuntos. También “no pertenecer a sí mismo” es una
propiedad. Por ejemplo, el conjunto de los números naturales cumple la propiedad de
no pertenecer a sí mismo, ya que sus elementos son números naturales, y él mismo
no se cuenta entre sus elementos. Digamos que si un conjunto cumple esa propiedad
es ordinario, y si no la cumple, o sea, si pertenece a sí mismo, es extraordinario. Por lo
tanto, “ser un conjunto ordinario” es una propiedad. Por lo que dijimos, el conjunto de
los números naturales es ordinario, y una ligera reflexión muestra que el conjunto de
todos los conjuntos es extraordinario. Es claro que todo conjunto es o bien ordinario o
bien extraordinario.
También existe el conjunto de todos los conjuntos ordinarios, al que llamaremos R.
¿Es R ordinario o extraordinario? Si R es ordinario, entonces no se pertenece a sí
mismo (por definición de ordinario), pero entonces cumple la propiedad requerida
para pertenecer a R (ser ordinario), y por lo tanto se pertenece a sí mismo, de modo
que es extraordinario.
Hemos establecido: Si R es ordinario, entonces R es extraordinario (o sea, no es ordinario).
Por lo tanto, debe ser R extraordinario. Pero si R es extraordinario, entonces R se
pertenece a sí mismo, y por lo tanto cumple la propiedad que define a R, esto es, ser
ordinario.
Hemos establecido: Si R es extraordinario, entonces R es ordinario (o sea, no es extraordi-
nario). Los dos enunciados resaltados indican una contradicción. Eso constituye la
paradoja de Russell.
El ejercicio consiste en mostrar a través de una interpretación que el ejemplo 10.9 se
puede ver como una formalización de la paradoja de Russell.

8. Paradoja de Grelling. La paradoja de Grelling surge al clasificar los adjetivos de


una lengua en autológicos y heterológicos. Un adjetivo es autológico si se aplica a sí
10.6 Ejercicios 247

mismo. Por ejemplo, el adjetivo “quintisíalabo” es autológico, ya que “quintisílabo” es


quintisílabo. El adjetivo “rojo” es heteorlógico, ya que “rojo” no es rojo. Todo adjetivo
es o bien autológico o bien heterológico. Ahora bien, “heterológico” es un adjetivo.
Si “heterológico” es heterológico, entonces se aplica a sí mismo, y por lo tanto es
autológico. Por lo tanto, “heterológico” debe ser autológico. Pero si “heterológico”
es autológico, entonces no se aplica a sí mismo y por lo tanto es heterológico. Esto
configura una contradicción.
El ejercicio consiste en mostrar formalmente que la paradoja de Grelling es estructu-
ralmente igual a la de Russell.

9. Suponiendo (como se hace en algunas teorías de conjuntos) que la colección de todos


los conjuntos no es un conjunto –una consecuencia de la necesidad de evitar la paradoja
de Russell–, y que la unión de conjuntos es siempre un conjunto, demostrar que no
existe el conjunto de todos los modelos de la sentencia ∀x∀y x = y.

10. En el ejemplo 10.8 se mostró un conjunto de sentencias tal que todos sus modelos son
infinitos. ¿Se cumple que todos los modelos del conjunto formado por las negaciones
de las sentencias dadas son finitos? Justifique.

11. Hallar una sentencia tal que todos sus modelos finitos tengan una cantidad par de
elementos y admita modelos finitos de cualquier cantidad par de elementos.
11 | LPO y lenguaje natural

omo vimos, al utilizar la lógica proposicional para propósitos de evaluación de la

C corrección argumental es necesario identificar las proposiciones que se expresan en


lenguaje natural y sus conexiones en términos expresables mediante las constantes
lógicas disponibles en ese marco, para lograr una adecuada representación de los argumentos
en el lenguaje formal.
Al trabajar con LPO la situación es la misma, se debe lograr una adecuada traducción
de las proposiciones expresadas en lenguaje natural al lenguaje formal, pero este proceso
presenta complejidades características derivadas del hecho de que LPO “mira dentro” de
proposiciones que para la lógica proposicional resultan inanalizables.

11.1 La elección de los predicados


Un ejemplo sencillo es que en el marco de la lógica proposicional una oración como

Sócrates es hombre.

no encuentra mejor traducción que, por ejemplo, p5 , mientras que el el marco de LPO, la
traducción debe hacerse reconociendo por un lado el nombre “Sócrates” y por otro lado la
presencia del predicado . . . es hombre.
Como regla general, para los nombres elegiremos constantes de individuo y para las
relaciones letras de relación de la aridad adecuada. En este caso eso es muy sencillo.
Construimos un “diccionario” que ponga en correspondencia los elementos que advertimos
a través del lenguaje natural con los del lenguaje formal elegidos para representarlos. Por
ejemplo:

Nombre o predicado Constante de individuo o letra de relación


Sócrates c7
. . . es hombre R14

La representación correspondiente sería R14 c7 . Normalmente, el problema se torna más


complejo porque frecuentemente tenemos varias formas de representar una misma proposi-
ción. Por ejemplo, consideremos la oración

Platón fue discípulo de Sócrates y maestro de Aristóteles.

Con respecto a los nombres, no hay dudas. En la oración aparecen tres y sabríamos cómo
representarlos si lo tenemos que hacer. Para concretar, fijemos ya esa parte del diccionario:
250 Capítulo 11. LPO y lenguaje natural

Nombre Constante de individuo


Sócrates c7
Platón c8
Aristóteles c9

Pero, ¿qué sucede con los predicados? ¿Cuál de los predicados siguientes es el que
debemos adoptar?

(1) . . . fue discípulo de Sócrates y maestro de Aristóteles


(2) Platón fue discípulo de . . . y maestro de Aristóteles
(3) Platón fue discípulo de Sócrates y maestro de . . .
(4) . . . fue discípulo de . . . y maestro de Aristóteles
(5) . . . fue discípulo de Sócrates y maestro de . . .
(6) Platón fue discípulo de . . . y maestro de . . .
(7) . . . fue discípulo de . . . y maestro de . . .

Tenemos siete posibilidades1 . ¿Cuál de ellas es la correcta? La respuesta es que todas lo


son, pero que presentan grandes diferencias. Los tres primeros predicados son unarios, los
tres siguientes binarios y el último ternario. Y son todos predicados diferentes. La cuestión de
la elección entre ellos para la traducción de la oración solo puede decidirse contextualmente,
según otras proposiciones que aparezcan en el argumento a evaluar. Diferentes elecciones
nos pueden llevar a representar esta misma oración así (mantenemos el orden en que se
mencionan los predicados y recordamos las constantes elegidas para los nombres):

(1) R11 c8
(2) R12 c7
(3) R13 c9
(4) R21 c8 c7
(5) R22 c8 c9
(6) R23 c7 c9
3
(7) R1 c8 c7 c9

En general, el análisis más fino es el que permite la mejor captación de la dinámica


lógica de los argumentos, pero tiene como contrapartida una mayor dificultad operacional.
La decisión, como dijimos, debe hacerse contextualmente. Por ejemplo, supongamos que se
trata de analizar el argumento

Juan es hermano de Pedro.


Todos los hermanos de Pedro son abogados.
Juan es abogado.
1 En general, el proceso de retirar eligiendo entre n nombres da lugar a 2n − 1 posibles predicados.
11.1 La elección de los predicados 251

Y tenemos la duda de cómo representar la primera premisa, que al tener dos nombres,
puede ser representada por medio de 22 − 1 = 3 predicados diferentes. ¿Cuál de los
predicados siguientes considerar?
(1) . . . es hermano de Pedro
(2) Juan es hermano de . . .
(3) . . . es hermano de . . .
Si consideramos el último predicado, no habrá problema en la evaluación argumental,
siempre que consideremos uniformemente el predicado en todo el argumento (o sea, no
considerar una vez la expresión que contiene la palabra “hermano” como un predicado y
otra vez como un predicado diferente). Nos quedaría el diccionario:

Nombre o predicado Constante de individuo o letra de relación


Juan c1
Pedro c2
. . . es hermano de . . . R21
. . . es abogado R11

y la traducción del argumento:

R21 c1 c2
∀x1 (R21 x1 c2 → R11 x1 )
R11 c1
Intuitivamente es claro que esto funcionaría porque en la segunda premisa sin importar
con qué constante sustituyamos x1 , obtendremos algo que es consecuencia de ella al hacer
la sustitución. Y si la hacemos por c1 obtenemos un condicional cuyo antecedente es la otra
premisa y su consecuente la conclusión.
Si consideramos el primer predicado, tampoco habrá problema en la evaluación argu-
mental. En este caso el diccionario sería:

Nombre o predicado Constante de individuo o letra de relación


Juan c1
Pedro c2
. . . es hermano de Pedro R12
. . . es abogado R11

y la traducción del argumento:

R12 c1
∀x1 (R12 x1 → R11 x1 )
R11 c1
La explicación intuitiva de por qué debería funcionar esta formalización es idéntica que
en el caso anterior.
Pero si formalizamos utilizando el segundo predicado obtenemos:
252 Capítulo 11. LPO y lenguaje natural

Nombre o predicado Constante de individuo o letra de relación


Juan c1
Pedro c2
Juan es hermano de . . . R12
. . . es abogado R11

y no tenemos forma de traducir “Todos los hermanos de Pedro son abogados” utilizando la
letra de predicado R12 , porque esa letra solo se aplicará a los hermanos de Juan.
De manera que en cada caso debemos decidir cuáles predicados utilizar para la tra-
ducción, y no hay recetas simples. Lo mejor es basarse en la intuición del pretendido
funcionamiento lógico del argumento. Si este es muy complejo, puede suceder que sea nece-
sario revisar la identificación de predicados porque una identificación inadecuada puede
llevarnos a un mal análisis contextual. Sobre proposiciones aisladas, ninguna identificación
de predicados tiene primacía, pero cuando las proposiciones interactúan lógicamente no
todas las atribuciones de predicados son relevantes.
A partir de esta sección, dejaremos de usar el lenguaje formal cuando nos parezca
conveniente. Usaremos a, b, c, ..., es decir, las primeras letras del abecedario para las
constantes de individuo; u, v, x,... es decir, las últimas para variables, y mayúsculas para las
letras de predicados. Prescindiremos además de los paréntesis que no eviten ambigüedades.

11.2 La cuantificación
La otra novedad que introduce la lógica de primer orden es la cuantificación. Cuando
se trata de traducir proposiciones que se resuelven en un único cuantificador, la tarea
resulta simple. Pero cuando hay más de una cuantificación en la misma proposición se debe
traducir con extremo cuidado. Consideremos, por ejemplo, el argumento siguiente, del que
ya dijimos que es lógicamente incorrecto.
Todas las cosas tienen una causa.
Hay una causa de todas las cosas.
Si razonamos sobre la elección de predicados, nos daremos cuenta de que lo apropiado
es elegir un predicado binario, formando este diccionario, ya que se habla tanto de tener
causa como de ser causa, por lo que los predicados unarios posibles no tienen la flexibilidad
expresiva necesaria para capturar lo expresado:

Nombre o predicado Constante de individuo o letra de relación


. . . es causa de . . . C

¿Qué dice la conclusión en términos del predicado “...es causa de...”? Es claro que afirma
que hay una cosa que se relaciona con todas a través de la relación que denota el predicado.
O sea, la traducción sería:

∃x∀yCxy

¿Y qué dice la premisa? ¿Dice acaso que todas las cosas están relacionadas con una a
través de la relación inversa a C, que es lo mismo que afirma la conclusión? No, no dice eso.
11.3 En la práctica 253

Dice que cada cosa está relacionada con alguna a través de la inversa de la relación, lo que es
muy diferente. Lo podemos parafrasear como “para cada cosa existe alguna cosa que es su
causa”. La traducción correcta es:

∀x∃yCyx

Advierta el lector varios aspectos importantes:


La necesidad de usar variables diferentes. Si hubiéramos escrito, por ejemplo, ∀x∃xCxx,
tendríamos que la cuantificación universal estaría actuando sobre una fórmula cerrada,
de modo que su valor de verdad sería el mismo que el de ∃xCxx, que expresa que hay
algo que es causa de sí mismo.
La importancia del orden en que se colocan los cuantificadores. Un intercambio en
el orden lleva a un cambio de significado muy importante. En este caso es sencillo
advertir el orden correcto. Un enunciado expresa que existe algo que tiene la propiedad
de ser causa de todas las cosas, el otro enunciado expresa que todas las cosas tienen la
propiedad de ser causadas por algo. Eso indica el orden de cuantificación correcto.
El orden en que se colocan las variables siguiendo a las letras de predicado. En la
última fórmula el orden hubo de ser yx porque la letra de relación expresa que lo
primero es causa de lo segundo, y cuantificamos universalmente sobre lo segundo
(todo es causado), y existencialmente sobre lo primero.
¿Qué expresa en este contexto la fórmula ∀x∃yCxy? La respuesta es algo así como la ley
del karma: “Para toda cosa, hay algo que ella causa” o, más coloquialmente “Todo es causa
de algo”.

11.3 En la práctica
En esta sección veremos algunas expresiones del lenguaje natural de cierta complejidad
en las que tengamos que poner en juego lo visto hasta el momento en el capítulo.
 Ejemplo 11.1 Traducir a LPO la siguiente proposición:

Ningún boxeador combate con cualquiera que lo desafía.


La elección de predicados parece muy evidente:
. . . es boxeador
. . . combate con . . .
. . . desafía a . . .
Adviértase que la elección de predicados en este caso es transparente. Concentrémonos
en expresar lo dicho usando los cuantificadores. La frase comienza con el sintagma ningún
boxeador combate. Expresa algo de todos los boxeadores: a saber, que no combaten con lo que
luego se aclara. Podemos parafrasear entonces:
Para todo boxeador, se cumple que no combate con cualquiera que lo desafía.
El “para todo boxeador”, se expresa así con cuantificadores que deben ranguear sobre
todo un dominio, no solo sobre los boxeadores:
254 Capítulo 11. LPO y lenguaje natural

Para toda cosa, si esa cosa es boxeador, se cumple que esa cosa no combate con
cualquiera que la desafía.
Observemos ahora que “no combate con cualquiera que la desafía” es sustituible por
“no combate con todos los que la desafían”. Parafraseando:
Para toda cosa, si esa cosa es boxeador, se cumple que esa cosa no combate con todos
los que la desafían.
Tornemos la atención al problema planteado por "esa cosa no combate con todos los
que la desafían". Si pensamos un poco, veremos que expresa algo acerca de todos los
que desafían a esa cosa: que no todos los que desafían esa cosa son combatidos por ella.
Parafraseando:
Para toda cosa, si esa cosa es boxeador, se cumple que no todos los que desafían esa
cosa son combatidos por esa cosa.
Ahora solo resta tratar “todos los que desafían esa cosa son combatidos por esa cosa",
y lo hacemos en forma análoga a la cuantificación propuesta sobre los boxeadores: la
expresamos como “para todo objeto, si ese objeto desafía esa cosa, es combatido por esa
cosa”. El parafraseo final queda:
Para toda cosa, si esa cosa es boxeador, se cumple que no para todo objeto, si ese
objeto desafía esa cosa, es combatido por esa cosa.
Tomando este diccionario

Nombre o predicado Constante de individuo o letra de relación


. . . es boxeador B
. . . combate a . . . C
. . . desafía a . . . D

la traducción queda

∀x(Bx → ¬∀y(Dyx → Cxy))

Otra forma de traducir esto mismo sería la siguiente: El sintagma ningún boxeador desafía
está expresando que no existen boxeadores que desafíen. O sea, se podría parafrasear así:
No existe cosa alguna que sea boxeador y combata con todos los que la desafían.
Como el lector podrá apreciar fácilmente, de tomar por este camino la traducción
quedaría así:

¬∃x(Bx ∧ ∀y(Dyx → Cxy))

 Ejemplo 11.2 Traducir a LPO la siguiente proposición:

Ana tiene al menos un lunar en cada mejilla.


El problema de los nombres es trivial, solo aparece “Ana”. Mucho más delicado es el
problema de los predicados.
Hay una solución brutal, que es retirar el nombre, obteniendo un predicado:
11.3 En la práctica 255

. . . tiene al menos un lunar en cada mejilla.


Desde ese punto de vista, la oración se formalizaría (traduciendo ese predicado unario
como T y “Ana” como a) simplemente como T a, pero esa solución puede ser, debido a
diferentes contextos, muy insuficiente. De modo que intentemos el análisis más fino del que
seamos capaces.
Las palabras “lunar” y “mejilla” son nombres comunes. Para los nombres comunes
siempre podemos establecer un predicado. Dado el nombre común A existe el predicado
. . . es (un) A. De modo que tenemos identificados dos predicados unarios
. . . es (un) lunar
. . . es (una) mejilla
Salta a la vista que la palabra “tiene” expresa alguna relación. Podemos estar tentados
de considerar la relación denotada por el predicado unario Ana tiene . . . , pero más fino
analíticamente es considerar el predicado binario
. . . tiene . . .
Dado que la oración está expresando dónde tiene lunares Ana, se podría pensar que
mejor aun considerar el predicado ternario . . . tiene . . . en . . . , pero en realidad esto es más
rígido que considerar además de . . . tiene . . . el predicado
. . . está en . . .
con el fin de dar la ubicación de las cosas.
Analicemos ahora la proposición expresada.
Se nos dice que Ana tiene en cada mejilla por lo menos un lunar. Podemos hacer esta
serie de parafraseos:
Para toda mejilla de Ana se cumple que Ana tiene al menos un lunar en ella.
Para toda mejilla de Ana se cumple que existe al menos una cosa que es un lunar,
está en esa mejilla y Ana la tiene.
Para todo objeto, si ese objeto es una mejilla de Ana, se cumple que existe al menos
una cosa que es un lunar, está en ese objeto y Ana la tiene.
Para todo objeto, si ese objeto es mejilla y Ana tiene ese objeto, se cumple que existe
al menos una cosa que es un lunar, está en ese objeto y Ana tiene esa cosa.
Llegados a este punto, podemos dudar de si es correcto caracterizar la relación entre
Ana y sus mejillas con el predicado . . . tiene . . . Nos damos cuenta de que hay un matiz: las
mejillas son de Ana, y los lunares también, pero el “tiene” de los lunares es más parecido
a “luce” o “lleva”, no parece cargar su sentido sobre la pertenencia. Con esto in mente,
introducimos un nuevo predicado, que había quedado oculto bajo la estructura superficial
de la frase, por una elisión obvia: no se aclara explícitamente que las mejillas de las que
se habla son de Ana, porque cualquier hablante competente lo comprende sin pensarlo.
Pero la proximidad del microscopio de Frege hace que estos bichitos ocultos se muestren.
Introducimos entonces un nuevo predicado
. . . es de . . . (en el sentido de “pertenece a”)
256 Capítulo 11. LPO y lenguaje natural

con lo que el parafraseo quedaría:


Para todo objeto, si ese objeto es mejilla y ese objeto es de Ana, se cumple que existe
al menos una cosa que es un lunar, está en ese objeto y Ana tiene esa cosa.
Con todo esto podemos construir una buena traducción de la oración al lenguaje formal
(no lo haremos al lenguaje formal sino a la simplificación que utilizamos para trabajar más
cómodamente, pero a partir de aquí el pasaje al lenguaje formal es directo): El diccionario
es:

Nombre o predicado Constante de individuo o letra de relación


Ana a
. . . es lunar L
. . . es mejilla M
. . . tiene . . . T
. . . está en . . . E
. . . es de . . . D

Traducción:

∀x((Mx ∧ Dxa) → ∃y(Ly ∧ Eyx ∧ T ay))

11.4 La igualdad
La igualdad tiene un uso evidente, cuando se quiere traducir una proposición que la
establece. Pero también tiene un uso no tan evidente que aparece cuando nos referimos a
cantidades de objetos. Imaginemos que un teólogo nos proponga esta oración:
Existen exactamente tres dioses.
¿Es posible traducirla a LPO? La respuesta es afirmativa, y el modo de hacerlo interesante,
ya delineado en el capítulo 10. Tomemos como diccionario

Nombre o predicado Constante de individuo o letra de relación


. . . es diosa D

a Observe que aquí se trata de la palabra “dios” como nombre común. No se debe confundir con

“Dios” (con mayúscula) que se suele usar como nombre propio de la divinidad de algunas religiones
monoteístas.

¿Es esta traducción adecuada?

∃x∃y∃z(Dx ∧ Dy ∧ Dz)

Un error frecuente en los estudiantes es creer que sí, que se trata de una traducción
adecuada. La confusión se debe a que aparecen tres variables diferentes en la fórmula. Pero
si recordamos que las variables representan “huecos” en predicados, nos daremos cuenta de
que esos tres huecos pueden ser llenados por el mismo nombre. Observe el lector que la
11.5 Excurso filosófico: Descripciones definidas según Russell 257

interpretación en la que el dominio es un conjunto con un solo objeto y la denotación del


predicado D es ese mismo conjunto es modelo de esa fórmula. Y en ese modelo claramente
hay una sola cosa que es dios. De hecho, es fácil demostrar que

∃x∃y∃x(Dx ∧ Dy ∧ Dz) ≡ ∃xDx

de modo que la fórmula en cuestión no dice más que “Existe al menos un dios” a pesar de
su apariencia.
Pero ahora empieza a estar claro el problema: tenemos que decir que esas cosas que son
dioses y cuya existencia afirmamos, son diferentes entre sí. Y ahí aparece la igualdad. ¿Será
esta una traducción adecuada?

∃x∃y∃z(Dx ∧ Dy ∧ Dz ∧ ¬x = y ∧ ¬x = z ∧ ¬y = z)

Esta fórmula expresa que hay tres cosas diferentes entre sí que son dioses. Pero eso
es compatible con que haya tres, cuatro, cinco . . . o la cantidad de dioses que se quiera,
siempre que no sea menor a tres. Por eso no expresa que hay exactamente tres dioses sino
que expresa que hay al menos tres dioses.
Para afirmar que son exactamente tres, podemos agregar que para todos los objetos del
universo se cumple que si ese objeto es dios, es uno de los tres objetos considerados. Eso se
puede hacer así:

∃x∃y∃z(Dx ∧ Dy ∧ Dz ∧ ¬x = y ∧ ¬x = z ∧ ¬y = z ∧ ∀w(Dw → (w = x ∨ w = y ∨ w = z))

Esta fórmula sí es una correcta traducción de la oración que nos regaló el teólogo. Debería
ser por lo menos llamativo que en ella no aparezca nada que refiera ni remotamente al
número tres, que parece haber desaparecido bajo una horda de cuantificadores y relaciones
de igualdad que se predican o se niegan.

11.5 Excurso filosófico: Descripciones definidas según Russell


En esta sección vamos a ocuparnos de un quebradero de cabeza clásico de la filosofía
del lenguaje, para observar cómo las herramientas lógicas permiten, en algunas ocasiones,
dar respuestas robustas a problemas complicados.

Planteamiento del problema


Una descripción definida es un objeto lingüístico de la forma

El [la] tal y cual

Ejemplos de descripciones definidas son:

El portero de la Facultad de Humanidades


El mayor número natural
La central donde ocurrió la última catástrofe nuclear soviética
258 Capítulo 11. LPO y lenguaje natural

Gramaticalmente funcionan como sustantivos, y particularmente, pueden cumplir la


función de sujeto en oraciones. Además, parecen referirse a un individuo, cuando no son
vacías. El último ejemplo parece referir a la central de Chernobyl, mientras que el penúltimo
es un ejemplo de descripción definida vacía, ya que no existe un número natural mayor
que todos los demás. Las descripciones definidas vacías plantean interesantes y delicados
problemas.

El tercero excluido
Consideremos la siguiente oración:

El actual presidente de EEUU sabe jugar al go.

Allí aparece una descripción definida, “el actual presidente de EEUU”. Con respecto
a la verdad o falsedad de la oración, en el momento en que escribo estas líneas, el actual
presidente EEUU es Barack Obama, y sé varias cosas sobre él, pero no sé si sabe o no jugar
al go. De modo que no sé si la oración expresa algo verdadero o no. Pero aun en ese estado
de ignorancia, sé que la siguiente oración es verdadera:

El actual presidente de EEUU sabe jugar al go o el actual presidente de EEUU no


sabe jugar al go.

Sé eso porque es una instancia de LTE. Si llego a saber que “El actual presidente de
EEUU sabe jugar al go” es verdadera, sabré que “El actual presidente de EEUU no sabe jugar
al go” es falsa y recíprocamente, y en cualquier caso, la oración presentada es verdadera,
con independencia de cuál de sus disyuntos sea verdadero y de mi conocimiento acerca de
las aficiones de los presidentes.
Pero consideremos la oración

El actual rey de EEUU sabe jugar al go.

Aquí también aparece una descripción definida, pero esta vez vacía. Y hay algo que mo-
lesta profundamente si intentamos aplicar el análisis anterior a esta oración. Quizá estemos
tentados de decir que esa oración es falsa, ya que no existe el rey de los estadounidenses,
pero en ese caso, aparentemente deberíamos aceptar que la oración

El actual rey de EEUU no sabe jugar al go.

es verdadera, lo que nos deja en una gran perplejidad.


Quizá podamos escapar de esto diciendo que la oración en cuestión no tiene valor de
verdad, o sea, no es verdadera ni falsa. Pero en tal caso es difícil explicar cómo es que le
encontramos significado. Es decir, no es para nada difícil afirmar que expresiones como

Blubablitrix.
Repollos ardiente la en habréis fulminante de.

no son ni verdaderas ni falsas, pero son expresiones a las que no les encontramos significado,
no las podemos entender. Es muy difícil explicar cómo una oración asertiva gramaticalmente
correcta es comprendida sin que se le pueda asignar un valor de verdad ni a ella ni a su
negación gramatical.
11.5 Excurso filosófico: Descripciones definidas según Russell 259

La no existencia
Nada parece más natural que establecer las condiciones de verdad de una oración que
expresa una proposición del tipo
a es F.
diciendo que será verdadera si y solo si el objeto denotado por a pertenece a la clase
denotada por F, o en términos fregeanos, si pertenece a la extensión del concepto denotado
por el predicado . . . es F. Esa fue exactamente la idea rectora en el establecimiento de la
semántica de LPO, a partir de las sentencias atómicas. Pero entonces examinemos la oración
El rey de EEUU no existe.
A diferencia del caso anterior, en el que quizá podría decirse que la oración examinada
no era ni verdadera ni falsa, no parece haber dudas acerca de que consideramos verdadera
esta. Pero si la consideramos verdadera, parece que tenemos que aceptar que expresa la
misma proposición que
El rey de EEUU es un no existente.
y nuestras condiciones de verdad nos dicen que el rey de EEUU es un elemento de la clase
de las cosas no existentes, pero claramente nada es elemento de esa clase.

Entonces el problema es...


Concretamente, el problema es: dada una oración de la forma
DDV es F.
donde DDV es una descripción definida vacía y F denota una clase

¿Tiene significado?
¿Es verdadera o falsa?

Antes de considerar la solución de Russell a este problema, veremos brevemente las


propuestas de otros dos filósofos al respecto: Frege y Meinong.

Frege
El lector interesado debe referirse a un trabajo fundamental de Frege, Sobre sentido y
referencia, de 1892 [Fre98]. En ese trabajo, uno de los más influyentes para la tradición
analítica de la filosofía, Frege establece una teoría bidimensional del significado, postulando
que este consta de dos aspectos, que él llama sentido y referencia. No es del caso desarrollar
aquí esa teoría, y lo que hacemos en su lugar es recomendar con mucho énfasis la lectura
del trabajo referido. Pero las respuestas finales de Frege a nuestras preguntas son que las
oraciones del tipo DDV es F son significativas (tienen sentido, pero no referencia) y no son
ni verdaderas ni falsas.

Meinong
Es muy posible que Alexius Meinong haya sido bastante mal interpretado por el propio
Russell y que realmente haya dicho cosas muy sensatas e interesantes. Esto es así porque
existen meinongianos entre filósofos muy respetables. Pero al encontrarse con la teoría de
260 Capítulo 11. LPO y lenguaje natural

Meinong, uno tiene la sensación de que es de las cosas más excéntricas que se le hayan
ocurrido a alguien en la historia de la filosofía, y eso es mucho decir.
Meinong sostiene que las descripciones definidas vacías, como “la montaña de oro”
refieren o denotan y por eso son significativas. Los detalles de la teoría son sutiles, y tienen
que ver con modos de no existir. Brevemente, para Meinong, la montaña de oro no existe,
pero subsiste y es ese modo de no existencia el que nos permite hablar significativamente de
ella. En su teoría, dado que
Todos los objetos de oro son metálicos.
es verdadera,
La montaña de oro es metálica.
es verdadera, y a fortiori, significativa.
Para introducirse en la llamada “jungla de Meinong”, la referencia básica es [Mei04].

Russell
Russell va a aplicar el análisis lógico para dar su solución al problema. En un célebre
artículo llamado Sobre el denotar [Rus05], ataca las teorías de Frege y de Meinong y propone
la propia. Con respecto al ataque a Frege, se debe decir que Russell afirma atacar su teoría,
pero los exégetas no se han puesto de acuerdo acerca de qué hace Russell cuando afirma
hacer eso. Se considera que esa parte de Sobre el denotar es lo más intrincado que haya
publicado Russell nunca, y frecuentemente se la llama “los pasajes oscuros”.
Acerca de la opinión que le merecía la teoría de Meinong, es bastante elocuente este
pasaje:
Me parece que en tales teorías falla ese sentido de realidad que debe ser preser-
vado aun en los estudios más abstractos. Debo sostener que la lógica no puede
admitir un unicornio más que lo que puede hacerlo la zoología . . . un robusto
sentido de realidad es muy necesario para enmarcar un análisis correcto de las
proposiciones acerca de unicornios, montañas de oro, cuadrados redondos y
otros pseudo objetos de ese tipo. [Rus19]
La solución de Russell va a ser asombrosa. Va a implicar que expresiones como “el
actual presidente de EEUU” no son denotativas, o sea, las descripciones definidas, según
Russell, nunca denotan, no importa si son vacías o no. La raíz de ese desenlace se halla
en su adscripción a un importante principio que toma de Frege, principio que ha sido
enormemente influyente en la filosofía analítica. Según este principio, el significado de las
expresiones debe ser analizado en el contexto de enunciados.
Es así que Russell rechaza responder qué significan las descripciones definidas aisladas y
sostiene que deben analizarse en el contexto de un enunciado. Tomemos, pues, el enunciado
El actual presidente de EEUU sabe jugar al go.
Russell va a advertir algo que ya había sido remarcado por Frege, y es que la estructura
gramatical de los enunciados muchas veces oculta su forma lógica. Solo que Frege en este
caso no lo había advertido o creído.
Según Russell, el último enunciado destacado significa lo mismo que la conjunción de
estos tres:
11.5 Excurso filosófico: Descripciones definidas según Russell 261

(1) Existe al menos un objeto que es el actual presidente de EEUU.


(2) No hay más que un objeto que sea el actual presidente de EEUU.
(3) Ese (único) objeto sabe jugar al go.
O sea, si tomamos el diccionario

Nombre o predicado Constante de individuo o letra de relación


. . . es actual presidente de EEUU P
. . . sabe jugar al go G

podemos traducir esa expresión a LPO como

∃x((Px ∧ ∀y(Py → y = x)) ∧ Gx)

Basta mirar la fórmula para darse cuenta de que no hay denotado ningún individuo, lo
que debería hacerse con una constante de individuo. Esta proposición será verdadera o falsa
según el actual presidente de EEUU sepa o no jugar al go.
En general, una sentencia de la forma
El F es G.
tiene, según Russell, la estructura lógica

∃x((Fx ∧ ∀y(Fy → y = x)) ∧ Gx)

lo que queda oculto por su estructura gramatical.


Con respecto a
El actual rey de EEUU sabe jugar al go.
ese análisis arroja como resultado que es falsa, porque afirma la existencia de un rey de
EEUU. Y también es falsa, por el mismo motivo
El actual rey de EEUU no sabe jugar al go.
O sea, si Russell está en lo correcto, a pesar de las apariencias, esta no es la negación de
aquella, algo que la gramática oculta y el análisis lógico saca a luz.

Ejercicio 11.1 Hallar la negación de El actual rey de EEUU sabe jugar al go según la teoría
de Russell.

Quizá el lector considere que no es necesario conocer la lógica de primer orden para
proponer esta solución al problema de las descripciones definidas. Eso tiene su parte
de razón. Se puede explicar todo lo que ha sido explicado sin apelar a esta lógica. Pero
indudablemente, desde el punto de vista histórico es un hecho que esta solución fue
propuesta una vez conocida una lógica con la capacidad expresiva de LPO, y esto no
parece casual. Además, aceptado este enfoque, se sigue que la lógica adecuada para tratar
argumentos en los que aparezcan descripciones definidas es la de primer orden.
Para terminar este excurso, debemos decir que la teoría de Russell de las descripciones
definidas ha encontrado, por supuesto, detractores. No obstante ello, es una de las teorías
262 Capítulo 11. LPO y lenguaje natural

más robustas al respecto. Tiene la ventaja de no enmañarar la ontología, como hace la teoría
de Meinong, y de ser más uniforme que la teoría de Frege, la que establece una tajante
diferencia entre los enunciados en los que aparecen descripciones definidas vacías y aquellos
en los que aparecen descripciones no vacías, ya que atribuye valor de verdad a estos y a
aquellos no.

11.6 Excurso filosófico: Una versión del argumento ontológico


La versión cartesiana
En este excurso vamos a analizar uno de los argumentos más célebres de la historia
de la filosofía en la que posiblemente sea su versión más débil. El argumento ontológico
es un argumento que pretende demostrar la existencia de Dios a partir de premisas a
priori, es decir, que no dependen en modo alguno de la experiencia. El primer argumento
ontológico fue propuesto por San Anselmo en su obra Proslogion [Fer79]. A diferencia de
buena parte de la literatura teológico filosófica medieval, ese texto es muy agradable para
lectores modernos, de modo que recomendamos su lectura. Según entiende el autor de estas
líneas, el argumento original de San Anselmo es mucho mejor que la versión que vamos a
presentar aquí, debida a Descartes, a quien cedemos la palabra para que nos hable desde su
quinta Meditación:
Pues bien, si del hecho de poder yo, sacar de mi pensamiento la idea de una
cosa, se sigue que todo cuanto percibo clara y distintamente que pertenece a
dicha cosa, le pertenece en efecto, ¿no puedo extraer de ahí un argumento que
pruebe la existencia de Dios? Ciertamente, yo hallo en mí su idea (es decir, la
idea de un ser sumamente perfecto), no menos que hallo la de cualquier figura
o número; y no conozco con menor claridad y distinción que pertenece a su
naturaleza una existencia eterna. [. . . ] teniendo por costumbre, en todas las
demás cosas, distinguir entre la existencia y la esencia, me persuado fácilmente
de que la existencia de Dios puede separarse de su esencia, y que, de este modo,
puede concebirse a Dios como no existiendo actualmente. Pero, sin embargo,
pensando en ello con más atención, hallo que la existencia y la esencia de Dios
son tan separables como la esencia de un triángulo rectilíneo y el hecho de que
sus tres ángulos valgan dos rectos, o la idea de montaña y la de valle; de suerte
que no repugna menos concebir un Dios (es decir, un ser supremamente perfecto)
al que le falte la existencia (es decir, al que le falte una perfección), de lo que
repugna concebir una montaña a la que le falte el valle. [. . . ] aunque desde luego
no es necesario que yo llegue a tener alguna vez en mi pensamiento la idea de
Dios, sin embargo, si efectivamente ocurre que dé en pensar en un ser primero y
supremo, y en sacar su idea, por así decirlo, del tesoro de mi espíritu, entonces sí
es necesario que le atribuya toda suerte de perfecciones, aunque no las enumere
todas ni preste mi atención a cada una de ellas en particular. Y esta necesidad
basta para hacerme concluir (luego de haber reconocido que la existencia es una
perfección) que ese ser primero y supremo existe verdaderamente. [Des13]
El argumento parece muy sencillo. Podemos presentarlo de este modo:
11.6 Excurso filosófico: Una versión del argumento ontológico 263

Paso Contenido Justificación


1 Supongamos que no existe un ser Supuesto para llegar a una contra-
supremamente perfecto dicción
2 Un ser supremamente perfecto tie- Premisa (analítica2 )
ne todas las perfecciones
3 La existencia es una perfección Premisa (analítica, según Descar-
tes3 )
4 Existe un ser supremamente perfec- Por 2 y 3
to
5 Contradicción Por 1 y 4
6 Rechazamos el supuesto de 1, o sea, Porque el supuesto de 1 nos llevó a
aceptamos que existe un ser supre- contradicción en 5.
mamente perfecto

Esta reconstrucción intenta seguir la retórica de Descartes, quien dice “no repugna
menos concebir un Dios (es decir, un ser supremamente perfecto) al que le falte la existencia
. . . ” y así parece querer inducirnos a partir de ese supuesto que sostiene la posición atea y
a descubrir con repugnancia una contradicción. Pero en realidad, todo el argumento está
expresado en las premisas 2 y 3 y la conclusión 4.
Veamos algunas de las objeciones que ha recibido.

Objeciones
Falta probar la posibilidad de Dios
Leibniz [Lei83] consideró que el argumento no llegaba a probar la existencia de Dios por
un detalle: según él, se está asumiendo la posibilidad de la existencia de Dios sin probarla.
Si Dios fuese un ser imposible (es decir, si su caracterización fuese contradictoria), entonces
se podría “probar” cualquier cosa acerca de él, en el mismo sentido en que podemos probar
Si un número es distinto de sí mismo, entonces ese número es omnipotente.
Es fácil ver que esto es así traduciendo a LPO con el siguiente diccionario:

Nombre o predicado Constante de individuo o letra de relación


x un número Nx
x es omnipotente Ox

∀x((Nx ∧ ¬x = x) → Ox)
Es trivial ver que se trata de una fórmula verdadera bajo toda interpretación, todas las
instancias del universal arrojan como resultado un condicional con antecedente falso.
2 “Analítica” quiere decir que su verdad solo depende de su significado.
3 La explicación usual de esta analiticidad reside en decir que siempre es más perfecto lo que existe que lo
que no existe. Es un lugar común de la jerarquización ontológica medieval, la que llega a concebir grados de
existencia.
264 Capítulo 11. LPO y lenguaje natural

La objeción leibniciana es buena, como el lector podrá advertir, en el sentido de que


tiene razón en cuanto a que Descartes no ha probado que Dios exista, porque podría ser que
la forma de caracterizar a Dios fuese inconsistente, y además hay buenas razones para creer
que las “perfecciones” pueden chocar entre sí4 . Leibniz cree, por otra parte, que Descartes
ha probado lo siguiente:
Si la existencia de Dios es posible, entonces Dios existe.
Veremos en breve si esto es correcto o no.

Abre las porteras


Hay una respuesta estándar a ciertas versiones del argumento ontológico que consiste
en decir que si el argumento es correcto, uno análogo demostraría la existencia de cosas
que en principio no parece razonable aceptar que existan. Esta respuesta apareció por
primera vez con el argumento ontológico original, el de San Anselmo, en la pluma de un
monje llamado Gaunilo, de quien lo único que se sabe es que pergeñó el contraargumento.
Como Anselmo mandó que su texto con el argumento ontológico fuera reproducido con
la respuesta de Gaunilo y su respuesta a la respuesta, su nombre se ha conservado en la
memoria de la posteridad. Gaunilo dijo que aceptar el argumento de Anselmo llevaría a
aceptar la existencia de unas islas perfectas. Lo mismo se podría decir aquí. Aceptado el
argumento de Descartes, uno podría afirmar que existe el filósofo supremamente estúpido,
porque siempre será más estúpido algo que exista que algo que no exista.
Sin embargo, aunque esto parezca un contraargumento potente, tiene dos debilidades.
Una es que siempre se puede argumentar que el caso de Dios es diferente a los de islas o
filósofos, que la peculiar naturaleza de Dios hace que el argumento funcione sobre él y no
sobre otras cosas (esto sostiene Descartes en su respuesta a la objeción de Gassendi y sostuvo
Anselmo contra Gaunilo). La otra, que parece más grave, es que no es una respuesta directa
al argumento, no muestra ninguna falla en él. Es lo que se llama “poner en mala compañía”
el argumento. Afirma que si ese argumento es correcto, hay otros, que nos parecen malos,
que son buenos. Pero desde el punto de vista lógico esto dista de ser una buena respuesta.
Al menos, quien la esgrime debe estar preparado para que el proponente del argumento
ontológico le conteste: “Sí, ¿y?”.

¿Es la existencia un predicado?


Comúnmente se supone que Kant dio una respuesta que redujo a polvo todas las
versiones conocidas en su tiempo de los argumentos ontológicos, incluida la que estamos
examinando. Esa respuesta puede resumirse diciendo que la existencia no es un predicado. Este
autor dedica el capítulo cuarto de la tercera sección del libro segundo de su obra cumbre,
Crítica de la razón pura, al problema, y lo titula Imposibilidad de una prueba ontológica de la
existencia de Dios. Dejemos la palabra a Kant:
4 Laexplicitación del conflicto entre dos atributos que se supone caracterizan a Dios se atribuye a Epicuro:
“¿Es que Dios quiere prevenir el mal, pero no es capaz? Entonces no es omnipotente. ¿Es capaz, pero no desea
hacerlo? Entonces es malévolo. ¿Es capaz y desea hacerlo? ¿De dónde surge entonces el mal? ¿Es que no es
capaz ni desea hacerlo? ¿Entonces por qué llamarlo Dios?” [Lac18] y está sutilmente delineado por Cervantes en
estas maravillosas líneas: “Al culpado que cayere debajo de tu juridición considérale hombre miserable, sujeto
a las condiciones de la depravada naturaleza nuestra, y en todo cuanto fuere de tu parte, sin hacer agravio
a la contraria, muéstratele piadoso y clemente, porque aunque los atributos de Dios todos son iguales, más
resplandece y campea a nuestro ver el de la misericordia que el de la justicia.” [Cer80]
11.6 Excurso filosófico: Una versión del argumento ontológico 265

Es contradictorio poner un triángulo y suprimir sus tres ángulos. Pero no lo es


el suprimir el triángulo y los tres ángulos a la vez. Exactamente lo mismo ocurre
con el concepto de un ser absolutamente necesario. Si suprimimos su existencia,
suprimimos la cosa misma con todos sus predicados. ¿De dónde se quiere sacar
entonces la contradicción? En el aspecto externo no se contradice nada, ya que
se supone que la cosa no es necesaria desde un punto de vista externo a ella.
Tampoco se contradice nada internamente, puesto que, al suprimir la cosa misma,
ha quedado también suprimido todo lo interno. «Dios es omnipotente» constituye
un juicio necesario. No podemos suprimir la omnipotencia si ponemos una
divinidad, es decir, un ser infinito, ya que el concepto de lo uno es idéntico al de
lo otro. Pero si decimos que Dios no existe no se da ni omnipotencia ni ninguno
de sus predicados restantes, ya que todos han quedado eliminados juntamente
con el sujeto, por lo cual no aparece en este pensamiento contradicción ninguna.
[. . . ]
Evidentemente, «ser» no es un predicado real, es decir, el concepto de algo que
pueda añadirse al concepto de una cosa. Es simplemente la posición de una cosa
o de ciertas determinaciones en sí.[. . . ]
Por consiguiente, cuando concibo una cosa mediante predicados, cualesquiera
que sean su clase y su número (incluso en la completa determinación), nada se
añade a ella por el hecho de decir que es. Si se añadiera algo, lo que existiría
no sería lo mismo, sino algo más de lo que había pensado en el concepto, así
como tampoco podría decir que fuese precisamente el objeto de mi concepto el
que existiría entonces. Concibamos una cosa que contenga todas las realidades
menos una; por el hecho de decir que semejante cosa deficiente existe no se le
añade la realidad que le faltaba, sino que existe con la misma deficiencia con que
la había concebido. En caso contrario, sería algo distinto de lo pensado lo que
existiría. [Kan98]

Actualmente no hay consenso acerca de esta cuestión. Hay filósofos que creen que la
argumentación kantiana es correcta, mientras otros creen que la existencia puede ser tratada
como un predicado. Desde nuestro punto de vista, el centrado en la lógica de primer orden,
es claro que tenemos un cuantificador existencial, y que no tratamos a la existencia como
un predicado5 . De hecho, los dominios de las interpretaciones son no vacíos, de forma que
siempre “existe algo”, y no solemos tomar la existencia como un predicado lógico. Pero nada
obsta para que podamos considerar un dominio de objetos entre los que podamos hacer
distinciones a través de predicados, como por ejemplo “existentes realmente”, “existentes
solo idealmente”, etc. Por eso, si aceptamos la argumentación kantiana, debemos rechazar
el argumento cartesiano sobre la base de que en él no son factibles estas distinciones, lo que
nos lleva a terrenos complicados. Lo usual para rechazar estas distinciones es decir que si
las aceptamos, surgen dificultades inadmisibles para tratar enunciados como

Los unicornios realmente existentes existen.


5 Es de notar que para Frege la existencia es un predicado, solo que de segundo orden, es decir, un predicado

que se predica de predicados. Concretamente, la extensión del concepto correspondiente es la clase de conceptos
de extensión no vacía.
266 Capítulo 11. LPO y lenguaje natural

pero esto nos lleva a grandes discusiones semánticas. Sin embargo, la falla del argumento
en la versión cartesiana es tan profunda que aun concediendo que la existencia es un predicado
se puede mostrar que no es válido.

La falacia
El argumento en la versión de Descartes es una falacia bastante burda, pero para
descubrirla y evidenciarla es de ayuda cierta familiaridad con la lógica de primer orden.
Aceptemos que la existencia es un predicado y trabajemos con el siguiente diccionario:

Nombre o predicado Constante de individuo o letra de relación


. . . existe E
. . . es supremamente perfecto S

Está claro que Descartes quiere demostrar que un ser supremamente perfecto existe, o
sea que quiere llegar a lo que se expresa como

(1) ∃x(Sx ∧ Ex)

La reconstrucción del argumento comienza así: supongamos que no existe un ser supre-
mamente perfecto. O sea, supongamos

¬∃x(Sx ∧ Ex)

o, lo que es equivalente

∀x(Sx → ¬Ex)

Si se observa la marcha del argumento, esta suposición solo juega un papel retórico.
La contradicción pretendida surge al demostrar, a partir de las premisas, que un ser
supremamente perfecto existe. Por eso podemos concentrarnos en considerar cómo es que
Descartes llega a (1) a partir de sus premisas, que son a priori.
Aceptemos la premisa que se expresa con

La existencia es una perfección.

Es claro que a partir de esa premisa sola no podemos extraer la existencia de un ser
supremamente perfecto, porque no dice nada acerca de seres supremamente perfectos. Para
que el argumento funcione es necesaria la premisa restante

(S) Un ser supremamente perfecto tiene todas las perfecciones.

que es muy convincente. Ahora bien, es convincente como una definición de “ser suprema-
mente perfecto” o al menos como una caracterización de él. Es muy claro que de la existencia
es una perfección y (S) se sigue

Un ser supremamente perfecto existe (tiene existencia).


11.6 Excurso filosófico: Una versión del argumento ontológico 267

Y este es todo el argumento. Pero veamos qué ha pasado: Descartes entiende que esa
conclusión es lo que se expresa como ∃x(Sx ∧ Ex). Sin embargo, la premisa (S) solo fue
aceptada como una caracterización de “ser supremamente perfecto”, lo que se podría
expresar así:

∀x(Sx → T T Px)

donde claramente, T T P está por . . . tiene todas las perfecciones. Ahora bien, de que la existencia
es una perfección aceptamos
Todo objeto que tenga todas las perfecciones tiene la perfección de la existencia, es
decir, existe.
que se traduce como

∀x(T T Px → Ex)

y es evidente que todo lo que se puede inferir de esto es que


Para todo objeto, si es un ser supremamente perfecto, entonces existe.
pero esto es, traducido

∀x(Sx → Ex)

lo que no contradice en modo alguno la suposición inicial, es decir, el conjunto

{∀x(Sx → Ex), ∀x(Sx → ¬Ex)}

es satisfacible. En particular, cualquier interpretación en la cual la denotación del predicado


S sea vacía, es decir, donde no haya seres supremamente perfectos, hace verdaderas las dos
fórmulas.
¿Por qué parece convincente el argumento de Descartes entonces? Por una razón muy
burda: cuando aceptamos como premisa que un ser supremamente perfecto tiene todas
las perfecciones lo aceptamos como un universal, pero cuando llegamos a la conclusión,
Descartes quiere que la leamos no como un universal, que es lo que se sigue de la premisa
en los términos bajo los cuales la aceptamos, sino como una afirmación de existencia. Es
algo tan trivial como que leemos
Un ser supremamente perfecto existe.
lo que funciona como una caracterización, como si expresara
Existe un ser supremamente perfecto.
lo que es una aserción de existencia.
Y no se trata de que Descartes nos haya querido engañar, sino de que seguramente
estaba convencido de la corrección de este razonamiento falaz.
268 Capítulo 11. LPO y lenguaje natural

11.7 Ejercicios

1. Presentar una traducción al lenguaje LPO indicando el diccionario usado.


a) Si Adriano fue emperador, Belisario no lo fue.
b) Carlos salvará el examen si y solo si comienza a estudiar.
c) Stairway to Heaven y Azuquita pal café no son canciones, son himnos.
d) Hegel es más profundo que Aristóteles.
e) Platón, Jenofonte y Alcibíades fueron alumnos de Sócrates.
f ) Marx no discutió con Friedman.
g) Judas traicionó a Jesús pero Jesús no traicionó a Judas.
h) Platón fue maestro de Aristóteles y discípulo de Sócrates.
i) Hay filósofos que no son serios pero algunos sí lo son.
j) No todas las asignaturas son disfrutables.
k) Algunas asignaturas de este semestre son detestables.
l) Soy amigo de Platón, y todos los amigos de Platón son mis amigos.
m) Si todo cambia entonces tú no eres tú.
n) El universo incluye todo.
ñ) Hay algo que incluye todo.
o) Dado cualquier número, hay alguno mayor que él y alguno menor que él.
p) Ningún número es primo y compuesto.
q) Ataco a quien me ataca.
r) La justicia alcanza a todos los malhechores.
s) Hay estudiantes que aunque no estudien salvarán el examen.
t) Nadie que disfruta de la ópera disfruta del rap.
u) Francia conquistó Alaska y se la vendió a EEUU.
v) Quien leyó el Quijote, leyó la mejor novela.
w) Juan quiere algo distinto a lo que le ofrezco.
x) Los filósofos solo prestan atención a los problemas que no tienen solución.
y) Todos los filósofos discuten con algún filósofo.
z) Quien no quiere a los niños no quiere a los hombres.
aa) Hay libros que solo le gustan a la gente que no lee.
ab) Hay libros que solo le gustan a algunos.
ac) Hay libros que solo le gustan a la gente que ha leído solo un libro.
ad) No hay libros que le gusten a todos.
11.7 Ejercicios 269

2. En el artículo Saint Anselm’s Proof: A Problem of Reference, Intentional Identity and Mutual
Understanding (disponible en http://faculty.fordham.edu/klima/anselm.htm), Gyula
Klima reconstruye el argumento ontológico de Anselmo de la siguiente manera:

1) Por definición, Dios es el objeto de pensamiento tal que ningún objeto de pensa-
miento puede ser pensado como mayor que él.
2) Suponga que Dios existe solo en el intelecto.
3) Pero todo objeto de pensamiento que puede ser pensado como existiendo en la
realidad puede ser pensado como mayor que cualquier objeto que existe solo en
el intelecto.
4) Y claramente Dios puede ser pensado como existiendo en la realidad.
5) Por lo tanto, de todo lo anterior surge que algún objeto de pensamiento puede
ser pensado como mayor que el objeto de pensamiento tal que ningún objeto de
pensamiento puede ser pensado como mayor que él, lo que es una contradicción.

a) Explique por qué esta versión del argumento ontológico no presenta la falla que
se ha mostrado en la versión cartesiana.
b) La premisa 1) sirve para explicar lo que la palabra “Dios” significa, según San An-
selmo. Aceptándola, explique en términos de descripciones definidas de Russell
la estructura lógica de “Dios es bueno”, y preséntela en el lenguaje LPO.
12 | Consecuencia semántica

na vez establecida la semántica de la lógica de primer orden, consideraciones

U análogas a las que se hicieron para el caso de la lógica proposicional nos llevan a
definir la consecuencia semántica para lenguajes de primer orden en una forma que
se expresa casi de la misma manera que para el lenguaje de la lógica proposicional.

12.1 Definición y primeros ejemplos


Definición 12.1.1 — Consecuencia semántica en lógica de primer orden.
Sea Γ un conjunto de sentencias de LPO y A una sentencia de LPO. A es consecuencia
semántica de Γ si y solo si todo modelo de Γ es también modelo de A.

Notación 12.1. Usaremos la misma notación para la consecuencia semántica en lógica de primer
orden que en lógica proposicional, esto es, Γ |= A. Si fuese necesario distinguirlas, utilizaremos los
símbolos subindizados |=LP y |=LPO . Sin embargo, esto será extraordinario ya que los contextos casi
siempre dejan claro cuál relación se está considerando.
La identidad estructural de ambas definiciones se debe a que estamos frente a una
manera estándar de formalizar la noción de consecuencia lógica: definir rigurosamente la
consecuencia semántica. Para eso se define un lenguaje formal al que se le da una semántica,
se definen los modelos, y la definición de consecuencia semántica se expresa de esta manera
en que ya lo hicimos dos veces, con independencia del soporte formal y semántico que
hayamos establecido.
Por supuesto, el hecho de que la definición se exprese de forma muy similar para la
lógica proposicional y para la lógica de primer orden (la expresión es en español, nuestro
metalenguaje tanto al tratar con lógica proposicional como con lógica de primer orden) no
significa que la definición sea la misma ya que los conceptos involucrados - los de fórmula,
sentencia y modelo- no son los mismos en ambas lógicas.
Recordemos que en el marco de la lógica de primer orden, un modelo de una sentencia
A es una interpretación M que consta de un conjunto no vacío y una función de denotación
y que otorga el valor de verdad V a la sentencia bajo las estipulaciones vistas en 10.3, página
234.
O sea, decir que una sentencia A es consecuencia semántica de un conjunto Γ en el
marco del lenguaje de primer orden, es lo mismo que decir que elijamos como elijamos el
conjunto y la función de denotación para interpretar, siempre que la interpretación asigne
valor verdadero a las sentencias de Γ asignará valor verdadero a la sentencia A.
Observe que se trata de algo mucho más rico que la noción análoga para lógica proposi-
cional. En esta los modelos y contramodelos quedaban determinados por asignaciones de
272 Capítulo 12. Consecuencia semántica

valores de verdad a las letras proposicionales, mientras que en el lenguaje de primer orden,
hay que tener en cuenta qué sucede con las interpretaciones, que como vimos pueden ser
pensadas en términos de estructuras, objetos mucho más complejos que cualquier cosa que
hayamos encontrado en lógica proposicional. Esto hará de la evaluación de la relación de la
consecuencia semántica para la lógica de primer orden algo de dificultad mucho mayor que
para la lógica proposicional1 .
Ahora mostraremos algunos ejemplos. Para no arrastrar la pesada notación del lenguaje
formal, escribiremos las constantes de individuo con las primeras letras del abecedario, a, b,
c, ...; las variables con las últimas, v, x, y, z, las letras de relación con mayúsculas P, Q, R,
S,... La aridad de estas últimas quedará clara por la cantidad de variables o constantes de
individuo que las sigan.
 Ejemplo 12.1 {∀x((Sx ∧ ¬Ax) → Hx), ∀x(Lx → Sx), ∃x(Lx ∧ ¬Hx)} |= ∃xAx
Consideremos una interpretación M cualquiera tal que

(1) M(∀x((Sx ∧ ¬Ax) → Hx)) = V


(2) M(∀x(Lx → Sx)) = V
(3) M(∃x(Lx ∧ ¬Hx)) = V

Los puntos (1), (2) y (3) imponen que M sea modelo del conjunto dado. Queremos
mostrar que esas condiciones imponen también M(∃xAx) =V.
Por (3) se tiene, considerando M+ , una interpretación que extiende a M sobre un lenguaje
que agrega constantes de individuo para denotar cada elemento de |M|, que, de acuerdo a
la semántica del cuantificador existencial:

(4) M+ (La ∧ ¬Ha) = V para alguna constante a del lenguaje extendido.

La semántica de la conjunción impone

(5) M+ (La) = V
(6) M+ (¬Ha) = V

La semántica del negador, a partir de (6) da

(7) M+ (Ha) = F

Considerando 2, por la semántica del cuantificador universal, sabemos que para toda
constante del lenguaje extendido, y en particular para a, tenemos que la sustitución de la
variable universalmente cuantificada por ella arroja una fórmula verdadera en M+ :

(8) M+ (La → Sa) = V


1 Un
tema para un segundo curso de lógica para estudiantes de filosofía es que a pesar de la posibilidad de
programar una computadora para que dado un conjunto de fórmulas de LP y una fórmula de LP, determine si
la fórmula es o no consecuencia semántica del conjunto en todos los casos, es imposible que una computadora
resuelva el problema análogo para LPO.
12.1 Definición y primeros ejemplos 273

que junto con (5) impone, por la semántica del condicional

(9) M+ (Sa) = V

Considerando ahora (1) y (7), y razonando del mismo modo que cuando tratamos (2),
llegamos a

(10) M+ (Sa ∧ ¬Aa) = F

con lo que sucesivamente tenemos, considerando (9)

(11) M+ (¬Aa) = F
(12) M+ (Aa) = V

o sea que la sustitución de la constante de individuo a en la fórmula Ax arroja una fórmula


verdadera en M+ . Eso demuestra que

M(∃xAx) = V

según la semántica del cuantificador existencial.


M es cualquier modelo de {∀x((Sx ∧ ¬Ax) → Hx), ∀x(Lx → Sx), ∃x(Lx ∧ ¬Hx)} (no
le impusimos ninguna otra condición), por lo que queda probado que todo modelo del
conjunto lo es de la fórmula ∃xAx.
Para demostrar que una fórmula no es consecuencia semántica de un conjunto basta, por
supuesto, encontrar un único modelo: uno que lo sea del conjunto y no lo sea de la fórmula.
 Ejemplo 12.2 Mostrar que {∃xPx, ∃xQx} 2 ∃x(Px ∧ Qx)
Desde el punto de vista heurístico, nos puede convenir trabajar con puntos o círculos
que representen los elementos del dominio, a los que les asignaremos los predicados P y Q
en el caso de que en nuestro modelo del conjunto los tengan. Si no asignamos P y Q a un
mismo punto, la interpretación otorga valor F a la fórmula ∃x(Px ∧ Qx).
Está claro que todo modelo del conjunto con un solo elemento será también modelo
de la fórmula. Por lo tanto, probemos con dos puntos, o sea, busquemos un modelo del
conjunto cuyo dominio tenga dos elementos (los llamaremos u y v) y no sea modelo de
∃x(Px ∧ Qx).

u v

Para que la fórmula ∃xPx tome valor V bajo la interpretación, es necesario que al menos
uno de los elementos del conjunto tenga la propiedad P. Hagamos que el elemento u cumpla
esa condición.

P
u v

Para que en estas condiciones la fórmula ∃xQx tome valor V, es necesario que uno de los
elementos tenga la propiedad Q. Si suponemos que es u
274 Capítulo 12. Consecuencia semántica

PQ
u v

Obtenemos un modelo de la fórmula ∃x(Px ∧ Qx), que no es lo que nos interesa. Si asigna-
mos Q al elemento v

P Q
u v

Vemos que tenemos representado un modelo del conjunto que no es modelo de ∃x(Px ∧ Qx).
Podemos por lo tanto afirmar que la interpretación M definida por

M = {u, v}
PM = {u}
QM = {v}

es modelo del conjunto y contramodelo de la fórmula, lo que demuestra que no hay relación
de consecuencia semántica2 .

12.2 Propiedades de la consecuencia semántica en primer orden


Podemos repasar los resultados que obtuvimos para la relación de consecuencia semán-
tica en lógica proposicional y ver si se cumplen para la lógica de primer orden. Es lo que
haremos en esta sección, que será breve debido a que los resultados son muy similares y las
demostraciones análogas.
Es claro que dado cualquier conjunto de sentencias y cualquier sentencia, esta es con-
secuencia semántica del conjunto o no lo es. Con respecto a las analogías que pueden
establecerse con la relación de consecuencia semántica en lógica proposicional, tenemos lo
siguiente:

Teorema 12.2.1
1. Si Γ es insatisfacible, entonces Γ |= A para toda sentencia A.
2. Si κ es una contradicción, entonces Γ |= κ si y solo si Γ es insatisfacible.

La demostración es idéntica al caso de la lógica proposicional, como la de los teoremas


siguientes:

Teorema 12.2.2 ν es una fórmula válida si y solo si |= ν.

Teorema 12.2.3 — Monotonía.


Si Γ |= A, entonces Γ ∪ ∆ |= A para todo ∆.

2 Advierta que dijimos cómo llamaríamos a los elementos del dominio pero no qué son. En puridad, no hemos
dado una interpretación, sino solo hemos indicado cómo la designaríamos en caso de darla, es decir, de indicar
qué son los objetos designados con u y v. Por supuesto que cualquier par de objetos sirve para este cometido,
entre ellos, los propios signos u y v, a los que podemos tratar como nombres de sí mismos.
12.2 Propiedades de la consecuencia semántica en primer orden 275

Teorema 12.2.4 — Deducción.


Para todo conjunto Γ y todas sentencias A y B
Γ , A |= B si y solo si Γ |= (A → B)

Teorema 12.2.5 — “Absurdo”.


Para todo conjunto Γ y toda sentencia A,
Γ |= A si y solo si Γ , ¬A es insatisfacible.

En lógica proposicional teníamos el importantísimo teorema 6.6.1 (página 128), del


condicional asociado, que nos permitió reducir el problema de evaluar la relación de
consecuencia semántica entre un conjunto finito y una fórmula a evaluar la tautologicidad
de una fórmula, cosa que es realizable mediante el procedimiento mecánico de las tablas de
verdad.
Si razonamos en forma análoga en lógica de primer orden, obtenemos el

Teorema 12.2.6 {A1 , ..., An } |= B si y solo si (A1 ∧ ... ∧ An ) → B es una fórmula válida.

Sin embargo, este último teorema no reviste la misma importancia que el del condicional
asociado para la lógica proposicional. Esto es debido a que no existe un procedimiento
mecánico para evaluar si una fórmula es válida.
De manera que enfrentados al problema de determinar si un conjunto y una fórmula
dados están en relación de consecuencia semántica, podemos intentar, como hicimos en
los primeros ejemplos de este capítulo, trabajar directamente con interpretaciones. Es de
notar que el método de las tablas de verdad es completamente inútil, porque no disponemos
de tablas aplicables sobre los cuantificadores, como sí las tenemos para aplicar sobre los
conectivos proposicionales. El trabajo sobre interpretaciones no es sencillo. Veamos un
ejemplo de error que se podría cometer fácilmente.
Supongamos que sabemos que
M(∃xQx) = V
Tal vez uno esté tentado a razonar así:
La fórmula “dice” que en el dominio hay un elemento que cumple Q. Ese
elemento es denotado por alguna constante a en M+ y por lo tanto infiero que
M+ (Qa) =V.
Esto es un grave error, por lo siguiente: supongamos que se parte de
(1) M(∃xPx) = V
(2) M(∃xQx) = V
Aplicando el razonamiento anterior a 1, aceptaríamos que
(3) M+ (Pa) = V
Pero ahora debería ser evidente que no podemos inferir de (2)
(4) M+ (Qa) = V
276 Capítulo 12. Consecuencia semántica

Como no lo podemos inferir en este caso, debemos concluir que (4) no se sigue de (2). ¿Y
por qué no lo podemos inferir en este caso? La respuesta es que la inferencia no es correcta
porque si bien (2) nos asegura que un individuo tiene la propiedad Q, nada nos asegura
que sea un individuo que tenga además la propiedad P, como se indica en lo inferido en (3)
a partir de (1).
El error es, en términos informales, idéntico a partir de las premisas
Al menos uno es rubio.
Al menos uno es alto.
y razonar así:
Como al menos uno es alto, estoy seguro de que hay un individuo, (al que
llamaré Juan), que es alto y puedo decir que Juan es alto.
Ahora bien, como al menos un individuo es rubio, puedo tomar un individuo
del dominio (lo llamaré Juan) y asegurar que es rubio. Por lo tanto Juan es rubio.
Y este razonamiento es claramente incorrecto, porque de que hay al menos un alto y hay
al menos un rubio hemos llegado a algo que nos permite inferir que hay uno que es alto y
rubio a la vez. En el fondo, lo que ocurre es que para cualquier constante a se tiene

{∃xPx} 2 Pa

Esto es solamente un ejemplo, pero basta para que nos percatemos de que las inferencias
que se deben hacer al razonar sobre interpretaciones son bastante delicadas, y si no queremos
naufragar al hacerlas, va a convenir desarrollar un procedimiento que recoja la idea intuitiva
de validez argumental pero desde otro ángulo. A partir de ese procedimiento se llegará a la
noción de consecuencia sintáctica para la lógica de primer orden, como veremos en breve. Es
debido a estas dificultades en el tratamiento de la consecuencia semántica y al apartamiento
–que ya hemos observado en el caso de la lógica proposicional– entre los razonamientos
comunes y los que se hacen en términos de interpretaciones, que no insistiremos en la
evaluación de esta relación como control de la corrección argumental, salvo en algunos casos
sencillos, a lo que dedicaremos la próxima sección.

12.3 La consecuencia semántica y la corrección argumental


Mutatis mutandis, todo lo que hemos dicho acerca de corrección argumental y conse-
cuencia semántica en el caso de la lógica proposicional es aplicable aquí. O sea, dado un
argumento en lenguaje natural en el que descubrimos esta estructura
Premisa 1
..
.
Premisa n
Conclusión
y tal que las premisas son traducibles a LPO como sentencias P1 , . . . , Pn y la conclusión
como la sentencia C, si logramos determinar que

{P1 , . . . , Pn } |= C
12.3 La consecuencia semántica y la corrección argumental 277

podemos decir que el argumento es válido.


Sin embargo, debido a las dificultades que ya mencionamos existen para evaluar la
relación de consecuencia semántica con los conocimientos de que disponemos, veremos solo
la aplicación de este método en algunos casos sencillos.
 Ejemplo 12.3 Nuestro primer ejemplo será el argumento profesoral más conocido del
mundo: reivindicaremos a generaciones de profesores que aburrieron a generaciones de
estudiantes con el argumento

Todos los hombres son mortales.


Sócrates es hombre.
Sócrates es mortal.
mostrando que es válido mediante el uso del instrumental de la lógica de primer orden.
Debemos traducir las oraciones a sentencias de LPO, para lo que consideraremos el
siguiente diccionario

Nombre o predicado Constante de individuo o letra de relación


. . . es hombre H
. . . es mortal M
Sócrates s

La primera oración (Todos los hombres son mortales) es la más difícil de traducir, pero
ya lo hemos hecho en 9.1 (página 213), donde referimos al lector. Allí dimos diferentes
posibilidades de traducción, entre las cuales elegiremos esta:

∀x(Hx → Mx)

La traducción de la restante premisa es Hs y la de la conclusión Ms. Por lo tanto, el


argumento será declarado válido al establecer

{∀x(Hx → Mx), Hs} |= Ms

Sea M tal que

(1) M(∀x(Hx → Mx)) = V


(2) M(Hs) = V

Por (1) tenemos que

(3) M(Hs → Ms) = V

ya que s es constante del lenguaje, no es necesario extenderlo, y al sustituir la variable por


cualquier constante da una fórmula verdadera, por la semántica del cuantificador universal.
(3) y (2) implican M(Ms) = V, dada la semántica del condicional. Esto demuestra que
todo modelo del conjunto de premisas es modelo de la conclusión, por lo que el argumento
es válido.
 Ejemplo 12.4 El siguiente argumento es válido:
278 Capítulo 12. Consecuencia semántica

Todos insultan a cualquiera que insulta.


Juan insulta a Pedro.
María insulta a Diego.
Tomemos el siguiente diccionario

Nombre o predicado Constante de individuo o letra de relación


. . . insulta a . . . I
Juan j
Pedro p
María m
Diego d

Al traducir a LPO obtenemos


∀x(∃yIxy → ∀zIzx)
Ijp
Imd
La validez quedará establecida si demostramos

{∀x(∃yIxy → ∀zIzx), Ijp} |= Imd

Sea M una interpretación tal que

(1) M(∀x(∃yIxy → ∀zIzx)) = V


(2) M(Ijp) = V

Por (2) y la semántica del existencial tenemos

(3) M(∃yIjy) = V

y por (1) y la semántica del universal

(4) M(∃yIjy → ∀zIzj) = V

La semántica del condicional, (3) y (4) implican

(5) M(∀zIzj) = V

de donde, por la semántica del universal

(6) M(Idj) = V

por lo que la semántica del existencial asegura

(7) M(∃yIdy) = V

Por (1) tenemos

(8) M(∃yIdy → ∀zIzd) = V


12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell 279

y por (7) y (8)

(9) M(∀zIzd) = V

con lo que, finalmente

M(Imd) = V

lo que prueba la existencia de la relación de consecuencia semántica entre el conjunto de


premisas y la conclusión.

12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell


En este excurso estudiaremos la lógica tradicional o aristotélica, con propósitos de
contrastación con la lógica que presentamos en el curso (si bien hemos presentado dos
lógicas, la proposicional y la de primer orden, es obvio que podemos considerar que la
última incluye a la primera en un sentido muy claro, aunque no compartan el lenguaje).

La lógica aristotélica
Con la expresión “lógica aristotélica” no nos referiremos exactamente a la lógica tal
cual la presentó Aristóteles, sino solo a su parte medular, la silogística, y a los desarrollos
–principalmente medievales– de esa teoría.

Términos
La primera observación que se debe hacer es que la lógica aristotélica es una lógica
de términos. Se considera que los términos son los componentes de la proposición, en el
siguiente sentido:
Los esquemas inferenciales que toma en cuenta esta lógica contienen esquemas de
proposición del tipo

Todos los A son B.


Algún C es D.
Ningún E es F, etc.

Obviamente, A, B, C, D, E y F son metavariables. Pero no están por el mismo tipo de


cosas que por las que están G y H en

Si G, entonces H.

En este último esquema G y H están por proposiciones, mientras que en los primeros,
las letras están por lo que se llama términos. Si decimos

Todos los hombres son mortales.

estamos usando el término “hombre” y el término “mortal”. Los términos pueden ser
singulares o generales. Los generales son los que asociamos a clases. Los singulares son
los que asociamos a individuos como los nombres propios, o los generales precedidos de
demostrativos como “este” o “aquel”.
280 Capítulo 12. Consecuencia semántica

Proposiciones categóricas
La lógica aristotélica se centra en las llamadas proposiciones categóricas. En ellas se
encuentran los siguientes componentes:

1. Un cuantificador (Todos o algunos)


2. Un término que funge de sujeto
3. La cópula (el verbo ser en alguna flexión)
4. Una negación (opcional)
5. Un término que funge de predicado

De aquí surge la siguiente clasificación de las proposiciones categóricas explícitamente


cuantificadas, donde Σ y Π son términos generales (sigma y pi para recordar, respectiva-
mente, sujeto y predicado):

Afirmativa universal Todos los Σ son Π. Forma A


Negativa universal Ningún Σ es Π. (Todo Σ es no Π.) Forma E
Afirmativa particular Algún Σ es Π. Forma I
Negativa particular Algún Σ es no Π. Forma O

Las formas afirmativas A e I toman su nombre de las primeras vocales de la palabra


latina affirmo, mientras que las formas negativas E y O las toman de las vocales de nego.
Las restantes formas de las proposiciones categóricas son estas, siendo σ un término
singular:

Afirmativa indefinida Σ es Π
Negativa indefinida Σ es no Π
Afirmativa singular σ es Π
Negativa singular σ es no Π

Para propósitos lógicos, estos cuatro últimos tipos de proposiciones se consideran casos
de los cuatro primeros, tomándose las indefinidas como particulares y las singulares como
universales3 .

El cuadrado de oposición
El cuadrado de oposición es un diagrama que muestra las relaciones lógicas entre
proposiciones de las formas A, E, I y O con los mismos términos como sujeto y predicado.
Es este:
3 Por ejemplo, Sócrates es mortal, una afirmativa singular, se considera como Todos los Sócrates son mortales, y

Herramienta es martillo, una afirmativa indefinida, como Alguna herramienta es martillo, y no como Toda herramienta
es martillo.
12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell 281

Todos los Σ son Π Ningún Σ es Π


A CONTRARIAS E

S C S
U O S U
A
B N I B
A T R A
R O
L A T L
T D C T
I
E D C E
R A T R
N R O N
T R
A N I A
O A
C S

I SUBCONTRARIAS O
Algún Σ es Π Algún Σ es no Π

Para interpretarlo se debe tener en cuenta que según la lógica aristotélica:

Proposiciones contrarias no pueden ser ambas verdaderas, pero pueden ser ambas
falsas (A y E).
Proposiciones subcontrarias pueden ser ambas verdaderas, pero no ambas falsas (I y
O).
Proposiciones contradictorias no pueden ser ni ambas verdaderas ni ambas falsas; en
todos los casos, en un par de proposiciones contradictorias, una es verdadera y la otra
es falsa (A y O, por un lado, y E e I por otro).
La proposición subalterna de una universal es la subcontraria de su contradictoria. Por
lo dicho anteriormente, si una universal es verdadera, su contradictoria es falsa, y la
subcontraria de esta última es verdadera (I es subalterna de A y O es subalterna de E).
El compromiso existencial
Acabamos de decir que una proposición de la forma I, o sea Algún Σ es Π, es subalterna
de la proposición de forma A Todos los Σ son Π y por lo tanto, la lógica aristotélica considera
que siendo verdadera esta última, lo será la primera, de modo que la inferencia con premisa
de forma A y conclusión correspondiente de forma I será considerada válida. Pero esto no
está de acuerdo con el uso que hacemos en LPO. Si fuéramos a traducir obtendríamos

Forma Lógica aristotélica Lógica de primer orden


A Todos los Σ son Π ∀x(Σx → Πx)
I Algún Σ es Π ∃x(Σx ∧ Πx)

y está claro que {∀x(Σx → Πx)} 2LPO ∃x(Σx ∧ Πx), o sea que hemos encontrado una
inferencia que la lógica aristotélica considera válida y la lógica moderna no certifica como
tal. Ahora bien, una interpretación M asigna valor verdadero a ∀x(Σx → Πx) y falso a
∃x(Σx ∧ Πx) si y solo si ΣM = ∅, o sea, si no existen individuos que sean Σ.
282 Capítulo 12. Consecuencia semántica

Ejercicio 12.1 Demostrar: {∀x(Σx → Πx), ¬∃x(Σx ∧ Πx)} |= ¬∃xΣx

Por ejemplo, dado que no hay unicornios, la proposición


Todos los unicornios son veloces.
es tenida por falsa en la lógica aristotélica y por verdadera en LPO. O sea, las proposicio-
nes de tipo A tienen compromiso existencial en la lógica aristotélica. Afirmar una de ellas
compromete lógicamente con la existencia de ciertas entidades.
Por otro lado, las proposiciones de la forma I, Algún Σ es Π, son tenidas como falsas en
la lógica aristotélica en cualquiera de los dos casos siguientes:

1. Existen individuos que son Σ pero ninguno de ellos es Π.


2. No existen individuos que son Σ.

por lo que las contradictorias de estas, las de la forma E, Ningún Σ es Π, serán verdaderas en
cualquiera de esos casos, con lo que las proposiciones de esta forma no tienen compromiso
existencial. Pero entonces, no habiendo individuos que sean Σ, y por lo tanto siendo Ningún
Σ es Π verdadera, parece absurdo afirmar que su subalterna, Algún Σ no es Π es verdadera.
Por si esto fuera poco, esta última proposición, que tiene compromiso existencial, se
considera contradictoria de la de forma A, Todos los Σ son Π, de modo que en el caso en que
no existan individuos que sean Σ son ambas falsas, lo que no puede suceder en un par de
contradictorias.
Por supuesto que todos estos problemas se evitan si se postula que la lógica aristotélica no
trabaja con términos no denotativos. Seguramente esta haya sido la intención de los antiguos
lógicos, quienes veían en la lógica una herramienta para trabajar sobre discursos acerca de
la realidad.
La lógica de primer orden tiene también algo como el compromiso existencial, dado por
{∀xPx} |= ∃xPx. Esto se debe a que los dominios de las interpretaciones son no vacíos. Existe
una lógica pensada para no tener compromisos existenciales, la llamada lógica libre, cuyos
teoremas valen para interpretaciones cuyo dominio es cualquiera, inclusive el vacío4 . Por
supuesto, en esa lógica {∀xPx} 2 ∃xPx.

Teoría de la conversión
La conversión simpliciter de una proposición categórica es el intercambio de su sujeto por
su predicado y recíprocamente. Las proposiciones de tipo I conservan su valor de verdad al
ser sometidas a conversión simpliciter, como el lector observará.
Las proposiciones de forma A no conservan su valor de verdad bajo conversión simplici-
ter: si bien
(1) Todos los uruguayos son americanos.
es verdadera
Todos los americanos son uruguayos.
4 Su nombre refiere, justamente, a que está libre de compromisos existenciales. Max Dickman, un renombrado

lógico, le manifestó al autor que el resultado más notorio de trabajar en esa lógica es la necesidad de agregar en
cada teorema una excepción generalmente trivial para los dominios vacíos.
12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell 283

es falsa. Pero si (1) es verdadera, su subalterna de la forma I


Algunos uruguayos son americanos.
también lo será. Y esta proposición conserva su valor de verdad bajo conversión simpliciter,
dando
Algunos americanos son uruguayos.
El ejemplo se puede generalizar, porque toda proposición de forma A implica su
subalterna de forma I. Esta operación de pasar a la subalterna y someter esta a conversión
simpliciter se llama conversión per accidens.
Diremos que una proposición es convertible si su verdad implica la verdad de la pro-
posición que se obtiene al someterla a conversión simpliciter o per accidens. En general
tenemos
Forma Convertible simpliciter Convertible per accidens
A No Sí
E Sí Sí
I Sí No
O No No

Silogismos categóricos
Los silogismos categóricos son argumentos con dos premisas y una conclusión, siendo
esas tres proposiciones categóricas; y en los que aparecen tres términos. Un ejemplo:
Todos los filósofos son tontos
Algunos filósofos no son simpáticos
Algunos tontos no son simpáticos
En él las tres proposiciones constituyentes son categóricas, y aparecen tres términos,
filósofos, tontos y simpáticos. El núcleo de la lógica aristotélica versa sobre esta clase de
argumentos. Veamos algo de terminología:
Los tres términos que aparecen en el silogismo reciben nombres. Uno es el término mayor,
otro el término medio y el restante el término menor. Es la conclusión la que da la información
acerca de cuáles son estos términos, según el cuadro siguiente:

Término mayor Predicado en la conclusión


Término medio Ausente en la conclusión
Término menor Sujeto en la conclusión
Así, el el silogismo recién expuesto, el término mayor es simpáticos, el medio filósofos y el
menor tontos.
De acuerdo a esto, también se clasifican las premisas en premisa mayor y premisa menor:

Premisa mayor Contiene el término mayor


Premisa menor Contiene el término menor
En nuestro ejemplo la premisa mayor es Algunos filósofos no son simpáticos y la menor
Todos los filósofos son tontos. Observe que la cuestión de cuál es la premisa mayor y cuál la
menor no tiene nada que ver con el orden en que se presentan.
284 Capítulo 12. Consecuencia semántica

Figuras, modos y reducción


La figura de un silogismo queda definida por las funciones que cumple el término medio
en las premisas, en cada una de las cuales puede ser sujeto o predicado. Con dos elecciones
posibles para cada una de las dos premisas, hay cuatro figuras posibles:

Figura Término medio en premisa mayor Término medio en premisa menor


Primera Sujeto Predicado
Segunda Predicado Predicado
Tercera Sujeto Sujeto
Cuarta Predicado Sujeto

En nuestro ejemplo, el término medio, filósofos, es sujeto en ambas premisas, de modo


que nuestro silogismo es de la tercera figura.
Por otro lado, cada una de las tres proposiciones categóricas de un silogismo puede
adoptar una de las cuatro formas A, E, I, O, de manera que en cada figura hay 43 maneras
de disponerse un silogismo. La disposición del nuestro es OAO, considerando el orden
premisa mayor, premisa menor, conclusión. Combinando con las 4 figuras, obtenemos 4.64=
256 modos de los silogismos.
La teoría silogística tiene como centro la determinación de los modos válidos.
En cada figura hay 6 modos válidos, lo que da en total 24 modos válidos. De ellos,
algunos se obtienen por subalternación de la conclusión a partir de otro válido. Por ejemplo,
si un silogismo válido concluye una proposición de forma A, el silogismo con las mismas
premisas y conclusión subalterna de la conclusión del primero (que tendrá forma I) también
será válido. Así, un silogismo de modo AAA en la primera figura será váĺido, y el que se
obtiene tomando la subalterna de la conclusión, de modo AAI en la primera figura, también
será válido. Este último modo se llama modo subalterno.
En el medioevo los 24 modos válidos recibieron estos nombres:

Modos válidos de silogismos


Primera figura Segunda figura Tercera figura Cuarta figura
Barbara Cesare Darapti Bramantip
Celarent Camestres Disamis Camenes
Darii Festino Datisi Dimaris
Ferio Baroco Felapton Fesapo
Barbari Cesaro Bocardo Fresison
Celaront Camestrop Ferison Camenop

Cinco de ellos están en tipografía especial. Son modos subalternos. Ahora bien, esos
nombres no son producto de un capricho pintoresco sino que codifican muchísima informa-
ción. En todos ellos, las vocales indican en orden, la forma de la premisa mayor, la premisa
menor y la conclusión. Nuestro silogismo ejemplo, con forma OAO en tercera figura, es
válido, y es un ejemplo de Bocardo.
El resultado central de la teoría de los silogismos es el siguiente:
12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell 285

si se acepta axiomáticamente la validez de los cuatro modos no subalternos


listados de la primera figura, la validez de los restantes –excepto baroco y
bocardo– se puede demostrar a través de la teoría de la reducción, que es una
aplicación de la teoría de la conversión sobre sus componentes.

Sobre la validez de Baroco y Bocardo hablaremos luego de exponer la teoría de la


reducción, que está codificada de forma admirable en los pintorescos nombres que los
medievales dieron a los modos válidos.
La demostración de que un silogismo diferente de los cuatro no subalternos de la
primera figura es válido consistirá en una transformación del mismo en uno de esos cuatro
siguiendo reglas de conversión. La codificación en los nombres, increíblemente ingeniosa, es
la siguiente:
Dado el nombre de un modo de silogismo a transformar en uno de los aceptados como
válidos de la primera figura (excepto Baroco y Brocardo):

La primera letra es la misma que la del modo de primera figura aceptado como válido
al que será reducido. Ejemplo: Fresison será reducido a Ferio.
La letra “s” luego de una vocal (pero no si es final) indica: Convierta la proposición
indicada por la vocal precedente simpliciter.
Ejemplo: Tomamos un silogismo Fresison. Tiene forma EIO y está en la cuarta figura,
de modo que el término medio está en posición de predicado en la premisa mayor
y de sujeto en la menor. La premisa mayor es E, y como está seguida por una “s” se
deben intercambiar sujeto y predicado. Lo mismo con la premisa menor, que es I.
Ambas operaciones mantienen la verdad. Se obtiene un silogismo que solo será válido
si el de partida lo era, y será de forma EIO con término medio en posición de sujeto
en la premisa mayor y de predicado en la menor, o sea, Ferio de primera figura, el
cual se ha aceptado axiomáticamente como válido.
La letra “p” luego de una vocal (pero no si es final) indica: Convierta la proposición
indicada por la vocal precedente per accidens.
Ejemplo: Tomamos un silogismo Fesapo. Es de forma EAO en la cuarta figura, de
modo que el término medio está en posición de predicado en la premisa mayor y
de sujeto en la menor. Como indica la primera letra de su nombre, será reducido a
Ferio. La premisa mayor se convertirá simpliciter obteniendo una proposición E con el
término medio en posición de sujeto y la premisa menor se convertirá per accidens,
o sea, de la A con término medio en posición de sujeto se pasará a la subalterna I
y esta se convertirá simpliciter, obteniendo una I con término medio en posición de
predicado. El resultado es un silogismo de la forma EIO de la primera figura, o sea
Ferio, que solo será válido si el de partida lo era.
Si el nombre termina en “s” o en “p” significa que la conclusión debe ser convertida
simpliciter o per accidens, respectivamente.
Ejemplo: Tomamos un silogismo Disamis. Es de forma IAI en tercera figura, o sea que
el término medio es sujeto en ambas premisas. Será convertido a Darii, como indica
su primera letra. La premisa mayor se convierte simpliciter, dejando el término medio
en posición de predicado, y la conclusión, de forma I, también se convierte simpliciter,
286 Capítulo 12. Consecuencia semántica

lo que hace que el término mayor pase a ser el menor, y consecuentemente, la que era
premisa menor es la mayor. Se obtiene un silogismo de forma AII de la primera figura,
o sea, Darii. Todas las transformaciones conservan la verdad.
La letra “m” en un nombre indica que las premisas se deben cambiar (mutare) de orden
para que la premisa mayor sea la primera en el silogismo obtenido. (Como ejemplo se
puede ver el anterior de reducción de Disamis a Darii).
La “c” en un nombre (excepto si es inicial) indica que no se puede reducir directamente
a uno de la primera figura, sino que debe darse un prueba indirecta o por contradicción
(contradictione). Estos son los casos de Baroco y Bocardo, que veremos seguidamente.

La reducción de Baroco y Bocardo es especial. Ambos serán “reducidos” a Barbara de la


primera figura, aunque esta “reducción” funciona así: Baroco es de forma AOO y Bocardo
de forma OAO. En ambos la conclusión es de forma O. Se asume la premisa A y la
contradictoria de la conclusión, que es también de forma A. Esas dos proposiciones de
forma A son las premisas de un silogismo Barbara cuya conclusión contradice la premisa O
del Baroco o Bocardo dado. Así, si las premisas del Baroco o Bocardo son ambas verdaderas,
la contradictoria de su conclusión debe ser falsa, y por ende, su conclusión verdadera.
Ejemplifiquemos con

Todos los filósofos son tontos


Algunos filósofos no son simpáticos
Algunos tontos no son simpáticos

que ya sabemos es de modo Bocardo. Si asumimos su premisa A, Todos los filósofos son
tontos y la contradictoria de su conclusión, que es Todos los tontos son simpáticos, tenemos las
premisas de un Barbara con conclusión Todos los filósofos son simpáticos, que es contradictoria
de la premisa O de nuestro Bocardo, Algunos filósofos no son simpáticos.
De este modo, aceptando la validez de Barbara, surge que si ambas premisas del Bocardo
son verdaderas, la contradictoria de su conclusión debe ser falsa (porque si fuera verdadera,
junto con la premisa A de Bocardo implicaría la falsedad de la premisa O), y por lo tanto su
conclusión debe ser verdadera.
En el medioevo se se crearon versos que servían como sistemas mnemotécnicos conte-
niendo estos nombres extraordinariamente informativos, junto con las figuras en que se
encuentran. La versión que se da en [Ald43] es la siguiente (cursivas en el original):

Barbara, Celarent, Darii, Ferioque prioris:


Cesare, Camestres, Festino, Baroko secundae:
Tertia, Darapti, Disamis, Datisi, Felapton,
Bokardo, Ferison habet: Quarta insuper addit
Bramantip, Camenes, Dimaris, Fesapo, Fresison.
Quinque subalterni, totidem generalibus orti,
Nomen habet nullum, nec, si bene colligis,
usum.
12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell 287

Alcance de la lógica aristotélica


La lógica aristotélica puede tratar con argumentos de más de dos premisas, donde todas
las proposiciones en juego son categóricas, llamados sorites (palabra que en griego quiere
decir el que amontona).
Un ejemplo de sorites, propuesto por Lewis Carroll en [Car]

1 Todos los policías de la ronda comen con nuestra cocinera.


2 Ningún hombre de pelo largo puede dejar de ser poeta.
3 Amos Judd no ha estado nunca en prisión.
4 A todos los primos de nuestra cocinera les gusta el cordero frío.
5 Solo los policías de la ronda son poetas.
6 Solo sus primos comen con nuestra cocinera.
7 Todos los hombres con el pelo corto han estado en prisión.
Conclusión A Amos Judd le gusta el cordero frío.

La validez de este sorites surge de la de los siguientes silogismos (observe cómo se trata
la premisa 5, que prima facie no tiene una de las formas consideradas):

Todos los policías de la ronda comen con nuestra cocinera. (1)


Solo los policías de la ronda son poetas.(5)
Todos los poetas comen con nuestra cocinera.(8)

Todos los poetas comen con nuestra cocinera. (8)


Ningún hombre de pelo largo puede dejar de ser poeta.(2)
Todos los hombres de pelo largo comen con nuestra cocinera.(9)

Todos los hombres de pelo largo comen con nuestra cocinera.(9)


Solo sus primos comen con nuestra cocinera.(6)
Todos los hombres de pelo largo son primos de nuestra cocinera.(10)

Todos los hombres de pelo largo son primos de nuestra cocinera.(10)


A todos los primos de nuestra cocinera les gusta el cordero frío.(4)
A todos los hombres de pelo largo les gusta el cordero frío.(11)

Aamos Judd no ha estado nunca en prisión.(3)


Todos los hombres con el pelo corto han estado en prisión.(7)
Amos Judd no tiene el pelo corto (lo tiene largo).(12)

Amos Judd tiene el pelo largo.(12)


A todos los hombres de pelo largo les gusta el cordero frío.(11)
A Amos Judd le gusta el cordero frío.
288 Capítulo 12. Consecuencia semántica

Es claro que la lógica aristotélica se puede considerar un fragmento muy pequeño


de la lógica de primer orden, y que se encuentra constreñida a considerar proposiciones
categóricas.
El lector interesado en la historia de la lógica encontrará mucha información en español
en [KK80]. Los desarrollos medievales de la lógica aristotélica y sus correspondientes teorías
semánticas se pueden estudiar en el excelente libro [Spa07].

Implicaciones filosóficas según Russell


La lógica aristotélica fue absolutamente dominante en el mundo occidental por lo menos
desde el siglo V hasta el XIX. En la época helenística, una de las grandes escuelas filosóficas
del período, la estoica, desarrolló una avanzada lógica que hoy puede reinterpretarse como
nuestra lógica proposicional, pero estos trabajos estuvieron sepultados por el olvido y fueron
mal entendidos cuando se redescubrieron, de modo que recién en el siglo XX se valoraron
como un importante precedente de investigación lógica.
En el siglo V Boecio tradujo al latín dos libros del Organon de Aristóteles, las Categorías
y el Peri Hermeneias, que formaron parte del núcleo de lo que se llamó la Logica vetus. En
el siglo XIII se tradujo al latín el resto del Organon, configurando la Logica nova. De modo
que Aristóteles es el teórico que configura y enmarca absolutamente el pensamiento lógico
durante los diez siglos que dura el medioevo. Ya hemos visto la opinión de Kant a fines del
siglo XVIII, según la cual la Lógica parecía haber salido completa de la cabeza de Aristóteles.
Sin embargo, pocos años después de que Kant explicitara esa idea, un inglés, George Boole,
ideó un sistema algebraico apto para tratar problemas lógicos. Fue este el primer paso en
una dirección que llevaría a un cambio radical en la disciplina: su matematización. El punto
culminante en este camino se dio con Frege, quien creó una lógica radicalmente diferente
a la aristotélica. La lógica de primer orden es un fragmento de la fregeana, ya que esta
admitía los más diversos órdenes, pero lo central en su innovación es la introducción de las
relaciones. Hemos visto que la lógica aristotélica funcionaba en una sintonía muy especial con
la gramática. En lógica aristotélica los conceptos –que hoy entendemos como gramaticales–
de sujeto y predicado se entienden también como genuinamente lógicos.
Frege “despegó” la lógica de la gramática y eso, según Russell, tuvo profundísimas
implicaciones filosóficas. De hecho, Russell acusa, en cierto modo, a la lógica aristotélica de
haber promovido mala filosofía, en particular, mala metafísica. Su argumentación, que está
expuesta en Logic as the Essence of Philosophy, recogida en [Rus09], es la siguiente:
La lógica tradicional –aristotélica– considera solamente proposiciones de la forma S es
P, quizá modificadas con negadores. Este tipo de proposiciones atribuyen una cualidad,
designada por el predicado (gramatical) P a un objeto, designado por el sujeto (gramatical)
S. El resultado de considerar satisfactoria y universal una lógica que trata únicamente con
ese tipo de proposiciones es la convicción de que todas las proposiciones que versan sobre
la realidad son reductibles a algunas de ese tipo. Ahora bien, ¿es posible reducir toda
proposición a otra que exprese que un sujeto posee una propiedad? Si esto fuera posible,
comportaría la reducción de las relaciones a propiedades de los términos que aparecen
aparentemente relacionados. Ciertamente, eso es posible en algunos casos. Por ejemplo, una
relación de equivalencia (ver 13.1 en la página 295) puede ser entendida en términos de
una propiedad común poseída por los objetos relacionados. Una relación simétrica y no
transitiva (ejemplo paradigmático es la desigualdad) puede ser entendida en términos de
12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell 289

posesión de diferentes propiedades por parte de los objetos relacionados.


Pero hay un tipo de relaciones que resiste todos los intentos de reducción a atribución
de propiedades: son las antisimétricas, esto es, las relaciones R tales que se tiene (expresado
en LPO)

∀x∀y(Rxy → ¬Ryx)

o sea en las que si un objeto está relacionado con otro, este último no está relacionado con el
primero. Ejemplos de relaciones antisimétricas son mayor que, anterior a, etc. No hay forma
de reducir la relación mayor que a la posesión de propiedades de los objetos que relaciona. Si
a es mayor que b, sabemos que tienen una propiedad diferente (la magnitud de la que se
habla, con respecto a la cual a es mayor que b). Pero esa mera diferencia no indica la calidad
de mayor en a, porque también se daría en caso de que b fuese el mayor. Ni la posesión
de las mismas propiedades ni la posesión de distintas propiedades puede dar cuenta de la
relación mayor que. De modo que, en general, las relaciones antisimétricas no son reductibles
a propiedades de los objetos que relacionan.
La consecuencia de esto es que la lógica aristotélica está obligada a renunciar a todo
trato con proposiciones que expresen ese tipo de relaciones, debido a las constricciones que
se impone sobre la forma de las proposiciones que trata. Por supuesto, esto no tiene nada
intrínsecamente negativo, no es necesario que una teoría lógica sirva para todos los casos.
Pero consideremos qué sucederá si alguien considera que esa lógica es la Lógica, la única
lógica adecuada. Es bastante obvio que tenderá a considerar que las proposiciones que versan
sobre relaciones no reductibles a atribución de propiedades son pseudoproposiciones, objetos
lingüísticos no conectados con la realidad. Impulsará una ontología amoblada únicamente
con aquellos objetos a los que refieran los términos S y P, excluyendo las relaciones de este
tipo. Y habrá una fortísima presión para afirmar cosas como la irrealidad del tiempo (debido a
que el tiempo impone la relación antisimétrica de prioridad), o en general, a desconfiar de
la ciencia como descripción adecuada del mundo, ya que en ella pululan las postulaciones
de relaciones no capturables en proposiciones categóricas. En definitiva, Russell considera
que la lógica aristotélica es limitada en cuanto al tipo de argumentos que puede validar (lo
que parece más allá de toda controversia) y es, o ha sido históricamente, fuente de mala
metafísica (lo que es al menos discutible).
290 Capítulo 12. Consecuencia semántica

12.5 Ejercicios
1. Demostrar {Pa, Rab, ¬Rab ∨ Pb} |=LPO Pa ↔ Pb.
Demostrar {p, q, ¬q ∨ r} |=LP p ↔ r. ¿Ha argumentado del mismo modo en ambas
demostraciones? ¿Por qué?

2. Sean A1 , . . . ,An , B fórmulas de LPO en las que no hay cuantificadores ni el símbolo


de igualdad, y tales que {A1 , . . . , An } |= B. Demostrar que (A1 ∧ · · · ∧ An ) → B es
una tautología.

3. Demostrar
a) {Pa, Pa → Qb, Qb → ¬Pb} |= ¬a = b
b) {∀xPx, ∃xPx → a = b, Rabc} |= ∃x∃yRxxy
c) {∀x∀y(¬x = y ↔ Rxy), ∃x∀y(¬y = x → ¬y = y)} |= ¬Rab

4. Determinar si lo siguiente es verdadero o falso, y justificar:


{Pc0 , Pc1 , Pc2 , . . . , Pcn , . . . } |= ∀xPx

5. Determinar si lo siguiente es verdadero o falso, y justificar:


{∃x¬Px, Pc0 , Pc1 , Pc2 , . . . , Pcn , . . . } |= Qc1 ∧ ¬Qc1

6. Demostrar
a) Γ |= ∃xPx → Pb si y solo si Γ |= ∃xPx ↔ Pb.
b) Γ , ∃xPx |= ∀x¬Px si y solo si Γ |= ∀x¬Px

7. Sea L un lenguaje de primer orden. Una teoría T en el lenguaje L es un conjunto de


sentencias de L cerrado bajo consecuencia semántica. Esto quiere decir que si T es una
teoría en L, para todo conjunto T0 incluido en T y toda sentencia A de L, si T0 |= A,
entonces A es elemento de T .
a) Demostrar que todas las teorías son infinitas.
b) Demostrar que es equivalente que T sea satisfacible y que exista una sentencia A
de L que no pertenezca a T .
c) Sea M una interpretación de L y sea Γ el conjunto de todas las sentencias de L
que son verdaderas bajo M. Demostrar que Γ es una teoría en L.

8. Una teoría T se dice finitamente axiomatizable si existe un conjunto finito ∆ de sentencias


de T tal que para toda sentencia A de T se tiene que ∆ |= A. ∆ se llama un conjunto de
axiomas para T .
Sea el lenguaje L = {c1 , c2 , c3 , R11 , R21 }, y M una interpretación de L con dominio
M = {1, 2, 3} tal que:
cM
1 =1

cM
2 =2

cM
3 =3
M
R11 = {1}
12.5 Ejercicios 291
M
R21 = {h1, 2i, h1, 3i}
y sea T la teoría de todas las sentencias de L verdaderas bajo M.
a) Demuestre que el conjunto {R11 c1 , R21 c1 c2 , R21 c1 c3 } no es un conjunto de axiomas
para T .
b) ¿Es el conjunto de las siguientes sentencias un conjunto de axiomas para T ?

((R11 c1 ∧ R21 c1 c2 ) ∧ R21 c1 c3 )


∃x1 ∃x2 ∃x3 (((¬x1 = x2 ∧ ¬x2 = x3 ) ∧ ¬x1 = x3 ) ∧ ∀x4 ((x4 = x1 ∨ x4 = x2 ) ∨ x4 =
x3 ))
∀x1 (R11 x1 → x1 = c1 )
∀x1 ∀x2 (R21 x1 x2 → (x1 = c1 ∧ (x2 = c2 ∨ x2 = c3 )))

9. Considere el siguiente conjunto de proposiciones:


Ningún comedor de alfajores es lujurioso.
Cecilia es una rata.
Solo los lujuriosos odian a los gatos.
Todas las ratas comen alfajores.
¿Cuál o cuáles de las siguientes proposiciones se siguen lógicamente del conjunto
dado?
Cecilia es lujuriosa.
Las ratas odian a los gatos.
Cecilia no odia a los gatos.
Demuéstrelo formalizando y evaluando la existencia de la relación de consecuencia
semántica.

10. Considere el siguiente conjunto de proposiciones:


Todos los maridos de René murieron en circunstancias sospechosas.
René tuvo al menos tres maridos.
Si una mujer tuvo más de dos maridos que murieron en circunstancias sospecho-
sas, entonces la policía la vigilará.
Suponga que alguien le expresa esas proposiciones y de ellas concluye La policía vigilará
a René.
a) Argumente a favor de que la conclusión extraída no se sigue de las premisas
dadas, formalizando y mostrando que no se da la consecuencia semántica.
b) Suponga que usted cree que la persona que ha expresado el razonamiento no
ha cometido errores, sino que simplemente no ha expresado una premisa que
considera evidente. ¿Cuál premisa sería esa? Muestre, formalizando, que con el
agregado de esa premisa el argumento es válido.
292 Capítulo 12. Consecuencia semántica

c) Seguramente no es razonable elegir como premisa implícita, en la parte anterior,


a la proposición Si René tuvo al menos tres maridos, entonces la policía vigilará a René.
Sin embargo, es muy claro que con el agregado de esa premisa el argumento
se torna válido. ¿Qué motivos hay para no elegir esa proposición como premisa
implícita? ¿Son motivos lógicos?
13 | Consecuencia sintáctica

n este capítulo desarrollaremos un sistema de deducción para la lógica de primer

E orden. Tendrá las características del que estudiamos para la lógica proposicional, o
sea, será un sistema de deducción natural. Como la lógica de primer orden recibe en
la estructura de su sintaxis y en su semántica una herencia directa de la lógica proposicional,
todas las reglas que regulan la introducción y eliminación de los conectivos proposicionales
pasarán a nuestro sistema. Lo que necesitamos son nuevas reglas que afecten los símbolos
lógicos de LPO que no tienen análogo en LP, o sea, la igualdad, el cuantificador universal y
el cuantificador existencial.
A diferencia de lo que sucede en la lógica proposicional, en la de primer orden las
interpretaciones no otorgan valor de verdad a todas las fórmulas. Es por eso que nuestro
sistema solo operará con sentencias. Si bien la definición de derivación, que es totalmente
análoga (formalmente idéntica) a la vista al estudiar la lógica proposicional, será dada más
adelante por motivos de autocontención del capítulo, usaremos el concepto en el entendido
de que el lector ya lo conoce. Presentaremos las derivaciones mediante diagramas de Fitch,
cuyas convenciones estructurales el lector también conoce.

13.1 Las reglas de inferencia


La igualdad
Nuestro objetivo ahora es encontrar reglas sintácticas que nos indiquen bajo qué condi-
ciones podemos inferir una igualdad y qué podemos inferir de una igualdad dada.
Comencemos por lo primero, las condiciones bajo las que podemos inferir una igualdad.
Es claro que la igualdad es una relación, y que relaciona a cada individuo consigo mismo.
Esto es algo constitutivo de la igualdad, llamado reflexividad y no se necesita ninguna
condición o premisa para inferirlo. Correlativamente, la semántica de LPO indica que una
sentencia del tipo

a=a

es válida.
Por lo tanto, aceptaremos que
en una secuencia inferencial, siempre se puede agregar una igualdad en la que
ambos miembros son el mismo.
294 Capítulo 13. Consecuencia sintáctica

Como nuestra sintaxis hace que una sentencia de LPO que sea una igualdad sea necesa-
riamente de la forma

ci = cj

establecemos esta regla:

Regla Reflexión

cn = cn

que expresa que en una derivación siempre se puede introducir una línea formada por una
constante de individuo seguida por el signo de igualdad seguido por la misma constante de
individuo.
Supongamos ahora que nos es dado que a es igual a b. ¿Qué se puede inferir de ello?
Obviamente, que b es igual a a. Este aspecto, también constitutivo de la igualdad, se llama
simetría. Por eso podemos afirmar que
si un elemento de una secuencia inferencial es una igualdad, se puede agregar
a la secuencia otra igualdad con los mismos miembros presentados en orden
inverso al de la primera.

Eso lo recogemos en la siguiente regla:

Regla Simetría
ci = cj
cj = ci

Otra situación en la que podemos inferir una igualdad es aquella en la que sabemos que
a es igual a b, y que b es igual a c. También constitutivo del concepto de igualdad es que en
ese caso, a es igual a c, lo que se llama transitividad. De aquí surge que
en una secuencia inferencial, luego de dos igualdades tales que el primer miembro
de una es el segundo de la otra, se puede agregar una igualdad cuyos miembros
son los miembros restantes de las anteriores.

La regla correlativa es

Regla Transitividad
ci = cj
cj = ck
ci = ck

Quizá parezca que hemos dicho todo lo que hay para decir acerca de la igualdad. Pero
reflexionando un poco veremos que no es así. Las tres propiedades de la relación de igualdad
que hemos consignado; reflexividad, simetría y transitividad no parecen suficientes para
caracterizarla. Hay muchas relaciones que cumplen las tres propiedades pero no son la
igualdad.
13.1 Las reglas de inferencia 295

 Ejemplo 13.1 La relación ≡ en LPO es reflexiva, simétrica y transitiva:


Recordemos que A ≡ B si y solo si todo modelo de A es modelo de B y recíprocamente.
Entonces
A ≡ A para toda fórmula A.
Si A ≡ B, entonces B ≡ A cualesquiera sean las fórmulas A y B.
Si A ≡ B y B ≡ C, entonces A ≡ C cualesquiera sean las fórmulas A, B y C.
Este tipo de relaciones son tan importantes que merecen una
Definición 13.1.1 — Relación de equivalencia.
Una relación que cumple reflexividad, simetría y transitividad se llama relación de
equivalencia.

Las relaciones de equivalencia aparecen siempre en aquellos contextos en los que nos
interesa “la igualdad bajo algún aspecto”. Por ejemplo, la equivalencia entre fórmulas
aparece naturalmente cuando nos interesa considerar la igualdad de comportamiento
semántico entre ellas. Pero por supuesto, que dos fórmulas se comporten del mismo
modo bajo nuestra semántica (esto es, tengan los mismos modelos), no garantiza que sean
iguales bajo otros aspectos, por ejemplo, sintácticamente. Entonces la igualdad que estamos
buscando se nos muestra un poco elusiva, porque lo que queremos con nuestra igualdad es
expresar, mediante a = b que llamamos a y llamamos b al mismo objeto, no meramente que
llamamos a y también b a objetos que comparten alguna característica.
Este último punto de vista parece ofrecernos una salida. Inmediatamente pensamos que
lo que deseamos es expresar que el objeto llamado a y el objeto llamado b comparten todas
las características o propiedades. Esta línea de razonamiento nos impulsaría a postular una
regla de este tipo, donde P es cualquier letra de predicado unaria:

Definición de igualdad
∀P(Pa ↔ Pb)
a=b

Esta idea, la de definir la igualdad diciendo que dos objetos son iguales si y solo si comparten
todas las propiedades, surge de un principio llamado identidad de los indiscernibles que se
acredita a Leibniz, y afirma que si dos objetos comparten las mismas propiedades, son el
mismo. Lo recíproco es trivial. Sin embargo, por atractiva que resulte, es muy obvio que no
la podemos usar. Lo que hemos escrito sobre la barra no es una fórmula de LPO, nuestro
lenguaje no tiene tanto poder expresivo como para consignar que dos individuos comparten
exactamente las mismas propiedades, ya que no permite cuantificar sobre variables de
relación, sino únicamente sobre variables de individuo1 . De modo que parece que estamos
como al principio. Sin embargo, como suele suceder, una idea que no funciona perfectamente
deja algo que sí nos resulta extremadamente útil.
Supongamos que sabemos que a = b, y que a “cumple algo”. Ese “cumple algo” será
expresado en nuestro lenguaje a través de una sentencia en la que aparecerá la constante
1 En lógica de segundo orden, donde se puede cuantificar sobre predicados, es posible definir la igualdad

como se ha mostrado. Es interesante que para hacerlo no se necesite el bicondicional sino que baste el condicional.
Es que un objeto no puede tener todas las propiedades de otro y ser distinto de ese otro.
296 Capítulo 13. Consecuencia sintáctica

que denote a. Pero como a y b denotan el mismo individuo, al sustituir ocurrencias de a


por ocurrencias de b, se obtendrá una fórmula que debe tener el mismo valor de verdad
que la anterior.
Es decir
si en una secuencia inferencial se tiene una igualdad y una sentencia en la que
se expresa algo relativo a uno de los miembros de la igualdad, se puede agregar
a la cadena una sentencia que expresa lo mismo respecto al otro miembro de la
igualdada
a observe
la vaguedad de toda esta expresión. la precisión necesaria solo se puede obtener en
los correlatos formales de lo que intentamos expresar en lenguaje natural, y su justificación
rigurosa en términos semánticos se verá en la parte dedicada a la metateoría..

Escribiendo F(ci ) por una sentencia con ocurrencias de la constante ci y F(ci L99 cj ) por
cualquier sentencia que se obtiene de F(ci ) al sustituir algunas de las ocurrencias de ci por
ocurrencias de cj , tenemos la siguiente regla:

Regla Sustitución
ci = cj
F(ci )
F(ci L99 cj )
Con esto hemos completado la parte del sistema deductivo que se encarga de regular la
igualdad.

Los cuantificadores
En esta sección buscaremos las reglas de introducción y eliminación de los cuantifica-
dores. Las sentencias cuantificadas “interesantes” son de la forma ∀xn F(xn ) o ∃xn F(xn ),
donde F(xn ) es una fórmula cuya única variable libre es xn 2 . Llamaremos a esas fórmulas
F(xn ) condiciones y diremos que el individuo denotado por ck “cumple” la condición F(xn )
si atribuimos valor de verdad verdadero a la sentencia F(ck ), que es el resultado de sustituir
todas las ocurrencias libres de xn por ck en F(xn ).3
También diremos que F(ck ) es el resultado de instanciar la fórmula ∀xn F(xn ) o ∃xn F(xn )
en la constante ck , o que es una instanciación de estas fórmulas cuantificadas.

El cuantificador universal
La regla de eliminación del cuantificador universal es de una evidencia tal que no ofrece
dificultad alguna. Surge de que claramente, si afirmamos algo de todos los individuos,
podemos afirmar eso mismo de cualquiera de ellos en particular4 .
2 Si son sentencias cuantificadas y no son de esta forma, se trata de casos de cuantificación vacua.
3 Al tratar la semántica de LPO habíamos escrito esto como F(xn ← ck ). Ahora cambiamos la notación para
adoptar una más ágil. Lo fundamental es recordar que F(ck ) debe ser una sentencia, por lo que proviene de
sustituir todas las ocurrencias libres de xn en F(xn ) por ck .
4 El lector debe estar muy atento a no entender esto como una falacia de composición. Cuando decimos

que afirmamos algo de todos los individuos, queremos decir que lo afirmamos de cada uno de ellos –nuestros
cuantificadores ranguean sobre individuos– y no del conjunto que ellos forman. Es una tontería pensar en un
ser humano como un conjunto de células, y afirmar que dado que el conjunto de células piensa, cada una de las
células piensa.
13.1 Las reglas de inferencia 297

en una secuencia inferencial, donde figura una aserción sobre todos los indivi-
duos, se puede agregar la misma aserción sobre cualquiera de ellos.

Esto nos lleva a la siguiente regla:

Regla E∀
∀xn F(xn )
F(ck )

que expresa que de una fórmula universal se puede inferir cualquiera de sus instanciaciones.
La búsqueda de una regla de introducción del cuantificador universal es más compleja.
Necesitamos conocer bajo qué circunstancias podemos inferir una aserción universal. Quizá
la primera idea que se nos venga a la mente es que lo podemos hacer cuando hemos hecho
una verificación exhaustiva sobre todos los individuos y hemos corroborado que cada uno
cumple la condición que queremos afirmar de todos ellos. Por supuesto, esto es correcto,
pero no nos va a servir, porque las interpretaciones pueden tener tienen dominios infinitos
y no podemos verificar, uno por uno, sobre infinitos individuos.
De manera que quizá lo mejor sea dirigir nuestra atención a la disciplina en la que los
dominios infinitos aparecen naturalmente, y en la que se infieren aserciones que afectan a
todos los elementos de esos dominios: la matemática.
Consideremos entonces una demostración matemática simple en la que se concluya una
sentencia universal. Demostremos lo siguiente:
Para todo número natural se cumple que su cuadrado da resto 0 o da resto 1 al ser
dividido entre 4.
demostración: Sea n un natural cualquiera. Como todos los naturales, n cumple alguna
las siguientes posibilidades:

1. n da resto 0 al ser dividido entre 4.


2. n da resto 1 al ser dividido entre 4.
3. n da resto 2 al ser dividido entre 4.
4. n da resto 3 al ser dividido entre 4.

Veamos que en todos los casos se cumple que n2 da resto 0 o da resto 1 al ser dividido entre
4:

1. En este caso, existe k natural tal que n = 4k. Por lo tanto, n2 = 4.4k2 , con lo que n2 da
resto 0 al ser dividido entre 4, y por lo tanto da resto 0 al ser dividido entre 4 o da
resto 1 al ser dividido entre 4.
2. En este caso, existe k natural tal que n = 4k + 1. Por lo tanto, n2 = (4k + 1)2 =
16k2 + 8k + 1 = 4(4k2 + 2k) + 1, con lo que n2 da resto 1 al ser dividido entre 4, y por
lo tanto da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4.
3. En este caso, existe k natural tal que n = 4k + 2. Por lo tanto, n2 = (4k + 2)2 =
16k2 + 16k + 4 = 4(4k2 + 4k + 1), con lo que n2 da resto 0 al ser dividido entre 4, y por
lo tanto da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4.
298 Capítulo 13. Consecuencia sintáctica

4. En este caso, existe k natural tal que n = 4k + 3. Por lo tanto, n2 = (4k + 3)2 =
16k2 + 24k + 9 = 16k2 + 24k + 8 + 1 = 4(4k2 + 6k + 2) + 1, con lo que n2 da resto 1 al
ser dividido entre 4, y por lo tanto da resto 0 al ser dividido entre 4 o da resto 1 al ser
dividido entre 4.

Por lo tanto, n2 da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4.
Como n es cualquiera, se concluye que para todo número natural, su cuadrado da resto
0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4.

Examinemos con cuidado la demostración, que es tenida por los matemáticos como
concluyente.
Es claro que en ella aparecen elementos que deberían tener una prueba previa, como
que todo natural cumple alguna de las cuatro posibilidades numeradas. Supongamos
razonablemente que eso está probado, y se puede incluir en cualquier secuencia inferencial.
Esquematizando la demostración tendríamos:

Paso Contenido Justificación


1 Suponemos que n es un natural Supuesto.
cualquiera.
2 n da resto 0 o da resto 1 o da resto Por un universal previamente de-
2 o da resto 3 al ser dividido entre mostrado, instanciado en n, bajo el
4. supuesto de 1.
3 Suponemos que n da resto 0 al ser Supuesto para eliminar la disyun-
dividido entre 4. ción5 de 2, bajo el supuesto de 1.
4 n2 da resto 0 al ser dividido entre 4 Verificado algebraicamente. Bajo los
o da resto 1 al ser dividido entre 4. supuestos de 1 y de 3.
5 Suponemos que n da resto 1 al ser Supuesto para eliminar la disyun-
dividido entre 4. ción de 2, bajo el supuesto de 1.
6 n2 da resto 0 al ser dividido entre 4 Verificado algebraicamente. Bajo los
o da resto 1 al ser dividido entre 4. supuestos de 5 y de 1.
7 Suponemos que n da resto 2 al ser Supuesto para eliminar la disyun-
dividido entre 4 ción de 2, bajo el supuesto de 1.
8 n2 da resto 0 al ser dividido entre 4 Verificado algebraicamente. Bajo los
o da resto 1 al ser dividido entre 4. supuestos de 7 y de 1.
9 Suponemos que n da resto 3 al ser Supuesto para eliminar la disyun-
dividido entre 4. ción de 2, bajo el supuesto de 1.
10 n2 da resto 0 al ser dividido entre 4 Verificado algebraicamente. Bajo los
o da resto 1 al ser dividido entre 4. supuestos de 9 y de 1.
11 n2 da resto 0 al ser dividido entre 4 Por haber estudiado todos los casos
o da resto 1 al ser dividido entre 4. posibles (eliminación de la disyun-
ción de 2 en 3-4, 5-6, 7-8 y 9-10. Bajo
el supuesto de 1.
5 Si fuésemos a seguir estrictamente la regla sintácticas que hemos dado para eliminar la disyunción,

deberíamos suponer, por ejemplo, primero una disyunción de dos disyunciones y luego hacer los supuestos en
orden. El razonamiento coloquial nos permite suponer los cuatro disyuntos separados sin preparativos.
13.1 Las reglas de inferencia 299

12 Para todo natural, su cuadrado da ¡Libre de supuestos!


resto 0 al ser dividido entre 4 o da
resto 1 al ser dividido entre 4.

¿Qué nos permite dar el paso 12? Intuitivamente, responderíamos que podemos dar el
paso 12 porque establecimos el 11 bajo el supuesto de que n es un natural cualquiera, arbitrario,
que esa es toda la clave. O sea, en resumen, lo que se establece de un natural cualquiera vale
para todos los naturales. Y en general, podríamos decir que lo que se establece de un individuo
cualquiera vale para todos los individuos. Cualquier condición restrictiva que hubiésemos
impuesto al principio, en 1 (por ejemplo, Sea n un natural mayor que 10, o Sea n un natural
primo, o Sea n=17) hubiera invalidado la conclusión universal. Hasta acá hemos establecido
una versión coloquial de lo que buscamos:
en una secuencia inferencial en la que un elemento establece que un individuo
arbitrario, es decir, un individuo del cual no se tiene otra información más
que su pertenencia al dominio en cuestión, cumple una condición cualquiera; se
puede agregar una sentencia que afirma que todos los individuos del dominio
cumplen la condición.

De modo que parece que podemos establecer una regla de este tipo:

F(ck ) Siendo ck una constante cualquiera


∀xn F(xn )

Pero una ligera reflexión muestra que esa propuesta es disparatada. Si aceptamos que de
cualquier fórmula de la forma F(ck ) podemos inferir ∀xn F(xn ), debemos aceptar que es
correcto lógicamente inferir a partir de que en un dominio un individuo, denotado con
ck , cumple la condición F, que todos los individuos del dominio la cumplen. Sería como
aceptar, a partir de que 100 es múltiplo de 10, que todos los naturales son múltiplos de 10.
¿Qué es lo que falla en nuestra propuesta de regla? Justamente, lo que falla es que no nos
detuvimos a considerar que la constante ck debe ser apta para denotar a cualquier individuo,
tal como la n de nuestro ejemplo de razonamiento. Es decir, la ausencia de restricciones
sobre el individuo que pueda ser denotado por la constante se debe traducir en restricciones sobre la
constante a elegir. En particular, tenemos que evitar que el individuo que la constante pueda
denotar “esté obligado” a cumplir condiciones de cualquier tipo (excepto, por supuesto,
la pertenencia al dominio). Para esto, es necesario que no aparezca ni en las premisas ni en
supuestos abiertos. Por otro lado, es necesario que no aparezca en la propia fórmula universal
que se obtiene (lo que se asegura al sustituir la constante por la variable cuantificada
universalmente en todas las ocurrencias de la constante). Veamos con algunos ejemplos el
tipo de error que se cometería si no se respetaran esas restricciones:

1. Si permitíeramos que la constante figurase en premisas, estaríamos validando un


argumento como
300 Capítulo 13. Consecuencia sintáctica

Sócrates es mortal.
Todos son mortales.

2. Si permitiéramos que la constante figurase en supuestos abiertos, aceptaríamos como


buena una secuencia inferencial así:

Paso Contenido Justificación


1 Suponemos que Sócrates es filósofo. Supuesto.
2 Aceptamos, bajo el supuesto de 1, Por la “regla” de introducción de
que todos son filósofos. universales, en la que hemos permi-
tido que se universalice a partir de
una constante que figura en supues-
tos abiertos.
3 Aceptamos que si Sócrates es filóso- Por la subsecuencia de 1 a 2, libre
fo, entonces todos son filósofos. de supuestos.

3. Si permitíeramos que la constante figurase en la fórmula universal obtenida, conside-


raríamos buena esta secuencia inferencial:

Paso Contenido Justificación


1 Juan es igual a Juan. No es premisa, lo introducimos en
la secuencia por reflexividad.
2 Para todo objeto, Juan es igual a ese Por la “regla” de introducción de
objeto universales, en la que hemos per-
mitido que se universalice a partir
de una constante que figura en la
fórmula universal obtenida. El pro-
blema, está claro, si lo miramos en
su representación formal, es que la
constante a partir de la cual se uni-
versaliza, “Juan”, figura en el uni-
versal obtenido, y esto es debido a
que no se sustituyó uniformemen-
te por una variable. Se podría ha-
ber obtenido “Todos son iguales a
sí mismos”.

De este modo, la regla de introducción del cuantificador universal será:

Regla I∀
ck ausente de premisas
F(ck ) supuestos abiertos y ∀xn F(xn ).
∀xn F(xn )
13.1 Las reglas de inferencia 301

Veamos algunos ejemplos de aplicación de las reglas que hemos incorporado hasta
ahora.
 Ejemplo 13.2 En nuestro primer ejemplo mostraremos una derivación que asegura que
toda fórmula de la forma ∀xn xn = xn es un teorema6 , lo que fue mencionado al examinar
las restricciones a la regla de introducción del universal.

1 ck = ck Reflexión

2 ∀xn xn = xn I∀ , 1

 Ejemplo 13.3 En nuestro segundo ejemplo, mostraremos mediante una derivación la


corrección del best seller de los argumentos:

Todos los hombres son mortales.


Sócrates es hombre.
Sócrates es mortal.

En el ejemplo 12.3, en la página 277 habíamos traducido las premisas y la conclusión a


nuestro lenguaje que recuerda a LPO, y lo que nos interesa es mostrar una derivación con
conjunto de premisas {∀x(Hx → Mx), Hs} que termina en Ms. Esta es una:

1 ∀x(Hx → Mx)

2 Hs

3 (Hs → Ms) E∀ , 1

4 Ms E→ , 2, 3

Listo, el famoso razonamiento queda así vindicado. Observemos que en esta derivación
no se usó la regla I∀ . ¿Podemos usarla sobre la última línea obteniendo lo siguiente?

1 ∀x(Hx → Mx)

2 Hs

3 (Hs → Ms) E∀ , 1

4 Ms E→ , 2, 3

5 ∀xMx I∀ , 4

6 Observe el lector que se trata de un esquema de fórmula, ya que x no es un término del lenguaje. Para
n
cada elección de la variable obtenemos un teorema. En el esquema de derivación la primera línea tampoco es
una fórmula, sino un esquema de fórmula, ya que ck no pertenece al alfabeto de LPO
302 Capítulo 13. Consecuencia sintáctica

Es claro que esto es un grave error. A partir de una sentencia que interpretamos como
el aserto de que Sócrates es mortal, inferimos una que interpretamos como el aserto de
que todo es mortal. El problema está, obviamente, en que no se ha respetado la restricción
que la regla I∀ impone. En este caso, se introduce el universal para que cuantifique sobre
una variable que viene a ocupar el lugar de una constante en la línea 4, pero esa constante
aparece en una premisa, en la 2. Por lo tanto, esto que se ha presentado no es una derivación,
no hay regla alguna que permita obtener la línea 5.

En nuestro siguiente ejemplo, nos gustaría mostrar cómo justificar que podemos intro-
ducir un universal que afirma que todos los individuos cumplen una condición, si hemos
verificado que cada uno de los individuos la cumple. O sea, mostrar que un razonamiento
del tipo:

Hay exactamente dos individuos.


El individuo a es diferente al individuo b.
El individuo a es alto.
El individuo b es alto.
Todos los individuos son altos.

es correcto. Pero observemos que al traducir esto a nuestro símil de LPO, escribiendo A por
. . . es alto obtenemos, en una traducción muy directa:

∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y))


¬a = b
Aa
Ab
∀xAx

lo que nos obliga a encontrar las reglas que regulan el comportamiento del cuantificador
existencial. A ello nos dedicaremos ahora.

El cuantificador existencial
Hay una cierta simetría en las reglas que gobiernan ambos cuantificadores. Así como era
muy sencillo determinar la regla de eliminación del cuantificador universal, y complicado
determinar la de introducción, nos será muy sencillo determinar la regla de introducción del
cuantificador existencial y hallar una regla aceptable de eliminación para ese cuantificador
nos resultará más arduo.
Es muy claro que si sabemos que un individuo particular cumple una condición, pode-
mos inferir que existe un individuo que cumple esa condición. O sea:
en una secuencia inferencial, en la cual un elemento afirma que un individuo
particular cumple una condición, se puede agregar una sentencia que afirma
que existe un individuo que cumple esa condición.

Esto nos lleva a la siguiente


13.1 Las reglas de inferencia 303

Regla I∃
F(ck )
∃xn F(xn )

y no hay restricción alguna sobre esta regla, excepto que la variable xn no puede aparecer
en F(ck ), ya que en caso contrario estaríamos imponiendo ilegítimamente alguna condición
sobre el individuo que decimos existe.
El problema interesante es la determinación de una regla adecuada de eliminación del
cuantificador existencial. ¿Qué podemos inferir de que un individuo cumple una condición?
Planteada así, en abstracto, la pregunta parece muy difícil de responder. Quizá podríamos
pensar que sabiendo que existe un individuo que cumple una condición, podemos inferir
que uno particular lo hace. Es decir, una regla del tipo

∃xn F(xn )
F(ck )

Pero esto sería un terrible error, equiparable al comentado al final de la sección 12.2,
página 274, de inferir que Juan es rubio a partir de saber que alguno es rubio. ¿Por qué
debería ser Juan y no otro, siendo perfectamente posible que Juan no sea rubio? Esa forma
de razonar está muy desencaminada.
Entonces, ¿qué se puede inferir a partir de una afirmación existencial? Consideremos
algún razonamiento que incluya una afirmación así entre sus premisas, y observemos cómo
inferimos enfrentados con ella.
Si sabemos
Existe un culpable.
Si Juan es culpable, Pedro es culpable.
Si Juan no es culpable, nadie más lo es.
podemos inferir que Juan y Pedro son culpables. ¿Cómo? Un razonamiento posible sería
este:

Paso Contenido Justificación


1 Aceptamos que hay un culpable. Premisa.
2 Aceptamos que si Juan es culpable, Premisa.
Pedro es culpable.
3 Aceptamos que si Juan no es culpa- Premisa.
ble, nadie más lo es.
4 Suponemos que hay un individuo Supuesto para extraer consecuen-
indeterminado, al que llamamos cias de la existencia de un culpable
“Hache”, que es culpable. establecida en 1, no nos comprome-
temos con quién es el culpable, solo
suponemos que hay uno.
5 Suponemos que Juan no es culpa- Queremos llegar a una contradic-
ble. ción para aceptar que Juan es culpa-
ble. Bajo supuesto de 4.
304 Capítulo 13. Consecuencia sintáctica

6 Aceptamos que nadie que no sea De 3 y 5. Bajo supuestos de 4 y 5.


Juan es culpable.
7 Aceptamos que Juan no es culpable De 5 y 6, bajo supuestos de 4 y 5.
y nadie que no sea Juan es culpable.
8 Aceptamos que nadie es culpable. De 7, bajo supuestos de 4 y 5.
9 Aceptamos que Hache no es culpa- De 8, bajo supuestos de 4 y 5.
ble.
10 Deberíamos aceptar que Hache es Contradicción extraída de 4 y 9, ba-
culpable y Hache no es culpable. jo supuestos de 4 y 5.
9 Aceptamos que Juan es culpable. Rechazamos el supuesto de 5, que
ha llevado a contradicción. Bajo el
supuesto de 4.
10 Aceptamos que Pedro es culpable. De 9 y 2. Bajo el supuesto de 4.
11 Aceptamos que Juan es culpable y De 9 y 10. Bajo el supuesto de 4.
Pedro es culpable
12 Aceptamos que Juan es culpable y ¡Libre de supuestos! Lo aceptamos
Pedro es culpable. porque es una consecuencia extraí-
da de la mera suposición de que
existe un culpable cualquiera, y en 1
afirmamos que existe uno.

La clave del razonamiento es que partimos de suponer que un individuo al que solamente
le damos un nombre (Hache) es culpable, es decir, cumple la condición de la que el
existencial afirma que al menos un individuo cumple. No podríamos razonar correctamente
si supusiéramos que el individuo fuese alguno particular, es decir, nombrado en las premisas,
o en algún supuesto abierto, o inclusive en la propia aserción existencial de la que partimos.
Por otro lado, lo que concluimos bajo ese supuesto y luego extraemos como conclusión libre
de él (obsérvese que la demostración termina con dos líneas iguales, solo que una obtenida
bajo el supuesto de 4 y la otra libre de él) no menciona a ese individuo Hache. Si lo hiciera,
la conclusión dependería de la suposición de que Hache es culpable (Si no depende de eso,
¿de dónde habríamos sacado ese nombre, “Hache”, para introducirlo en algún elemento de
la secuencia?). Con esto in mente, podemos afirmar lo siguiente, que da la regla correlativa:

en una secuencia inferencial, si luego de una aserción existencial se encuentra


una subsecuencia iniciada con un supuesto que es instanciación del existencial
con un individuo no mencionado en las premisas ni en supuestos abiertos ni en
la aserción existencial y terminada en una aserción independiente del individuo,
se puede agregar la aserción final de la subsecuencia a la secuencia.

Regla E∃
∃xn F(xn ) ck ausente de las premisas,
[F(ck )] supuestos abiertos, F(xn ) y A
..
.
A
A
13.2 El sistema de deducción natural para LPO 305

Ejercicio 13.1 Hallar ejemplos de razonamientos incorrectos que serían dados por buenos
si no tuviéramos en cuenta las restricciones a la constante ck en la regla E∃ .

Hemos encontrado todas las reglas que conformarán nuestro sistema. Ahora haremos
una presentación sistemática de él.

13.2 El sistema de deducción natural para LPO


En la parte precedente de este capítulo hemos hallado las reglas de inferencia caracterís-
ticas del sistema de deducción natural para LPO, las que junto con las reglas que habíamos
hallado para LP conformarán nuestro sistema. Las presentamos conjuntamente:

reglas del sistema de deducción natural para LPO

Regla Reflexión Regla Simetría Regla Transitividad Regla Sustitución


ci = cj ci = cj ci = cj
cn = cn cj = ci cj = ck F(ci )
ci = ck F(ci L99 cj )

Regla E∀ Regla I∀ ck no figura en premisas ni en


∀xn F(xn ) F(ck ) supuestos abiertos ni en ∀xn F(xn ).
F(ck ) ∀xn F(xn )

Regla E∃ ck no figura en premisas Regla I∃ xn ausente


∃xn F(xn ) ni en supuestos abiertos F(ck ) de F(ck )
[F(ck )] ni en A ni en F(xn ). ∃xn F(xn )
..
.
A
A

Regla E↔ i Regla E↔ d Regla I↔


A↔B A↔B A→B
B A B→A
A B A↔B
306 Capítulo 13. Consecuencia sintáctica

Regla E∧ i Regla E∧ d Regla I∧


A∧B A∧B A
A B B
A∧B

Regla E¬ Regla I¬
¬¬A [A]
..
A .
B ∧ ¬B
¬A
Regla E→ Regla I→
A→B [A]
..
A .
B B
A→B

Regla E∨ Regla I∨ d Regla I∨ i


A∨B A A
[A] B∨A A∨B
..
.
C
[B]
..
.
C
C

Al igual que hicimos al estudiar el sistema formal para la lógica proposicional, ofrecemos
la siguiente
Definición 13.2.1 — Derivación.
Sean Γ un conjunto de sentencias y A una sentencia. Una derivación de A a partir de Γ es
una sucesión de sentencias en la que cada sentencia:
o bien pertenece a Γ
o bien es un supuesto cancelado
o bien es el resultado de aplicar alguna de las reglas a sentencias o subsecuencias
anteriores en la sucesión
y además la última sentencia es A.

Estamos ahora en condiciones de definir una de las relaciones centrales de la lógica que
estamos estudiando, la de consecuencia sintáctica.
13.3 Consecuencia sintáctica 307

13.3 Consecuencia sintáctica


Al igual que en la lógica proposicional, presentamos otro modo –además de la con-
secuencia semántica– de capturar la corrección lógica. La definición es estructuralmente
idéntica a la ya vista para la lógica proposicional.
Definición 13.3.1 — Consecuencia sintáctica. Sea Γ un conjunto de sentencias de LPO
y A una sentencia de LPO. A es consecuencia sintáctica de Γ si y solo si existe una
derivación de A a partir de Γ .

Notación 13.1. Si A es consecuencia sintáctica de Γ , escribimos Γ ` A.


En caso de que sea necesario distinguir entre las dos nociones de consecuencia sintáctica,
la correspondiente a la lógica proposicional y la correspondiente a la lógica de primer orden,
escribiremos `LP y `LPO .

13.4 Heurística
En esta sección veremos, a través del estudio de varios ejemplos, algunas ideas a tener
en cuenta al intentar construir derivaciones.
La primera consideración que debe hacerse es, obviamente, que se debe atender muy
especialmente a las restricciones impuestas sobre las constantes en juego en las reglas I∀
y E∃ . No se abundará en ejemplos de errores cometidos por no respetarlas, sino que se
encarecerá al lector no olvidar el punto.
 Ejemplo 13.4 Demostrar {∀x(Px → Qx), Pa} ` ∃xQx
El plan para la derivación surge de inmediato: la premisa universal puede ser instanciada
en cualquier constante, eliminando el cuantificador. Si la instanciamos en a, obtenemos un
condicional que podemos eliminar ya que la premisa restante es su antecedente. Obtenemos
el consecuente, instanciado en a, y aplicando introducción del existencial queda demostrado
lo pedido.

1 ∀x(Px → Qx)

2 Pa

3 Pa → Qa E∀ , 1

4 Qa E→ , 2, 3

5 ∃xQx I∃ , 4

En este ejemplo observamos algo que es bastante frecuente: como muchas veces se
parte de las premisas usando reglas de eliminación y se llega a la conclusión por reglas de
introducción, al tener premisas y conclusión cuantificadas es frecuente encontrar una parte
en el medio de la derivación en la que se opera a nivel proposicional. Así, las líneas 2, 3 y 4
de la derivación anterior no son fórmulas universales ni existenciales.
Nos gustaría poder contar con algunas reglas derivadas. Las que surgen de las relaciones
de consecuencia sintáctica que iremos mostrando en los próximos ejemplos son muy útiles:
308 Capítulo 13. Consecuencia sintáctica

 Ejemplo 13.5 {∀xF(x)} ` ¬∃x¬F(x), siendo F(x) una fórmula con x como única variable
libre:

La derivación no es difícil pero nos permite observar algo interesante. En principio,


como la fórmula que deseamos obtener en la línea final de la derivación es una negación,
parece razonable comenzar suponiendo ∃x¬F(x), con la idea de llegar a una contradicción y
completar el procedimiento con la regla I¬ . Hasta aquí tenemos

1 ∀xF(x)

2 ∃x¬F(x)

Ahora deberíamos proceder a eliminar el cuantificador universal de 1 o el existencial de


3. ¿Cuál? Parece que en este caso sería indiferente. Examinemos la posibilidad de instanciar
primero el universal y luego el existencial, en un supuesto que aparece abajo en la línea 4.
Llegamos fácilmente a

1 ∀xF(x)

2 ∃x¬F(x)

3 F(a) E∀ , 1

4 ¬F(a)

5 F(a) ∧ ¬F(a) I∧ , 3, 4

Y hemos obtenido lo que buscábamos, una contradicción. Pero estamos bajo el supuesto
de 4, la instanciación del existencial de 2. Debemos cerrar ese supuesto, pero no lo podemos
hacer agregando F(a) ∧ ¬F(a) y acudiendo a la regla E∃ aplicada a 2 y la subderivación
4-5 porque la constante a, usada para instanciar el existencial, aparece en la contradicción
que queremos sacar de bajo el supuesto. De modo que parece que habría que intentar otra
cosa. Pero no es necesario retroceder, venimos en buen camino. A partir de la contradicción
F(a) ∧ ¬F(a) podemos obtener cualquier sentencia para agregar a la derivación, usando
ECQ, de manera que aprovechamos eso para obtener otra contradicción que no contenga
ocurrencias de la constante a. Quizá el lector esté pensando que esto no tiene sentido alguno,
pero sí lo tiene. El respeto a las restricciones impuestas en las reglas es la garantía de la
corrección inferencial. La derivación continuaría así, siendo b una constante diferente de a
que no aparece en F(x), lo que asegura que se pueda aplicar la regla E∃ en la línea 7:

1 ∀xF(x)

2 ∃x¬F(x)

3 F(a) E∀ , 1

4 ¬F(a)
13.4 Heurística 309

5 F(a) ∧ ¬F(a) I∧ , 3, 4

6 F(b) ∧ ¬F(b) ECQ, 5

7 F(b) ∧ ¬F(b) E∃ , 2, 4–6

8 ¬∃x¬F(x) I¬ , 2–7

Ejercicio 13.2 Presentar un esquema de derivación que demuestre la misma relación


de consecuencia sintáctica que el anterior en el que la primera instanciación sea de un
existencial.

 Ejemplo 13.6 {¬∃x¬F(x)} ` ∀xF(x), siendo F(x) una fórmula con x como única variable
libre:

Dado que la premisa es una negación, no parece sensato comenzar pensando en aplicar
eliminación sobre ella. Si consideramos la posibilidad de llegar a la conclusión mediante la
regla I∀ , debemos estar dispuestos a obtener F(a) libre de supuestos. Veamos esa línea de
ataque al problema. Comenzamos suponiendo ¬F(a), y esto nos lleva inmediatamente a una
contradicción luego de introducir un existencial. Obtenido F(a), terminamos la derivación
como se planificó.

1 ¬∃x¬F(x)

2 ¬F(a)

3 ∃x¬F(x) I∃ , 2

4 ∃x¬F(x) ∧ ¬∃x¬F(x) I∧ , 3, 1

5 ¬¬F(a) I¬ , 2–4

6 F(a) E¬ , 5

7 ∀xF(x) I∀ , 6

Ejercicio 13.3 En el esquema de derivación anterior, la constante a debe cumplir algo


que no se mencionó. ¿Qué?

 Ejemplo 13.7 {¬∀x¬F(x)} ` ∃xF(x), siendo F(x) una fórmula con x como única variable
libre. Luego de haber pensado sobre los ejemplos anteriores, el lector comprenderá la
siguiente derivación sin problemas.
310 Capítulo 13. Consecuencia sintáctica

1 ¬∀x¬F(x)

2 ¬∃xF(x)

3 F(a)

4 ∃xF(x) I∃ , 3

5 ∃xF(x) ∧ ¬∃xF(x) I∧ , 4, 2

6 ¬F(a) I¬ , 3–5

7 ∀x¬F(x) I∀ , 6

8 ∀x¬F(x) ∧ ¬∀x¬F(x) I∧ , 7, 1

9 ¬¬∃xF(x) I¬ , 2–8

10 ∃xFx E¬ , 9

Ejercicio 13.4 ¿Hay restricciones sobre la constante a en el esquema de derivación ante-


rior? Explique la diferencia, si la hay, con el esquema de derivación mencionado en el
ejercicio 13.2.

 Ejemplo 13.8 {∃xFx} ` ¬∀x¬F(x), siendo F(x) una fórmula con x como única variable libre.

Para demostrarlo presentamos esta derivación:

1 ∃xF(x)

2 ∀x¬F(x)

3 F(a)

4 ¬F(a) E∀ , 2

5 F(a) ∧ ¬F(a) I∧ , 3, 4

6 F(b) ∧ ¬F(b) ECQ, 5

7 F(b) ∧ ¬F(b) E∃ , 1, 3–6

8 ¬∀x¬F(x) I¬ , 2–7

El lector apreciará la necesidad de la línea 6, impuesta por las restricciones de la regla


E∃ .
13.4 Heurística 311

De los cuatro últimos ejemplos podemos extraer las siguientes reglas derivadas, que
suelen llamarse en forma indistinta interdefinición de cuantificadores7 .

interdefinición de cuantificadores
∀xF(x) ¬∃x¬F(x) ¬∀x¬F(x) ∃xF(x)
¬∃x¬F(x) ∀xF(x) ∃xF(x) ¬∀x¬F(x)

 Ejemplo 13.9 En este ejemplo buscaremos una derivación que asegure la corrección de la
inferencia que realizamos para presentar la regla de eliminación del existencial, la que tendrá
algunas complicaciones que resultarán muy instructivas para el lector. Observe cómo nuestro
sistema se adapta a “imitar” en mayor o menor medida nuestro modo de inferir, y cómo
hay partes del razonamiento que resultan “amplificadas” al vernos obligados a describirlas
en sus pasos mínimos. Es un buen momento para que el lector comience a considerar
los costos de la formalización. Una inferencia relativamente breve y elemental tiene como
contrapartida formal una derivación relativamente extensa y compleja en términos de su
estructura, asunto en el que profundizaremos con el próximo ejemplo. Por supuesto, esta
extensión y complejidad pueden deberse a las constricciones impuestas por nuestra lógica y
nuestro sistema deductivo, y quizá haya sistemas en que la contrapartida formal sea más
breve y más simple.
Usaremos el diccionario

Nombre o predicado Constante de individuo o letra de relación


. . . es culpable C
Juan j
Pedro p

con lo que una traducción del argumento es

Existe un culpable. ∃xCx


Si Juan es culpable, Pedro es culpable. Cj → Cp
Si Juan no es culpable, nadie más lo es. ¬Cj → ∀y(¬y = j → ¬Cy)
Juan es culpable y Pedro es culpable. Cj ∧ Cp

La derivación comienza así, intentando “copiar” nuestro razonamiento8 :

7 Muestran que la potencia deductiva del sistema es la misma si le quitamos uno de los cuantificadores.
8 Encarecemos al lector estudiar esta parte teniendo en cuenta el razonamiento hecho, que se encuentra en
13.1
312 Capítulo 13. Consecuencia sintáctica

1 ∃xCx

2 Cj → Cp

3 ¬Cj → ∀y(¬y = j → ¬Cy)

4 Ch

5 ¬Cj

6 ∀y(¬y = j → ¬Cy) E→ , 3, 5

En este punto se nos presenta una complicación. En nuestro razonamiento en lenguaje


natural, de lo que vendría a ser las líneas 5 y 6 obtuvimos que nadie es culpable. Tenemos
que buscar un modo de llegar a una fórmula que exprese eso en nuestra derivación. Un
buen intento podría ser el de obtener una fórmula cuantificada universalmente que así
lo afirme, a través de una introducción del cuantificador universal. Para eso deberíamos
obtener una fórmula de la forma ¬Ck, sin que k aparezca en las premisas o en supuestos
abiertos. Así, parece razonable introducir el supuesto Ck para obtener una contradicción,
extraer la fórmula ¬Ck y aplicar sobre ella introducción del cuantificador universal.

7 Ck

Debemos llegar a una contradicción entre 5, 6 y 7. La semántica viene en nuestra ayuda,


en este intento de aplicar el microscopio de Frege a algo que hemos pasado sobrevolando
en nuestro razonamiento en lenguaje natural. Pensemos así:

Jota no es culpable (5), todos los que no son Jota no son culpables (6) y Ka es
culpable (7). Pero o bien Ka es Jota o bien Ka no es Jota. Si Ka es Jota, entonces
Ka no es culpable, por (5); y si Ka no es Jota, entonces Ka no es culpable, por (6).
En cualquier caso, Ka no es culpable, o sea que Ka no es culpable. Pero además
Ka es culpable, por (7), con lo que hay una contradicción.

Es claro entonces cómo continuar la derivación. Imitando nuestro razonamiento, se


introduce la instancia de LTE k = j ∨ ¬k = j (lo podemos hacer porque hemos demostrado
que todas las instancias son teoremas en la sección 7.2) y se elimina la disyunción obteniendo
la contradicción que nos permite negar el supuesto Ck. Luego se introduce el cuantificador
universal, obteniendo ∀x¬Cx, lo que nos viene a dejar en el paso 8 de nuestro razonamiento
en lenguaje natural. Eso es en la línea 18 en la parte del diagrama que presentamos a
continuación:
13.4 Heurística 313

8 k = j ∨ ¬k = j Es teorema, instancia de LTE

9 k=j

10 ¬Ck Sustitución, 5, 9

11 Ck ∧ ¬Ck I∧ , 7, 10

12 ¬k = j

13 (¬k = j → ¬Ck) E∀ , 6

14 ¬Ck E→ , 12, 13

15 Ck ∧ ¬Ck I∧ , 7, 14

16 Ck ∧ ¬Ck E∨ , 8, 9–11, 12–15

17 ¬Ck I¬ , 7–16

18 ∀x¬Cx I∀ , 17

Se observa que se pudo aplicar la introducción del cuantificador universal en la línea 18


porque la constante k no figura en las premisas ni en supuesto abierto alguno (los supuestos
de las líneas 9 y 12, que tenían ocurrencias de esa constante, fueron cerrados en la línea 16,
y el supuesto de la línea 7, donde también ocurría k, fue cerrado en la línea 17).
A partir de aquí la derivación transcurre siendo una copia casi fiel de nuestra inferencia,
salvo por la introducción y eliminación de la negación, que quedan ocultas en el lenguaje
natural. Este es el final:

19 ¬Ch E∀ , 18

20 Ch ∧ ¬Ch I∧ , 4, 19

21 ¬¬Cj I¬ , 5–20

22 Cj E¬ , 21

23 Cj E∃ , 1, 4–22

24 Cp E→ , 2, 23

25 Cj ∧ Cp I∧ , 23, 24

 Ejemplo 13.10 En este ejemplo final mostraremos, para un caso particular, que la enume-
ración completa permite concluir universalmente. Retomemos el argumento ya mencionado
314 Capítulo 13. Consecuencia sintáctica

Hay exactamente dos individuos.


El individuo a es diferente al individuo b.
El individuo a es alto.
El individuo b es alto.
Todos los individuos son altos.
y mostremos que es correcto.
Escribiendo A por . . . es alto deberíamos demostrar:

{∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y)), ¬a = b, Aa, Ab} ` ∀xAx


Será un ejemplo interesante de extremo apartamiento entre la deducción que podemos
realizar en lenguaje natural y las derivaciones que nuestro sistema nos permite ofrecer
como contrapartida formal de ella. Seguramente se deba a que la traducción de “Hay
exactamente dos individuos” a una sentencia de LPO sepulta lo que “dos” significa bajo
cuantificadores e igualdad, y nuestros modos normales de razonar funcionen de otra manera,
que seguramente sea mejor capturada (en este caso) con otras lógicas.
Presentamos la derivación en un diagrama de Fitch sin comentarios, encarecemos al
lector intentar comprenderla.

1 ∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y))

2 ¬a = b

3 Aa

4 Ab

5 ∃y(¬c = y ∧ ∀z(z = c ∨ z = y))

6 (¬c = d ∧ ∀z(z = c ∨ z = d))

7 ∀z(z = c ∨ z = d) E∧ , 6

8 a = c∨a = d E∀ , 7

9 b = c∨b = d E∀ , 7

10 a=c

11 b=c

12 a=b Sustitución, 10, 11

13 a = b ∧ ¬a = b I∧ , 12, 2

14 (a = c ∧ b = d) ∨ (a = d ∧ b = c) ECQ, 13

15 b=d

16 a = c∧b = d I∧ , 10, 15
13.4 Heurística 315

17 (a = c ∧ b = d) ∨ (a = d ∧ b = c) I∨ , 16

18 (a = c ∧ b = d) ∨ (a = d ∧ b = c) E∨ , 9, 11–14, 15–17

19 a=d

20 b=c

21 a = d∧b = c I∧ , 19, 20

22 (a = c ∧ b = d) ∨ (a = d ∧ b = c) I∨ , 21

23 b=d

24 a=b Sustitución, 19, 23

25 a = b ∧ ¬a = b I∧ , 24, 2

26 (a = c ∧ b = d) ∨ (a = d ∧ b = c) ECQ, 25

27 (a = c ∧ b = d) ∨ (a = d ∧ b = c) E∨ , 9, 20–22, 23–26

28 (a = c ∧ b = d) ∨ (a = d ∧ b = c) E∨ , 8, 10–18, 19–27

29 a = c∧b = d

30 a=c E∧ , 29

31 b=d E∧ , 29

32 Ac Sustitución, 30, 3

33 Ad Sustitución, 31, 4

34 ¬Ae

35 e = c∨e = d E∀ , 7

36 e=c

37 Ae Sustitución, 32, 36

38 Ae ∧ ¬Ae I∧ , 37, 34

39 e=d

40 Ae Sustitución, 33, 39

41 Ae ∧ ¬Ae I∧ , 40, 34

42 Ae ∧ ¬Ae E∨ , 35, 36–38, 39–41

43 ¬¬Ae I¬ , 34–42

44 Ae E¬ , 43
316 Capítulo 13. Consecuencia sintáctica

45 ∀xAx I∀ , 44

46 a = d∧b = c

47 a=d E∧ , 46

48 b=c E∧ , 46

49 Ac Sustitución, 48, 4

50 Ad Sustitución, 47, 3

51 ¬Ae

52 e = c∨e = d E∀ , 7

53 e=c

54 Ae Sustitución, 49, 53

55 Ae ∧ ¬Ae I∧ , 54, 51

56 e=d

57 Ae Sustitución, 50, 56

58 Ae ∧ ¬Ae I∧ , 57, 51

59 Ae ∧ ¬Ae E∨ , 52, 53–55, 56–58

60 ¬¬Ae I¬ , 51–59

61 Ae E¬ , 60

62 ∀xAx I∀ , 61

63 ∀xAx E∨ , 28, 29–45, 46–62

64 ∀xAx E∃ , 5, 6–63

65 ∀xAx E∃ , 1, 5–64

Invitamos al lector a encontrar una derivación de la misma fórmula a partir del mismo
conjunto que sea más corta y que nos recuerde más un razonamiento que pudiéramos hacer
en lenguaje natural para obtener la conclusión.
Este ejemplo muestra que la idea de que la lógica de primer orden no refleja siempre
nuestra forma de razonar –aun en casos en que tiene la potencia suficiente para brindar las
conclusiones– es muy atendible9 .
9 Boolos,en [Boo98], afirma que la lógica de primer orden es incompleta desde el punto de vista práctico. El
lector entenderá mejor qué quiere decir esto luego de leer la parte final del libro, dedicada a la metateoría, pero
la idea que subyace es que hay inferencias que hacemos muy fácilmente y sin embargo traducidas a derivaciones
en primer orden, resultan en objetos enormes, inmanejables, como por ejemplo derivaciones que tienen más
símbolos que átomos el universo.
13.5 Propiedades de la consecuencia sintáctica 317

13.5 Propiedades de la consecuencia sintáctica


La relación de consecuencia sintáctica en LPO tiene propiedades idénticas a las vistas
para la consecuencia sintáctica en LP.
Luego de reformular la definición
Definición 13.5.1 — Conjuntos consistentes, conjuntos inconsistentes.
Sea Γ un conjunto de sentencias de LPO. Γ es inconsistente si existe una sentencia A tal
que Γ ` (A ∧ ¬A), y es consistente en caso contrario.

las resumimos en los siguientes teoremas, de los que no ofrecemos demostraciones porque
son idénticas a las del caso proposicional:

Teorema 13.5.1 Si Γ es inconsistente, entonces Γ ` B, sea cual sea la sentencia B.

Teorema 13.5.2 — Monotonía.


Si Γ ` A, entonces Γ ∪ ∆ ` A para todo conjunto de sentencias ∆.

Corolario 13.5.3 Si τ es un teorema, entonces Γ ` τ para todo conjunto Γ .

Teorema 13.5.4 — Deducción.


Para todo conjunto de sentencias Γ y para cualesquiera fórmulas A y B,
Γ , A ` B si y solo si Γ ` (A → B).

Teorema 13.5.5 — El “absurdo”.


Para todo conjunto Γ y toda sentencia A,
Γ ` A si y solo si Γ , ¬A es inconsistente.

13.6 Excurso filosófico: Contextos indirectos


Las reglas del sistema de deducción natural que se aplican sobre la igualdad conllevan
compromisos importantes que afectan la capacidad de nuestra lógica para tratar ciertas
clases de argumentos.
En el ya mencionado artículo Sobre sentido y denotación, Frege sostuvo que la referencia o
denotación de los enunciados es un valor de verdad, concretamente su valor de verdad. Así,
según Frege, la denotación de
2+2=4
es lo Verdadero, mientras que la de
La Tierra es un satélite de Mercurio.
es lo Falso10 . Ciertamente, esto parece extraño, pero Frege tiene un argumento para conside-
rarlo así. Básicamente, es una consecuencia de su teoría composicional de la referencia:
10 Escribo “lo Verdadero” y “lo Falso” para referirme a dos objetos que Frege creía efectivamente existen, con

indudable talante platónico. Lo Verdadero es la referencia de todas las proposiciones verdaderas, y lo Falso la
referencia de todas las proposiciones falsas, según su teoría.
318 Capítulo 13. Consecuencia sintáctica

Consideremos que no sabemos cuál es la referencia de un enunciado como


(1) El papa Francisco es argentino.
y que aceptamos la teoría composicional de la referencia, es decir, que la referencia de ese
compuesto será función de la referencias de sus componentes. Aceptemos, además, con
Frege y contra Russell, como vimos en la sección 11.5, que la descripción definida el papa
Francisco es denotativa, y que afirmamos, razonablemente,
El papa Francisco = Jorge Bergoglio
Esa igualdad establecida indica que la referencia de sus dos miembros es la misma,
es decir, que hay un único objeto al que llamamos tanto “el papa Francisco” como “Jorge
Bergoglio”.
Ahora bien, dado que consideramos que la referencia del enunciado que estamos anali-
zando es función de la referencia de sus componentes, debemos aceptar que si cambiamos
uno de sus componentes por algo que tenga la misma referencia, el enunciado resultante
tendrá la misma referencia que el original. Así, Frege establece que la referencia de (1) debe
ser la misma que la del enunciado
(2) Jorge Bergoglio es argentino.
y advierte que lo que se ha conservado al pasar de (1) a (2) es el valor de verdad. Ambos
enunciados son verdaderos. Si hubiésemos partido de un enunciado falso, como por ejemplo
Jorge Bergoglio es judío.
la sustitución, que conserva la referencia, nos daría como resultado el enunciado
El papa Francisco es judío.
que también es falso.
Es de este modo que Frege postula que la referencia de los enunciados es su valor de
verdad. Pero pronto se enfrenta con un severo problema.
Para exponerlo, consideremos real la leyenda de Edipo, es decir, que narra hechos, de
modo de suponer que los enunciados que vamos a formular tienen referencia, aun en el
marco fregeano11 . La madre de Edipo se llama Yocasta, o sea que
Yocasta = la madre de Edipo
Edipo, huyendo de la que cree es su ciudad natal, Corinto, entra en Tebas luego de haber
vencido a la esfinge, es coronado rey y se casa con Yocasta, quien es su madre pero él lo
ignora. En ese entonces el enunciado
Edipo sabe que su esposa es Yocasta.
es claramente verdadero. Pero la sustitución por el otro miembro de la última igualdad
considerada arroja
Edipo sabe que su esposa es la madre de Edipo.
11 Este aspecto no tiene importancia, se elige la leyenda de Edipo para ilustrar el punto, pero se podría pensar

un ejemplo no ficticio.
13.6 Excurso filosófico: Contextos indirectos 319

que en mejor español se expresa


Edipo sabe que su esposa es su madre.
y es falso. Justamente, cuando Edipo llegue a saber eso se producirá la anagnórisis y ese
momento no ha llegado12 .
¿Qué ha sucedido? ¿Cómo es que hemos pasado de un enunciado verdadero a uno falso
al hacer una sustitución de un sintagma por otro que tiene la misma referencia? ¿No indica
esto que la regla de sustitución que hemos establecido puede llevarnos a certificar como
correctas inferencias que no lo son?
La clave del asunto, en nuestro ejemplo, está en el verbo saber. Ese verbo introduce lo
que Frege llamó un contexto indirecto, en el cual la sustitución efectuada ofrece este resultado
de no conservación del valor de verdad. Muchos otros verbos lo hacen, como por ejemplo
los verbos querer, creer, opinar, pensar.
La consecuencia inmediata de esto es que nuestra lógica, con la regla de sustitución
que hemos dado, no puede tratar eficazmente situaciones en las que aparezcan contextos
indirectos. Por este y otros motivos se han desarrollado lógicas no clásicas, como las lógicas
epistémicas (para aplicar sobre las cuestiones relativas a lo que se sabe), las doxásticas (sobre
lo que se cree), etc. Sus reglas de inferencia no incorporan estos esquemas sustitucionales.

12 Para los lectores que conozcan elementos de la semántica fregeana y la poética aristotélica: ¿Será la

anagnórisis, desde el punto de vista fregeano, el reconocimiento de que dos sentidos incompatibles éticamente
se asocian a la misma referencia?
320 Capítulo 13. Consecuencia sintáctica

13.7 Ejercicios
1. Demostrar
a) {∀xPx ∧ ∀xQx} ` ∀x(Px ∧ Qx)
b) {∀x(Px → Qx)} ` ∀x(¬Qx → ¬Px)
c) {∀x(Px → Qx)} ` ∃xPx → ∃xQx
d) {∃x(Px ∨ Qx)} ` ∃xPx ∨ ∃xQx
e) {∀x(Px ∨ Qx), ∃x¬Px} ` ∃xQx
f ) {Pa, Pa → Qb, Qb → ¬Pb} ` ¬a = b
g) {∀xPx, ∃xPx → a = b, Rabc} ` ∃x∃yRxxy
h) {∀x∀y(¬x = y ↔ Rxy), ∃x∀y(¬y = x → ¬y = y)} ` ¬Rab

2. ¿Considera que la regla Transitividad es prescindible? El argumento a favor es que se


puede obtener toda instancia de Transitividad usando Sustitución. ¿Le parece correcto?

3. En una derivación en deducción natural en LP, en cada línea solo se puede incluir
una cantidad finita de fórmulas como resultado de aplicar reglas a fórmulas o sub-
secuencias anteriores, si exceptuamos la regla I∨ , que nos permite intoducir infinitas
fórmulas diferentes. En las derivaciones en LPO, ¿qué reglas permiten introducir
infinitas fórmulas como resultado de aplicarlas a fórmulas o subsecuencias presentes
ya en la secuencia?

4. Suponga demostrado que estos infinitos conjuntos finitos son consistentes:


{Pc0 , ∃x¬Px}
{Pc0 , Pc1 , ∃x¬Px}
{Pc0 , Pc1 , Pc2 , ∃x¬Px}
..
.
Demuestre que eso implica que el conjunto infinito {∃x¬Px, Pc0 , Pc1 , Pc2 , . . .} es
consistente.

5. Suponga que S es una secuencia de fórmulas de LP en la que de un término en


adelante, todas las fórmulas se obtienen por aplicación de reglas de eliminación a
fórmulas anteriores. Demuestre que S es finita. ¿Vale lo mismo si S es una secuencia
de sentencias de LPO?

6. Sea el conjunto infinito cuyos elementos son las siguientes fórmulas:


Pc0
∀x∃y(Rxy ∧ ∀z(Rxz → z = y))
¬∃xRxc0
∀x∀y∀z((Rxz ∧ Ryz) → x = y)
13.7 Ejercicios 321

∀x∀y((Px ∧ Rxy) → Py)


∀x(x = c1 ↔ Rc0 x)
∀x(x = c2 ↔ Rc1 x)
∀x(x = c3 ↔ Rc2 x)
..
.
Muestre que hay una derivación a partir de ese conjunto de la fórmula Pcj , con j
cualquier numeral natural. ¿Cuántas líneas estima que tendrá esa derivación?

7. Sea k un número natural enorme, digamos, el de átomos del universo. Usted se


convenció en el ejercicio anterior de que hay una derivación a partir del conjunto de la
fórmula que se expresaría con Pck . Lo hizo a través de una inferencia. ¿Será posible
copiar los pasos de esa inferencia en el sistema de deducción natural para la lógica de
primer orden, o habrá aplicado usted procedimientos inferenciales que esta no puede
recoger?

8. Considere el siguiente argumento:


Quiero a todos quienes son queridos por cualquiera a quien yo quiera.
Yo no me quiero a mí mismo.
Nadie a quien yo quiero me quiere.
Mostrar su corrección formalizándolo y evaluando la existencia de la relación de
consecuencia sintáctica.

9. Idem con el siguiente argumento:


Juan solo se obedece a sí mismo.
Todos obedecen a Rodríguez.
Juan es Rodríguez.

10. Idem con el siguiente argumento:


Juan mira a Ana.
Ana mira a Pedro.
Juan tiene lentes.
Pedro no tiene lentes.
Hay alguien con lentes que mira a alguien que no tiene lentes.

11. Idem con el siguiente argumento:


Si uno ama a otro y este ama a un tercero, el primero ama al tercero.
Todos aman a alguien y nadie se ama a sí mismo.
Hay más de tres que son amados.
¿Hay una derivación que asegure la corrección del argumento en caso de que la
conclusión sea Hay más de j que son amados con j un natural arbitrario? ¿Cómo lo sabe?
IV
Metateoría

14 Introducción; . . . . . . . . . . . . . . . . . . . . . . . 325

15 Corrección; . . . . . . . . . . . . . . . . . . . . . . . . . 327
15.1 La demostración
15.2 Consecuencias de la corrección

16 Compacidad y completitud; . . . . . . . . . 337


16.1 Compacidad
16.2 Completitud de LP
16.3 En LPO

Epílogo: Lógica, ¿para qué?; . . . . . . . . . 355

Bibliografía; . . . . . . . . . . . . . . . . . . . . . . . . 366

Índice alfabético; . . . . . . . . . . . . . . . . . . . 371


14 | Introducción

emos descrito dos lógicas, la proposicional y la de primer orden, con un sistema

H de deducción natural para cada una. Las nociones centrales que hemos estudiado
son las de consecuencia semántica y consecuencia sintáctica. Ambas fueron introducidas
como correlato formal de una noción intuitiva, relacionada con la corrección o calidad
argumental, que puede nombrarse como consecuencia lógica.
No hemos prestado demasiada atención a un problema de enorme importancia: ¿Cuáles
son las relaciones entre la consecuencia semántica y la consecuencia sintáctica? Decimos
que la importancia del problema es muy grande porque por un lado, las dos nociones en
juego son las más importantes que hemos estudiado, y por otro, ambas fueron propuestas
como correlato formal de la misma noción informal.
Si se pudiera demostrar que hay casos de consecuencia semántica que no lo son de
consecuencia sintáctica o al revés, se debería sospechar que alguna de estas nociones
sobrerrepresenta o subrepresenta el concepto intuitivo de consecuencia lógica.
Si, por el contrario, se pudiera demostrar que todos los casos de consecuencia semántica
son casos de consecuencia sintáctica y recíprocamente, se estaría dando una cierta eviden-
cia a favor de que la noción intuitiva de consecuencia lógica ha sido bien representada
formalmente.
Tanto la consecuencia semántica como la sintáctica son conceptos formales, y por eso, la
tarea de responder a la pregunta de las relaciones que mantienen entre sí es asunto de la
propia lógica, una ciencia formal. Es este un aspecto interesante de la lógica, que comparte
con la matemática: los estudios de segundo orden caen bajo el campo de la propia disciplina,
del mismo modo que el estudio de los sistemas matemáticos es parte de la matemática. Esos
estudios de segundo orden representan la parte más jugosa de la lógica, la que se encuentra
en constante desarrollo en la actualidad, y eso es así desde el siglo pasado. La metateoría
es el estudio de los sistemas lógicos desde ese punto de vista que más allá de establecer
resultados en ellos, establece resultados generales sobre ellos.
Se podría considerar que este campo es el propio de un segundo curso de lógica para
estudiantes de filosofía. Ciertamente, así es. Pero dedicaremos esta última parte del curso
a presentar algunos resultados metateóricos centrales, que deberían ser conocidos por
cualquier estudiante de filosofía, con independencia de si estudia sus justificaciones en
detalle. Esos resultados estarán dedicados a esclarecer, como dijimos, las relaciones entre
los dos conceptos fundamentales que hemos estudiado, la consecuencia semántica y la
consecuencia sintáctica. Las preguntas centrales serán, entonces

¿Γ ` A implica Γ |= A?
326 Capítulo 14. Introducción

¿Γ |= A implica Γ ` A?

De las respuestas a esas preguntas dependen las respuestas a otras, como ¿Son todos los
teoremas fórmulas válidas y recíprocamente? ¿Los conjuntos insatisfacibles son los mismos
que los inconsistentes?
Intentar responderlas nos obliga a salir de los sistemas en que hemos venido trabajando
para establecer resultados sobre ellos. En este sentido, algo hemos avanzado: hemos estable-
cido teoremas sobre nuestros sistemas, como monotonía, deducción y absurdo. Esos tres
resultados valen tanto para la consecuencia semántica como para la sintáctica. Pero por
supuesto que eso no demuestra que ambas relaciones sean extensionalmente iguales, es
decir, que cada vez que se dé una se dará la otra y recíprocamente.
Consideremos lo que comportaría una respuesta negativa a la primera pregunta desta-
cada. En tal caso, existiría un conjunto Γ y una fórmula A tales que Γ ` A pero Γ 2 A. O
sea, nuestro sistema deductivo nos permitiría obtener, a partir de Γ , una fórmula que puede
ser falsa siendo verdaderas todas las fórmulas de Γ . Sería un resultado extremadamente
indeseable, especialmente si adherimos a la tónica vista en este curso, donde se sugiere que
las nociones semánticas tienen preeminencia sobre las sintácticas, de modo que estas deben
elegirse y disponerse en forma tal que reflejen y respeten aquellas. Si nos encontrásemos
en este caso, siempre desde esa tónica, estaríamos fuertemente inclinados a abandonar el
sistema formal, con la idea de sustituirlo por otro que solo extraiga, como consecuencias
sintácticas de un conjunto, fórmulas que sean consecuencias semánticas de ese conjunto.
Definición 14.0.1 — Sistema correcto.
Un sistema deductivo en el que si Γ ` A entonces Γ |= A para todo Γ y A se dice correcto.

Nuestra tarea en el primer capítulo de esta parte será demostrar la corrección del sistema
de deducción natural para la lógica de primer orden, demostración que servirá también
para la lógica proposicional.
Consideremos ahora lo que comportaría una respuesta negativa a la segunda pregunta.
Si ese fuese el caso, existiría un conjunto Γ y una fórmula A tales que Γ |= A pero Γ 0 A.
Esto indicaría que nuestro sistema no tiene la potencia suficiente como para permitirnos
obtener, a partir de Γ , toda fórmula que sea verdadera si las de ese conjunto lo son. No
parece una falla tan grave como la no corrección, pero nos impulsaría, quizá, a fortalecer
nuestro sistema con nuevas reglas de modo de poder capturar mediante las consecuencias
sintácticas de un conjunto todo lo que es consecuencia semántica de él.
Definición 14.0.2 — Sistema completo.
Un sistema deductivo en el que si Γ |= A entonces Γ ` A para todo Γ y A se dice
completo.

En el segundo capítulo de esta parte, luego de considerar con especial cuidado si


la finitud de las derivaciones impone constricciones demasiado fuertes a la consecuencia
sintáctica, demostraremos la completitud de la deducción natural para la lógica proposicional
y consideraremos la cuestión para la lógica de primer orden.
15 | Corrección

omo hemos dicho, en este capítulo demostraremos la corrección del sistema de de-

C ducción natural para la lógica de primer orden, un resultado central y absolutamente


deseable. Si no se cumpliera, el propósito que teníamos al elegir reglas de inferencia
para la deducción natural que respetaran la consecuencia semántica se vería totalmente
traicionado. Es decir, debemos demostrar
Teorema 15.0.1 — Corrección.
Si Γ ` A entonces Γ |= A para todo conjunto de sentencias Γ y para toda sentencia A de
LPO.

Llamemos correcta a una derivación de A a partir de Γ si A y Γ son tales que Γ |= A.


Lo que queremos demostrar entonces, es que todas las derivaciones en nuestro sistema
son correctas. Lo haremos por inducción en la longitud de las derivaciones, midiendo esa
longitud mediante el número de líneas que tienen. Es decir, mostraremos dos cosas:

1. Todas las derivaciones de longitud 1 son correctas.


2. Si todas las derivaciones de longitud n o menos son correctas, entonces todas las
derivaciones de longitud n + 1 son correctas.

Si logramos demostrar esos dos puntos, habremos conseguido nuestro objetivo, porque por
1 las derivaciones de longitud 1 son correctas, y dado eso y 2, las de longitud 2 son correctas,
y dado eso y 2, las de longitud 3 son correctas, etc.

15.1 La demostración
Comencemos entonces demostrando el punto 1.
Supongamos que Γ ` A y hay una derivación de longitud 1 de A a partir de Γ . Esa
derivación solo puede tener la forma (mostrada en diagrama de Fitch)

1 A

Esto significa que A es una premisa, o sea, que A es un elemento de Γ . Por tanto, Γ |= A
y queda demostrado que todas las derivaciones de longitud 1 son correctas.
Pasemos ahora a demostrar el punto 2. Para hacerlo, debemos recordar que en una
derivación, debido a la existencia de supuestos, una sentencia que se encuentra en una
línea cualquiera j no es, en general, consecuencia sintáctica del conjunto de partida Γ , sino
328 Capítulo 15. Corrección

que es consecuencia sintáctica de Γ ∪ ∆, siendo ∆ el conjunto de los supuestos abiertos que


están en las líneas entre 1 y j inclusive. Recordado eso, supongamos que toda sentencia
X que se obtiene a partir de Γ por una derivación de n líneas o menos es tal que Γ |= X,
y consideremos una derivación de A a partir de Γ de n + 1 líneas. Nos preguntamos qué
justifica la aparición de A como fórmula final en la derivación, y vemos que tenemos solo
las siguientes posibilidades (descartamos que A se haya introducido en la línea n + 1 como
un supuesto, porque en ese caso no estamos frente a una derivación de A a partir de Γ ,
debido a que las derivaciones tienen todos los supuestos cerrados):

1. A aparece en la línea n + 1 como premisa.


2. A aparece en la línea n + 1 como resultado de aplicar Reflexión.
3. A aparece en la línea n + 1 como resultado de aplicar Simetría.
4. A aparece en la línea n + 1 como resultado de aplicar Transitividad.
5. A aparece en la línea n + 1 como resultado de aplicar Sustitución.
6. A aparece en la línea n + 1 como resultado de aplicar I∧ .
7. A aparece en la línea n + 1 como resultado de aplicar E∧ .
8. A aparece en la línea n + 1 como resultado de aplicar I∨ .
9. A aparece en la línea n + 1 como resultado de aplicar E∨ .
10. A aparece en la línea n + 1 como resultado de aplicar I→ .
11. A aparece en la línea n + 1 como resultado de aplicar E→ .
12. A aparece en la línea n + 1 como resultado de aplicar I↔ .
13. A aparece en la línea n + 1 como resultado de aplicar E↔ .
14. A aparece en la línea n + 1 como resultado de aplicar I¬ .
15. A aparece en la línea n + 1 como resultado de aplicar E¬ .
16. A aparece en la línea n + 1 como resultado de aplicar I∀ .
17. A aparece en la línea n + 1 como resultado de aplicar E∀ .
18. A aparece en la línea n + 1 como resultado de aplicar I∃ .
19. A aparece en la línea n + 1 como resultado de aplicar E∃ .

Debemos mostrar que en todos esos casos se tiene Γ |= A.

1. A aparece en la línea n + 1 como premisa.

En este caso es trivial que Γ |= A, ya que A es un elemento de Γ .

2. A aparece en la línea n + 1 como resultado de aplicar Reflexión.

En este caso A es de la forma ci = ci , o sea, una fórmula válida. Por lo tanto, es consecuencia
semántica de todo conjunto y en particular de Γ .

3. A aparece en la línea n + 1 como resultado de aplicar Simetría.


15.1 La demostración 329

En este caso A es de la forma cj = ci y la derivación es así:

0 Γ
.. ..
. .

h ci = cj
.. ..
. .

n+1 cj = ci Simetría, h

Como la regla Simetría no cancela supuestos y la línea final se justifica mediante la línea
h, esta última no se encuentra bajo un supuesto cancelado. Por lo tanto, se tiene que hay
una derivación de h líneas que obtiene ci = cj a partir de Γ , y h 6 n. Por hipótesis, tenemos
Γ |= ci = cj . O sea, toda interpretación que es modelo de Γ asigna la misma denotación a las
constantes ci y cj , por lo que Γ |= cj = ci .

4. A aparece en la línea n + 1 como resultado de aplicar Transitividad.

En este caso A es de la forma ci = ck y la derivación es así:

0 Γ
.. ..
. .

h ci = cj
.. ..
. .

l cj = ck
.. ..
. .

n+1 ci = ck Transitividad, h, l

Como la regla Transitividad no cancela supuestos y la línea final se justifica mediante


las líneas h y l, estas últimas no se encuentran bajo supuestos cancelados. Por lo tanto, se
tiene que hay una derivación de h líneas que obtiene ci = cj a partir de Γ , y una derivación
de l líneas que obtiene cj = ck a partir de Γ . Además, h 6 n y l 6 n. Por hipótesis, tenemos
Γ |= ci = cj y Γ |= cj = ck . O sea, toda interpretación que es modelo de Γ asigna la misma
denotación a las constantes ci y cj , y la misma denotación a las constantes cj y ck , por lo
que asigna la misma denotación a las constantes ci y ck , con lo que tenemos Γ |= ci = ck .

5. A aparece en la línea n + 1 como resultado de aplicar Sustitución.


330 Capítulo 15. Corrección

En este caso, A es de la forma F(ci L99 cj ) y la derivación es así:

0 Γ
.. ..
. .

h ci = cj
.. ..
. .

l F(ci )
.. ..
. .

n+1 F(ci L99 cj ) Sustitución, h, l

Como la regla Sustitución no cancela supuestos y la línea final se justifica mediante las
líneas h y l, estas últimas no se encuentran bajo supuestos cancelados. Por lo tanto, se tiene
que hay una derivación de h líneas que obtiene ci = cj a partir de Γ , y una derivación de
l líneas que obtiene F(ci ) a partir de Γ . Además, h 6 n y l 6 n. Por hipótesis, tenemos
Γ |= ci = cj y Γ |= F(ci ). O sea, toda interpretación que es modelo de Γ asigna la misma
denotación a las constantes ci y cj , y además es modelo de F(ci ). Debemos demostrar que
una tal interpretación es también modelo de F(ci L99 cj ), donde esta última sentencia es el
resultado de sustituir algunas de las ocurrencias de ci en F(ci ) por cj .
Haremos esta demostración también por inducción, esta vez sobre la complejidad de
la fórmula F(ci ), demostrando que en todos los casos, Γ |= ci = cj y Γ |= F(ci ) implica
Γ |= F(ci " cj ), donde F(ci " cj ) es el resultado de sustituir una única ocurrencia de ci por
cj en F(ci ). El resultado deseado, para F(ci L99 cj ) se obtiene por aplicación repetida de una
única sustitución.
Comenzamos considerando el caso en que F(ci ) una sentencia atómica:
(a) F(ci ) es de la forma Rn n
l ck1 . . . ci . . . ckn , y F(ci " cj ) es Rl ck1 . . . cj . . . ckn .
Sea M un modelo de Γ . Como Γ |= ci = cj , cM M
i = cj y como Γ |= Rl ck1 . . . ci . . . ckn ,
n

MM M M M M M M
Rn n
l ck1 . . . ci . . . ckn , por lo que también Rl ck1 . . . cj . . . ckn , lo que demuestra que
Γ |= F(ci " cj ).
(b) F(ci ) es de la forma ci = ck , y F(ci " cj ) es cj = ck . Sea M un modelo de Γ . Como
Γ |= ci = cj , cM M M M M M
i = cj y como Γ |= ci = ck , ci = ck , por lo que cj = ck , lo que
demuestra que Γ |= F(ci " cj ).
Esto muestra que Γ |= ci = cj y Γ |= F(ci ) implica Γ |= F(ci " cj ) siempre que F(ci ) sea una
fórmula atómica.
Consideremos ahora el caso de fórmulas no atómicas. Nuestra hipótesis será que toda
interpretación que sea modelo de una fórmula Z(ci ) con n conectivos lógicos o menos1 , y
también sea modelo de ci = cj , será modelo de Z(ci " cj ). Eso está probado para fórmulas
atómicas, e implica en general que si Γ |= Z(ci ), Γ |= ci = cj se cumplirá Γ |= Z(ci " cj )
(para fórmulas con n conectivos o menos). Comencemos con las fórmulas cuantificadas y
negadas:
1 Los cuantificadores se consideran conectivos.
15.1 La demostración 331

(a) F(ci ) es de la forma ∀xA(x, ci ), con n + 1 conectivos lógicos. Suponemos Γ |=


∀xA(x, ci ), Γ |= ci = cj , y debemos mostrar Γ |= ∀xA(x, ci " cj ).
Sea M un modelo de Γ . Como Γ |= ∀xA(x, ci ), para toda constante ck , M+ (A(ck , ci )) =
V, o sea Γ |= A(ck , ci ) para toda constante ck . Como A(ck , ci ) tiene n conectivos
lógicos, por hipótesis, se cumple Γ |= A(ck , ci " cj ) para toda constante ck , lo que
implica Γ |= ∀xA(x, ci " cj ), que es lo que queríamos demostrar.
(b) F(ci ) es de la forma ∃xA(x, ci ), con n + 1 conectivos lógicos. Suponemos Γ |=
∃xA(x, ci ), Γ |= ci = cj , y debemos mostrar Γ |= ∃xA(x, ci " cj ). La demostra-
ción es análoga a la anterior y queda como ejercicio.
(c) F(ci ) es de la forma ¬A(ci ), con n + 1 conectivos lógicos. Suponemos Γ |= ¬A(ci ),
Γ |= ci = cj , y debemos mostrar Γ |= ¬A(ci " cj ).
Sea M un modelo de Γ . Como Γ |= ¬A(ci ), tenemos que M(A(ci )) = F. Mostraremos
que también tiene que ser M(A(ci " cj )) = F. Si fuera M(A(ci " cj )) = V, por
hipótesis, y dado que A tiene n conectivos lógicos, tendríamos que M(A(cj " ci )) = V,
lo que implicaría que M(¬A(cj " ci )) = F, con lo que Γ 2 ¬A(ci ). Por lo tanto es
M(A(ci " cj )) = F para todo modelo de Γ , lo que demuestra que Γ |= ¬A(ci " cj ).

Finalmente, veamos el caso de las fórmulas cuyo conectivo principal es binario.

Conjunción: F(ci ) es de la forma A(ci ) ∧ B, con n + 1 conectivos lógicos2 . Suponemos


Γ |= A(ci ) ∧ B, Γ |= ci = cj , y debemos mostrar Γ |= A(ci " cj ) ∧ B. Este caso es
trivial porque al tener A(ci ) no más de n conectivos lógicos y darse Γ |= A(ci ), se
tiene por hipótesis que Γ |= A(ci " cj ) y por lo tanto, teniendo también Γ |= B, resulta
Γ |= A(ci " cj ) ∧ B
Los casos de los restantes conectivos binarios son análogos.

Esto termina el estudio del caso de una última línea justificada por Sustitución.

6. A aparece en la línea n + 1 como resultado de aplicar I∧ .

En este caso A es de la forma B ∧ C y la derivación es así:

0 Γ
.. ..
. .

h B
.. ..
. .

k C
.. ..
. .

n+1 B∧C I∧ , h, k

2 Obviamente, si la ocurrencia de c que se sustituye está en el segundo conyunto, hay un argumento idéntico
i
a este que demuestra lo requerido.
332 Capítulo 15. Corrección

Como la regla I∧ no cancela supuestos y la línea final se justifica mediante las líneas
h y l, estas últimas no se encuentran bajo supuestos. Por lo tanto, se tiene que hay una
derivación de h líneas que obtiene B a partir de Γ , y una derivación de k líneas que obtiene
C a partir de Γ . Además, h 6 n y k 6 n. Por hipótesis, tenemos Γ |= B y Γ |= C, de donde
trivialmente surge que Γ |= B ∧ C.
Los restantes casos donde no aparecen supuestos ni la última fórmula es cuantificada
son similares. Demostraremos entonces los casos con supuestos y cuantificados. Todos los
demás quedan como ejercicio para el lector.

9. A aparece en la línea n + 1 como resultado de aplicar E∨ .

En este caso la derivación es así:

0 Γ
.. ..
. .

i B∨C
.. ..
. .

j B
.. ..
. .

k A
.. ..
. .

l C
.. ..
. .

m A
.. ..
. .

n+1 A E∨ , i, j–k, l–m

La línea final cancela solamente los supuestos de las líneas j y l, de modo que las
subderivaciones j − k y l − m no se encuentran bajo supuestos. Por lo tanto, tenemos

Γ ` B∨C
Γ, B ` A
Γ, C ` A

y todas estas consecuencias sintácticas a través de derivaciones de n líneas o menos. Por


hipótesis, Γ |= B ∨ C; Γ , B |= A y Γ , C |= A. En estas condiciones es claro que Γ |= A.

10. A aparece en la línea n + 1 como resultado de aplicar I→ .


15.1 La demostración 333

En este caso A es de la forma B → C y la derivación es así:

0 Γ
.. ..
. .

i B
.. ..
. .

j C
.. ..
. .

n+1 B→C I→ , i–j

La línea final cancela únicamente el supuesto de la línea i, por lo que la subderivación


i − j no se encuentra bajo otros supuestos. Tenemos entonces Γ , B ` C a través de una
derivación de n líneas o menos. Por hipótesis, Γ , B |= C, y el teorema de deducción implica
que Γ |= B → C.

10. A aparece en la línea n + 1 como resultado de aplicar I¬ .

En este caso A es de la forma ¬B y la derivación es así:

0 Γ
.. ..
. .

i B
.. ..
. .

j C ∧ ¬C
.. ..
. .

n+1 ¬B I¬ , i–j

La línea final cancela únicamente el supuesto de la línea i, por lo que la subderivación


i − j no se encuentra bajo otros supuestos. Tenemos entonces Γ , B ` C ∧ ¬C a través de
una derivación de n líneas o menos, de modo que por hipótesis Γ , B es insatisfacible. Por
esto, todo modelo de Γ es contramodelo de B y por tanto, modelo de ¬B. Se concluye que
Γ |= ¬B.

10. A aparece en la línea n + 1 como resultado de aplicar I∀ .

En este caso A es de la forma ∀xB(x) y la derivación es así:


334 Capítulo 15. Corrección

0 Γ
.. ..
. .

i B(a)
.. ..
. .

n+1 ∀xB(x) I∀ , i

en la que a no aparece en las premisas ni en supuestos abiertos. Como la última línea


se obtiene a través de una regla que no cancela supuestos, B(a) no puede depender de
supuestos y por lo tanto tenemos Γ ` B(a) a través de una derivación de n líneas o menos,
por lo que según nuestra hipótesis, Γ |= B(a), donde a no aparece en ninguna fórmula de Γ
que se utilice en la derivación como premisa. Debemos demostrar que en estas condiciones
se cumple Γ |= ∀xB(x). Lo haremos por contrarrecíproco. Supongamos que se cumple
Γ 2 ∀xB(x), o sea que existe una interpretación M que es modelo de todas las fórmulas de Γ
y M(∀xB(x)) = F. Esto nos indica que hay una constante c tal que M+ (B(c)) = F. A partir
de M construyamos una nueva interpretación N de la siguiente manera: N tiene el mismo
dominio que M, y las denotaciones de los símbolos no lógicos son exactamente las mismas
que las que asigna M, con la única excepción de que aN = cM . Como solo hemos cambiado
+

el individuo asignado a a y esta constante no aparece en las fórmulas de Γ , se tiene que bajo
esta nueva interpretación todas las fórmulas de Γ tienen el mismo valor de verdad que bajo
M, o sea V. Pero como a está asignado al elemento cM será N(B(a)) = M+ (B(c)) = F (ya
+

que a no aparece en B(x)), contradiciendo Γ |= B(a). Esto demuestra Γ |= ∀xB(x).


Los casos en que la última línea aparece como aplicación de E∀ o I∃ son muy sencillos y
se dejan como ejercicio. Veamos el último caso posible:
19. A aparece en la línea n + 1 como resultado de aplicar E∃ .
En este caso la derivación tiene la forma:

0 Γ
.. ..
. .

i ∃xB(x)
.. ..
. .

j B(a)
.. ..
. .

k C
.. ..
. .

n+1 C E∃ , i, j–k
15.2 Consecuencias de la corrección 335

con la constante a ausente de las premisas, de B(x) y de C.


La última línea cierra el supuesto de la línea j, que se extiende hasta la línea k. Tenemos,
por lo tanto, Γ ` ∃xB(x) y Γ , B(a) ` C a través de derivaciones de n líneas o menos. De
acuerdo a nuestra hipótesis, tenemos Γ |= ∃xB(x) y Γ , B(a) |= C, con a ausente de Γ , de B(x)
y de C. Debemos demostrar que en esas condiciones se tiene Γ |= C.
Sea M un modelo de Γ . Entonces:
1. Si M(B(a)) = V, como Γ , B(a) |= C se tendrá M(C) = V
2. Si M(B(a)) = F, supongamos M(C) = F y llegaremos a una contradicción:
Como Γ |= ∃xB(x), existe una constante c para la que M+ (B(c)) = V. Consideremos la
interpretación N con el mismo dominio que M y que asigna las mismas denotaciones
a los símbolos no lógicos, excepto que aN = cM , por lo que N(B(a)) = V (ya que las
+

denotaciones de los símbolos no lógicos, excepto a, son las mismas que en M, y a no


aparece en B(x)). Como la constante a no aparece en las fórmulas de Γ , sus valores de
verdad bajo N son los mismos que bajo M o sea, V; como la constante a no aparece en
C, su valor de verdad bajo N es el mismo que bajo M, o sea F. Como la interpretación
N es modelo de Γ , B(a) y contramodelo de C, esto contradice Γ , B(a) |= C.
Por lo tanto, M(C) = V.
Con esto hemos demostrado uno de los teoremas centrales de nuestras lógicas, la
corrección del sistema de deducción natural para LPO. Es claro que de esta demostración
surge el

Corolario 15.1.1 El sistema de deducción natural para LP es correcto.

15.2 Consecuencias de la corrección


Demostrar la corrección de un sistema cualquiera en el que se ha definido una relación
de consecuencia semántica y una de consecuencia sintáctica es fundamental. Los sistemas
incorrectos, al menos para propósitos lógicos, divorcian tan fuertemente las nociones de
“verdadero” y de “demostrable” que ponen en riesgo su razón de ser, ya que lo demostrable
se busca por su valor cognitivo, y tradicionalmente el estado epistémico superior es el
conocimiento, asociado a la verdad. Por supuesto que este último punto es filosóficamente
discutible, pero aunque así sea, es muy difícil argumentar a favor de los méritos de sistemas
incorrectos.
En nuestro caso, la búsqueda de la corrección era incipiente en la propia formulación de
las reglas, que aunque estaban destinadas a ser puramente sintácticas, fueron elegidas de
acuerdo a criterios semánticos. La demostración que acabamos de hacer muestra que no
cometimos inadvertidamente algún error al elegirlas.
El teorema tiene algunas consecuencias inmediatas:

Corolario 15.2.1 Si τ es un teorema entonces τ es una fórmula válida (tautología en la


lógica proposicional).

Supongamos que Γ ` (A ∧ ¬A), o sea, Γ es inconsistente. Por corrección, Γ |= (A ∧ ¬A),


lo que ocurre si y solo si Γ es insatisfacible. Por lo tanto:
336 Capítulo 15. Corrección

Corolario 15.2.2 Si un conjunto Γ es inconsistente, entonces es insatisfacible. .

lo que implica a su vez que de un conjunto satisfacible es imposible derivar una contradic-
ción.
En el próximo capítulo consideraremos la cuestión recíproca, de si la existencia de la
relación de consecuencia semántica entre Γ y A asegura que exista una derivación de A a
partir de Γ .
16 | Compacidad y completitud

n este capítulo intentaremos responder preguntas que surgen muy naturalmente

E de lo que hemos visto, como ¿Existen fórmulas válidas (o tautologías) que no son
teoremas? ¿Existen conjuntos consistentes insatisfacibles? Y, en general, ¿Siempre
que Γ |= A se tendrá Γ ` A? Como se dijo en la introducción a esta parte, una respuesta
negativa a esta última pregunta, o sea, la corroboración de la incompletitud de los sistemas,
no parece conllevar los efectos catastróficos que tendría la incorrección. Pero sí marcaría una
limitación importante: sencillamente, habría relaciones de consecuencia lógica (entendida
como consecuencia semántica) más allá de las capacidades de demostración que nos hemos
dado. Si nos viésemos en ese caso, podrían suceder dos cosas: la completitud podría
alcanzarse agregando reglas al sistema, o la completitud no sería alcanzable por este camino,
y deberíamos resignarnos a la existencia de una brecha entre lo verdadero y lo demostrable.
El punto merece una consideración especial. Estamos acostumbrados a pensar que lo
verdadero y lo demostrable no siempre coinciden. Es por eso que no todos los culpables
de un delito son condenados, aunque sean acusados. Y ningún lector de este libro cree
que la proposición Mi primer paso fue dado con la pierna derecha sea demostrable, aunque
claramente para muchas personas eso es verdadero. Pero nuestro caso es diferente, no se
trata de cuestiones fácticas, sino formales. Si nuestro sistema fuese incompleto, sabríamos
de la existencia de proposiciones verdaderas debido a su forma y la de otras, sabidas
verdaderas, pero tales que esa verdad escaparía a nuestras posibilidades de evidenciarla
si nos restringimos a nuestro aparato deductivo. Considerar que la brecha se puede saltar
agregando reglas nos pone en una tensión importante, debido a que el hipotético agregado
de reglas debería hacerse cuidando siempre de mantener la corrección. Si resultara que
nuestro sistema es incompleto y el “remedio” que proponemos es incluir la regla de
inferencia (que llamaremos “Completadora”)

Regla Completadora
A
A∧B
por supuesto que obtendríamos mágicamente un sistema completo, ya que toda fórmula
será consecuencia sintáctica de todo conjunto (demuéstrelo el lector). Pero obviamente, se
habrá perdido la corrección.
Ahora bien, ¿tenemos razones para creer que nuestros sistemas son completos? Tal vez
el lector no sepa qué responder. ¿Y tenemos razones para sospechar que no son completos?
Quizá esta pregunta sea tan difícil como la anterior. Veamos lo siguiente: Considere el
conjunto infinito Γ de proposiciones etiquetadas:
338 Capítulo 16. Compacidad y completitud

Lenguaje natural Traducción a LPO


1 Existe al menos un objeto natural ∃xNx
2 Existen al menos dos objetos naturales ∃x∃y(¬x = y ∧ Nx ∧ Ny)
.. .. ..
. . .
ω El conjunto de los objetos naturales es finito ¿?
Lo que así representamos contiene un conjunto de infinitas proposiciones, cada una
etiquetada con un número natural. La j-ésima proposición expresa que hay al menos j objetos
naturales. A este conjunto le agregamos una proposición que etiquetamos con la última letra
del alfabeto griego, la que expresa que la cantidad de objetos naturales es finita. Dejemos
de lado por el momento el hecho de que no hemos traducido la proposición etiquetada
como ω a LPO atribuyéndolo a nuestra falta de habilidad para hacerlo, y supongamos que
tenemos una adecuada traducción de ella.
Ese conjunto de proposiciones es insatisfacible. Esto es así porque un modelo de la
proposición etiquetada como ω necesariamente hará que la denotación del predicado N
sea un conjunto finito, que tendrá por tanto una cantidad finita de elementos, digamos k.
Pero entonces ese modelo de ω será contramodelo de las proposiciones etiquetadas con
los naturales mayores o iguales a k + 1, que exigen a sus modelos que la denotación del
predicado N sea un conjunto con más de k elementos.
Ahora bien, este conjunto de proposiciones es consistente. La razón para ello es la
siguiente: Supongamos que fuera inconsistente. Entonces habría una derivación de una
contradicción a partir del conjunto Γ . Pero las derivaciones son secuencias finitas de fórmulas,
de modo que en esa derivación habría una cantidad finita de premisas tomadas del conjunto.
De ese subconjunto finito de premisas se derivaría la contradicción, o sea, si el conjunto
es inconsistente, tiene un subconjunto finito inconsistente. Y por el corolario 15.2.2, ese
subconjunto finito de proposiciones de Γ debe ser insatisfacible. Pero es muy fácil ver
que todos los subconjuntos finitos de Γ son satisfacibles. Dado cualquier subconjunto finito Γ0
de proposiciones de Γ , para encontrar un modelo de él, en el caso de que Γ0 no tenga
proposiciones etiquetadas con un número natural, tome cualquier conjunto como dominio,
y asigne como denotación del predicado N el conjunto vacío. Si Γ0 contiene proposiciones
etiquetadas con números naturales, considere la proposición de las etiquetadas con números
naturales en Γ0 que tenga la etiqueta mayor (siempre habrá una, porque se está tomando un
subconjunto finito de proposiciones), y tome como modelo cualquier conjunto con tantos
elementos como el número de la etiqueta mayor, asignando como denotación del predicado
N todo el conjunto. Sin importar si la proposición ω está o no en Γ0 , esa interpretación será
modelo de Γ0
Observe lo que esto implica: como el conjunto Γ es insatisfacible, tiene como consecuencia
semántica a una contradicción. Pero como es consistente, no tiene como consecuencia
sintáctica a una contradicción. ¿Hemos demostrado que nuestro sistema para LPO es
incompleto?

16.1 Compacidad
Dilatemos un poco la respuesta a esta última pregunta, y consideremos otro aspecto
que surge de este ejemplo tan extraño que acabamos de examinar. Está muy claro que la
16.1 Compacidad 339

“mostración” de que no hay coincidencia entre la relaciones de consecuencia semántica y


consecuencia sintáctica se apoyó en forma absoluta en el hecho de que el conjunto Γ es
infinito y las derivaciones son objetos finitos, que contienen una cantidad finita de fórmulas.
Lo que está sucediendo en este caso es que tenemos un conjunto con esta extraña
propiedad: es insatisfacible pero todos sus subconjuntos finitos son satisfacibles. Al suceder eso,
es claro que hay una consecuencia semántica del conjunto que no lo es de ninguno de sus
subconjuntos finitos. Una lógica que permita expresar todas las proposiciones del conjunto Γ
considerado cumplirá que en ella existirán conjuntos con esa propiedad. Hay una definición
técnica relativa a la cuestión:
Definición 16.1.1 — Consecuencia semántica compacta.
Una relación de consecuencia semántica |= es compacta si para todo Γ y A tales que
Γ |= A existe Γ0 , subconjunto finito de Γ tal que Γ0 |= A.

O sea, si la relación de consecuencia es compacta, nada es consecuencia de infinitas


premisas sin serlo a la vez de una cantidad finita de esas premisas. Además tenemos el
siguiente

Teorema 16.1.1 Una relación de consecuencia semántica es compacta si y solo si todo


conjunto insatisfacible tiene un subconjunto finito insatisfacible.

demostración: Supongamos que |= es compacta, y sea Γ insatisfacible. Γ tiene como


consecuencia semántica a una fórmula que no tiene modelos, y la compacidad de |= obliga
a que exista un subconjunto finito de Γ que tenga esa misma fórmula por consecuencia, de
modo que ese subconjunto finito es insatisfacible.
Supongamos ahora que todos los conjuntos insatisfacibles tienen un subconjunto finito
insatisfacible, y que Γ |= A. Debemos mostrar que hay un Γ0 , subconjunto finito de Γ , tal
que Γ0 |= A. Como Γ |= A, el conjunto Γ , ¬A es insatisfacible, y tiene un subconjunto finito
insatisfacible. Sea Γ0 el conjunto de fórmulas de Γ de ese subconjunto. Entonces Γ0 , ¬A es
insatisfacible, con lo que Γ0 |= A.
Lo primero que haremos será demostrar que la consecuencia semántica para LP es
compacta.

Compacidad de LP
La idea de la demostración es bastante simple. Lo que debemos mostrar es que cualquier
conjunto Γ de fórmulas de LP tal que todos sus subconjuntos finitos son satisfacibles, es
satisfacible. Lo haremos suponiendo que tenemos un conjunto Γ con esa característica de
que todos sus subconjuntos finitos son satisfacibles, y mostrando que hay un conjunto ∆
que es satisfacible e incluye a Γ . Como todos los subconjuntos de un conjunto satisfacible
son satisfacibles, el teorema quedaría demostrado al evidenciar el conjunto ∆.
Para hacerlo, necesitamos un lema, que nos asegurará que ciertos conjuntos son satis-
facibles. Esos conjuntos serán llamados conjuntos de Hintikka1 . El plan de la demostración
será entonces definir lo que es un conjunto de Hintikka, mostrar que todos los conjuntos de
1 Por Jaako Hintikka, fallecido en 2015, uno de los grandes filósofos contemporáneos. Sus aportaciones a la

lógica fueron inmensas, y fue un profundo conocedor de la obra de Aristóteles, Kant y Wittgenstein.
340 Capítulo 16. Compacidad y completitud

Hintikka son satisfacibles, y finalmente mostrar que, dado un conjunto Γ tal que todos sus
subconjuntos finitos son satisfacibles, existe un conjunto ∆ de Hintikka que incluye a Γ .
Para que se comprenda la idea de la demostración cabalmente, necesitamos motivar la
definición que daremos, y eso será nuestro próximo cometido.

Fórmulas de tipo A y fórmulas de tipo B


advertencia importante; en todo lo que sigue, se hará caso omiso del bicondi-
cional. se tratará una fórmula de la forma A ↔ B como (A → B) ∧ (B → A), lo
que es semánticamente adecuado ya que son fórmulas equivalentes, y desde el
punto de vista sintáctico se puede obtener la primera a partir de la segunda y
recíprocamente.

Observe que todas las fórmulas de la lógica proposicional tienen alguna de las siguientes
formas:
– – A1 A2 A3 A4 B1 B2 B3
pn ¬pn ¬¬X X∧Y ¬(X ∨ Y) ¬(X → Y) ¬(X ∧ Y) X∨Y X→Y

En la tabla se observa que, excluyendo las letras proposicionales y las letras proposi-
cionales negadas, toda fórmula de LP se ha clasificado como de una forma A o de una
forma B. Tenemos cuatro formas de tipo A que se subindizan con los numerales del 1 al 4.
El punto de esta clasificación es el siguiente: cualquier interpretación que haga verdadera
una fórmula de tipo A, hará verdaderas una o dos fórmulas según la tabla siguiente, en la
que, bajo la fórmula de tipo A considerada, se muestran las que deben ser verdaderas si la
primera lo es:

Forma A1 Forma A2 Forma A3 Forma A4


¬¬X X∧Y ¬(X ∨ Y) ¬(X → Y)
X X ¬X X
Y ¬Y ¬Y

Como es muy sencillo comprobar, todas las fórmulas que se encuentran bajo la barra
están implicadas por la que se encuentra arriba de ella, y la complejidad de las fórmulas
bajo la barra es menor que la de la fórmula original, medida según la cantidad de conectivos
lógicos. Además la condición es recíproca: si la o las fórmulas que se encuentran bajo la
barra son verdaderas en una interpretación, la fórmula que se encuentra sobre ella también
lo será.
Con respecto a las fórmulas que hemos clasificado como de tipo B no podemos decir
lo mismo. El hecho de que una interpretación las haga verdaderas no implica que otras
fórmulas más simples que ellas lo serán. Pero sí implica que al menos una de entre dos fórmulas
será verdadera bajo esa interpretación. Esto se muestra en la tabla siguiente

Forma B1 Forma B2 Forma B3


¬(X ∧ Y) X∨Y X→Y
¬X | ¬Y X|Y ¬X | Y
16.1 Compacidad 341

donde bajo la barra horizontal se muestran, separadas por una barra vertical, las dos
fórmulas de las cuales al menos una será verdadera en todo modelo de la fórmula original,
y que son menos complejas sintácticamente que esta. Nuevamente, la condición es recíproca:
si al menos una de las fórmulas separadas por la barra vertical es verdadera bajo una
interpretación, también lo será la fórmula que se encuentra sobre la barra horizontal.
Resumiendo e introduciendo algunos términos útiles:

toda fórmula F de LP que no es una letra proposicional o una letra proposi-


cional negada es o bien de tipo A o bien de tipo B, y en el primer caso se pueden
encontrar dos fórmulas α1 y α2 a , y en el segundo dos fórmulas β1 y β2 tales que:

1. α1 y α2 (β1 y β2 ) son menos complejas que F (midiendo la complejidad por la


cantidad de conectivos lógicos).
2. F de tipo A, es verdadera bajo una interpretación si y solo si α1 y α2 lo son,
y F de tipo B es verdadera bajo una interpretación si y solo si al menos una
de entre β1 y β2 lo es.

a en el caso de que F = ¬¬X, consideramos α1 = α2 = X, por uniformidad.

Con esto estamos en condiciones de definir los conjuntos de Hintikka, que serán la pieza
fundamental de nuestra demostración de la compacidad de LP.

Conjuntos de Hintikka

Definición 16.1.2 — Conjunto de Hintikka.

Sea ∆ un conjunto de fórmulas de LP. ∆ es un conjunto de Hintikka si y solo si se


cumple:

1. Para ninguna letra proposicional p, tanto p como ¬p son elementos de ∆.


2. Si F es de tipo A y es elemento de ∆, entonces tanto α1 como α2 son elementos de
∆.
3. Si F es de tipo B y es elemento de ∆, entonces al menos una de β1 y β2 es elemento
de ∆.

Como advertimos, el centro de todo este desarrollo está dado por el siguiente
Lema 16.1.2 — Lema de Hintikka. Todo conjunto de Hintikka es satisfacible.
demostración: Sea ∆ un conjunto de Hintikka y sea I una interpretación tal que I(p) = V
si la letra proposicional p es elemento de ∆, e I(p) = F si la fórmula ¬p es elemento de ∆,
y asigna V a todas las otras letras proposicionales, aquellas que no son elementos de ∆ ni
su negación lo es. Es claro que I hace verdaderas a todas las fórmulas de ∆ que no son de
tipo A ni B. Supongamos que F es una fórmula de tipo A o tipo B, y que todas las fórmulas
de grado menor de complejidad que F son verdaderas bajo I. Si es de tipo A, como ∆ es de
Hintikka, α1 y α2 están en ∆, y al ser de complejidad menor que F son ambas verdaderas
bajo I, por lo que F es verdadera bajo I. Si es de tipo B, como ∆ es de Hintikka, al menos
342 Capítulo 16. Compacidad y completitud

una de entre β1 y β2 está en ∆, y al ser de complejidad menor que F es verdadera bajo I,


por lo que F es verdadera bajo I. Por lo tanto, I es modelo de ∆ y ∆ es satisfacible.

El teorema de compacidad
Finalmente estamos en condiciones de demostrar el
Teorema 16.1.3 — Compacidad para la lógica proposicional.
Sea Γ un conjunto de fórmulas de LP tal que todo subconjunto finito de Γ es satisfacible.
Entonces Γ es satisfacible.

demostración: La idea de la demostración es la ya adelantada: dado un conjunto Γ en las


condiciones del teorema, se construirá un conjunto ∆ que lo incluya y sea de Hintikka.
Sabemos que las fórmulas de LP son o bien letras proposicionales, o bien letras pro-
posicionales negadas o bien fórmulas de tipo A o bien de tipo B. Consideremos ahora
un conjunto S cualquiera de fórmulas. Las siguientes propiedades son muy fácilmente
demostrables:

(i) Si S es satisfacible, ninguna letra proposicional y su negación son ambas elementos de


S.
(ii) Si S, F es satisfacible2 y F es de forma A, entonces S, α1 , α2 es satisfacible.
(iii) Si S, F es satisfacible y F es de forma B, entonces a menos uno de S, β1 y S, β2 es
satisfacible.

Sea entonces Γ un conjunto que cumple que todos sus subconjuntos finitos son satisfa-
cibles. Queremos demostrar que Γ es satisfacible. Si Γ es finito, no hay nada que agregar,
ya que el propio Γ es uno de sus subconjuntos finitos. Si Γ es infinito, dispongamos sus
fórmulas en una secuencia infinita

F1 , F2 , F3 , . . . , Fn , . . .

Vamos a construir otra secuencia infinita

G1 , G2 , G3 , . . . , Gn , . . .

entre cuyos términos se cuenten todas las fórmulas de Γ , y tal que el conjunto de todos sus
términos sea demostrablemente de Hintikka. El procedimiento es el siguiente:

En el primer paso damos el primer término de la secuencia a construir. Es G1 = F1 .


Lo que agreguemos a la secuencia a construir en el paso n + 1 dependerá exclusiva-
mente de la fórmula Gn , así:
• Si Gn es de tipo A, agregamos a la secuencia las fórmulas α1 y α2 (obtenidas de
Gn ) y Fn+1 .
Por (ii), y debido a que todos los subconjuntos finitos de Γ son satisfacibles, si el
conjunto de los términos de la secuencia era satisfacible antes del agregado, lo
será el de los de la secuencia obtenida después del agregado.
2 Recuerde el lector que S, F significa S ∪ {F}.
16.2 Completitud de LP 343

• Si Gn es de tipo B, y la secuencia construida en el paso n-ésimo es G1 , . . . , Gn ,


. . . ,Gn+i , siendo el conjunto de esas fórmulas satisfacible, es necesario que el
conjunto de las fórmulas G1 , . . . , Gn , . . . ,Gn+i , β1 , Fn+1 sea satisfacible o que
el de las fórmulas, G1 , . . . , Gn , . . . ,Gn+i , β2 , Fn+1 lo sea (por (iii), con β1 y β2
obtenidas de Gn , y la satisfacibilidad de todos los subconjuntos finitos de Γ ).
Si se da el primer caso, agregamos a la secuencia β1 y Fn+1 , si no se da, agregamos
a la secuencia β2 y Fn+1 .
• Si Gn no es de tipo A ni B, agregamos a la secuencia Fn+1 .

Por la forma de construcción, es claro que:

Cada Fi es elemento del conjunto de términos de G1 , G2 , G3 , . . . , Gn , . . . , ya que fue


introducida en el i-ésimo paso.
Para toda fórmula de la secuencia, si es de tipo A, en la secuencia figuran tanto α1
como α2 , y si es de tipo B en la secuencia figura β1 o β2 .
Como para cada i el conjunto de las fórmulas G1 , . . . , Gi es satisfacible, no puede haber
entre los términos de la secuencia de las Gn una letra proposicional y su negación.

Estos tres puntos demuestran que el conjunto de términos de la secuencia G1 ,. . . , Gn ,. . . es de


Hintikka, y por lo tanto, satisfacible. Γ es subconjunto de él, y por ende, también satisfacible.
Eso termina la demostración.
Podríamos preguntarnos ahora si LPO también es compacta, pero diferiremos las
consideraciones sobre ese punto para seguir concentrados en LP.
El resultado que acabamos de demostrar indica que LP no tiene la potencia necesaria
para expresar los enunciados del ejemplo con que abrimos el capítulo, en el que se sugería un
conjunto insatisfacible con todos sus subconjuntos finitos satisfacibles. Por supuesto, cuando
decimos que no tiene la potencia necesaria para expresar esos enunciados, queremos decir
que no puede capturar los aspectos formales que hacen que el conjunto sea insatisfacible.
No es algo que sorprenda en lo más mínimo, ya que no sabríamos cómo encontrar una
traducción a LP adecuada en ese sentido siquiera de uno de los enunciados propuestos.
Pero lo hecho comporta una demostración terminante de la limitación expresiva de ese
lenguaje.
El siguiente problema que nos debería llamar la atención es la completitud o incompleti-
tud de LP. Quizá dentro de sus limitaciones expresivas, el sistema deductivo que nos hemos
dado para ese lenguaje sea capaz de obtener como consecuencia sintáctica a partir de un
conjunto todo aquello que sea consecuencia semántica de él. Esto es así, y al establecimiento
de ese importante resultado dedicaremos lo sigue.

16.2 Completitud de LP
Nuestro objetivo en esta parte será demostrar que Γ |=LP A implica Γ `LP A. La idea
será demostrar que dada cualquier tautología, existe una derivación de ella a partir del
conjunto vacío. Si logramos demostrar esto, quedará asegurado que dado un conjunto Γ
finito de fórmulas de LP y una fórmula A, si Γ |= A existe una derivación de A a partir de Γ .
Veámoslo:
344 Capítulo 16. Compacidad y completitud

Sea Γ = {A1 , . . . , An } y A una fórmula. Entonces, según lo visto en la sección 6.6,


{A1 , . . . , An } |= A si y solo si el condicional asociado (A1 ∧ · · · ∧ An ) → A es una tautología.
Suponiendo que hemos demostrado que existe una derivación de toda tautología a partir
del conjunto vacío, ese condicional se puede introducir en cualquier línea de una derivación
usando la regla derivada de introducción de teoremas. Esto nos permite construir la siguiente
derivación:

1 A1

2 A2
.. ..
. .

n An

n+1 A1 ∧ A2 I∧ , 1, 2
.. ..
. .

2n − 1 A1 ∧ A2 ∧ ... ∧ An I∧ , n, 2n − 2

2n (A1 ∧ ... ∧ An ) → A Teorema

2n + 1 A E→ , 2n − 1, 2n

con lo que queda claro que todas las consecuencias semánticas de conjuntos finitos son
consecuencias sintácticas de ellos.
En caso de que Γ sea infinito y A sea consecuencia semántica de él, también –suponiendo
que todas las tautologías son teoremas– podremos encontrar una derivación de A a partir
de Γ . Esto se muestra con el siguiente razonamiento:
Si Γ |= A, entonces el conjunto Γ , ¬A es insatisfacible. Por compacidad, tenemos que
un subconjunto finito de Γ , ¬A; al que llamaremos Γ0 , ¬A es insatisfacible. Entonces ese
conjunto finito tiene como consecuencia semántica una contradicción, y por lo que acabamos
de ver, es inconsistente. El teorema del absurdo asegura que Γ0 ` A, lo que a su vez implica
Γ ` A por monotonía.
Por lo tanto la completitud de LP quedará demostrada apenas demostremos que toda
tautología es un teorema.

La idea de la demostración

La idea de la demostración de este teorema proviene de [Smu95a], donde el resultado se


demuestra para otro sistema deductivo, las tablas analíticas. Lo que se presentará aquí es
una adaptación de la idea a nuestro sistema.
Demostraremos que dada cualquier tautología τ, existe una derivación a partir del
conjunto vacío que tiene esta forma:
16.2 Completitud de LP 345

1 ¬τ
.. ..
. .

n B ∧ ¬B

n+1 ¬¬τ I¬ , 1–n

n+2 τ E¬ , n + 1

Por supuesto, esto se reduce a demostrar la existencia de la derivación de las líneas 1 a


n, o sea, a demostrar que dada cualquier tautología τ, hay una derivación de una contradicción a
partir del conjunto {¬τ}.
Para ello, demostraremos un resultado preliminar: Supongamos que τ es una tautología
y se genera una sucesión de fórmulas

F1 , F2 , F3 , . . . , Fn , . . .

de la siguiente manera:

1. Paso 1: En el paso 1 construimos el primer término de la sucesión. Es F1 = ¬τ.


2. Paso n, con n > 1: Lo que agreguemos a la sucesión en el paso n depende únicamente
de lo que agregamos en el anterior, n − 1. Para cada fórmula agregada en el paso n − 1,
si es de tipo A, agregamos α1 y α2 ; si es de tipo B agregamos uno cualquiera de β1 y
β2 , y si es letra proposicional o letra proposicional negada no agregamos nada.

Entonces:

(a) La sucesión es finita.


(b) Un término de la sucesión es una letra proposicional y otro término es esa misma letra
proposicional negada.

Demostremos (a): Para que la sucesión sea infinita, es necesario que

(i) O bien en un paso se introduzcan infinitas fórmulas, lo que claramente no puede ser,
porque en el primer paso se introduce una cantidad finita, y si en el paso j se introduce
una cantidad finita de fórmulas, en el j + 1 también se introduce una cantidad finita
(como máximo el doble de las que se introdujeron en el paso j, caso que todas las
introducidas en ese paso fueran de tipo A).
(ii) O bien en todo paso se introducen fórmulas de tipo A o de tipo B, obligando a un
paso posterior. Esto no puede ser porque en cada paso, la fórmula más compleja
que se introduce (midiendo la complejidad por la cantidad de conectivos lógicos)
es menos compleja que la más compleja introducida en el paso anterior. De manera
que si definimos la complejidad de un paso como la complejidad de la fórmula más
compleja que introduce, tenemos que las complejidades de los pasos forman una
sucesión estrictamente decreciente de naturales, de modo que tiene que ser finita, por
lo que hay una cantidad finita de pasos.
346 Capítulo 16. Compacidad y completitud

Si por (ii) tenemos una cantidad finita de pasos en cada uno de los cuales se introduce una
cantidad finita de fórmulas, como se muestra en (i), entonces la sucesión es finita.
Con respecto a (b), supongamos que en la sucesión no apareciera una letra proposicional
y ella misma negada. En ese caso, como por cada fórmula de tipo A de la sucesión, en la
sucesión también figuran α1 y α2 , y por cada fórmula de tipo B también figura β1 o β2 , el
conjunto de fórmulas de la sucesión sería de Hintikka, y por lo tanto satisfacible. Pero el
conjunto no puede ser satisfacible porque uno de sus elementos es ¬τ.

La demostración

Entonces lo que haremos será lo siguiente: mostraremos que si en una derivación aparece
una fórmula de tipo A, se pueden agregar a la derivación líneas que contienen α1 y α2 ,
y si aparece una fórmula de tipo B que no sea una disyunción, se puede agregar a la
derivación una línea con la disyunción β1 ∨ β2 . Para cada una de estas disyunciones se
pueden introducir dos líneas, cada una de las cuales tiene un disyunto como supuesto.
Si repetimos el procedimiento debemos terminar en algún momento, porque estamos
produciendo fórmulas de complejidad cada vez menor, hasta obtener un conjunto de letras
proposicionales y letras proposicionales negadas. Veremos luego qué podemos inferir de
ello.
Comencemos considerando las fórmulas F de tipo A. Tenemos cuatro casos:

1. Si en una línea de una derivación aparece F de tipo A1 , entonces F = ¬¬X. La regla E¬


nos permite agregar X, que es tanto α1 como α2 .
2. Si en una línea de una derivación aparece F de tipo A2 , entonces F = X ∧ Y. La regla
E∧ nos permite agregar X, que es α1 y también Y que es α2 .
3. Si en una línea de una derivación aparece F de tipo A3 , entonces F = ¬(X ∨ Y). El
siguiente esquema muestra que podemos agregar ¬X, que es α1 y también ¬Y que es
α2 :

1 ¬(X ∨ Y)

2 (¬X ∧ ¬Y) De Morgan, 1

3 ¬X E∧ , 2

4 ¬Y E∧ , 2

4. Si en una línea de una derivación aparece F de tipo A4 , entonces F = ¬(X → Y). El


siguiente esquema muestra que podemos agregar X, que es α1 y también ¬Y que es
α2 :
16.2 Completitud de LP 347

1 ¬(X → Y)

2 ¬X

3 X

4 X ∧ ¬X I∧ , 2, 3

5 Y ECQ, 4

6 X→Y I→ , 3–5

7 (X → Y) ∧ ¬(X → Y) I∧ , 6, 1

8 ¬¬X I¬ , 2–7

9 X E¬ , 8

10 Y

11 X

12 Y Repetición, 10

13 X→Y I→ , 11–12

14 (X → Y) ∧ ¬(X → Y) I∧ , 13, 1

15 ¬Y I¬ , 10–14

En este punto podemos aclarar un poco la idea de la demostración de que siempre se


puede derivar una contradicción a partir de la negación de una tautología. Si en el lenguaje
solo existieran fórmulas de tipo A, sería muy sencilla:
Lo anterior demuestra que existe una derivación que comienza con ¬τ como supuesto, y
en la cual para cada fórmula que aparece (que suponemos son solo de tipo A), aparecen
posteriormente α1 y α2 . Por lo tanto, en ella debe aparecer una letra proposicional en una
línea y en otra línea la misma letra proposicional negada (porque si no el conjunto de
fórmulas que están en las distintas líneas sería de Hintikka, conteniendo a ¬τ, lo que es
imposible). La regla I∧ aplicada a esas fórmulas da la contradicción buscada.
Podemos verlo en un ejemplo en el que solo aparecen fórmulas de tipo A:
Si quisiéramos hallar una derivación de la tautología ((p ∧ q) → p), en el primer paso
suponemos ¬((p ∧ q) → p)

1 ¬((p ∧ q) → p))

lo que es análogo a construir el primer término de la sucesión que demostramos debe ser
finita e incluir entre sus términos una letra proposicional y su negación.
348 Capítulo 16. Compacidad y completitud

Como la fórmula que introdujimos es de forma A4 , sabemos que hay una derivación
comenzada en ella en la que sucesivamente aparecen sus fórmulas α1 y α2 , que son p ∧ q y
¬p:

1 ¬((p ∧ q) → p))
.. ..
. .

i p∧q
.. ..
. .

j ¬p
Como p ∧ q es de forma A2 sabemos que podemos agregar a la derivación las fórmulas
p y q:

1 ¬((p ∧ q) → p))
.. ..
. .

i p∧q
.. ..
. .

j ¬p
.. ..
. .

k p
.. ..
. .

l q
Con lo que hemos llegado a un conjunto de letras y letras proposicionales negadas en el
cual ya hemos demostrado que debe haber una letra proposicional y ella misma negada, de
modo que por regla I∧ podemos construir una contradicción en sentido sintáctico y a partir
de allí derivar la tautología que nos interesaba:

1 ¬((p ∧ q) → p))
.. ..
. .

i p∧q
.. ..
. .

j ¬p
.. ..
. .
16.2 Completitud de LP 349

k p
.. ..
. .

l q

l+1 p ∧ ¬p I∧ , k, j

l+2 ¬¬((p ∧ q) → p)) I¬ , 1–l + 1

l+3 (p ∧ q) → p E¬ , l + 2

Si las únicas formas de fórmulas fuesen las que hemos nombrado con una A subindizada,
la demostración de que toda tautología es derivable ya estaría realizada, como es evidente.
Pero las cosas no son tan simples porque existen las fórmulas de las formas que hemos
nombrado con una B subindizada. De manera que tenemos que atender lo que implica su
aparición en una derivación.
Para las fórmulas de tipo B, el resultado que necesitamos es que si aparecen en una
línea de una derivación, entonces siempre se puede agregar a la derivación una línea que
sea la disyunción de β1 y β2 , en el caso de que la fórmula no sea ya de tipo B2 , o sea, una
disyunción.
Solo tenemos que demostrarlo para las fórmulas de tipo B1 y B3 :

1. Si en una línea de una derivación aparece F de tipo B1 , entonces F = ¬(X ∧ Y). La regla
derivada De Morgan nos permite agregar ¬X ∨ ¬Y, que es la disyunción de β1 y β2 .
2. Si en una línea de una derivación aparece F de tipo B3 , entonces F = X → Y. El
siguiente esquema muestra que podemos agregar ¬X ∨ Y, que es la disyunción de β1
y β2 :

1 X→Y

2 ¬(¬X ∨ Y)

3 X ∨ ¬X LTE

4 X

5 Y E→ , 4, 1

6 ¬X ∨ Y I∨ , 5

7 (¬X ∨ Y) ∧ ¬(¬X ∨ Y) I∧ , 6, 2

8 ¬X

9 ¬X ∨ Y I∨ , 8

10 (¬X ∨ Y) ∧ ¬(¬X ∨ Y) I∧ , 9, 2
350 Capítulo 16. Compacidad y completitud

11 (¬X ∨ Y) ∧ ¬(¬X ∨ Y) E∨ , 3, 4–7, 8–10

12 ¬¬(¬X ∨ Y) I¬ , 2–11

13 ¬X ∨ Y E¬ , 12

Entonces hasta el momento tenemos que podemos aceptar lo siguiente como reglas deriva-
das:
Regla A Regla B
A B1, 3
α1 β1 ∨ β2
α2

Esto debe leerse así: si en una línea se encuentra una fórmula de tipo A, se puede agregar
dos líneas, una con α1 y otra con α2 , y si en una línea se encuentra una fórmula de tipo B1
o B3 se puede agregar una línea con la disyunción β1 ∨ β2 .
Supongamos entonces que comenzamos una derivación con el supuesto ¬τ y aplicamos
todas las veces que podemos las reglas A y B. Caben dos posibilidades:
1. Por aplicación de las reglas A hemos llegado a incluir dos líneas en una de las cuales
figura una letra proposicional p y en la otra la misma letra proposicional negada, ¬p.
Si es así, por regla I∧ agregamos p ∧ ¬p (observe que esta contradicción aparece bajo
el único supuesto de la línea 1, porque las reglas A y B no introducen supuestos), de
modo que tenemos una secuencia comenzada en ¬τ y terminada en la contradicción.
Por regla I¬ agregamos ¬¬τ y finalmente, por regla E¬ obtenemos τ.
2. No hemos generado un par de líneas que tienen una letra proposicional y su negación
ni podemos seguir aplicando las reglas A o B. En ese caso, quedan disyunciones entre
las líneas. Aplicaremos la regla E∨ que nos exige hacer los supuestos β1 y β2 para
eliminarlas. Abrimos un supuesto que sea uno de los disyuntos de esas disyunciones
e iteramos, aplicando las reglas A y B y cuando no podemos hacerlo abriendo un
supuesto que sea uno de los disyuntos de las disyunciones que no hemos utilizado
e iterando. El proceso debe terminar, finalmente generando en algún punto una
línea con una letra proposicional y otra con la misma letra negada. Construimos la
contradicción, cerramos el último supuesto abierto y abrimos otro supuesto que sea el
segundo disyunto de la disyunción que había proporcionado el supuesto que acabamos
de cerrar. Iterando, también se debe llegar a una contradicción. Nada asegura que sea
la misma contradicción que la encontrada bajo el supuesto anteriormente cerrado. Si
no lo es, se aplica ECQ para generar la misma contradicción. Ahora tenemos que se
puede eliminar la disyunción que había dado lugar a estos dos supuestos, generando
una contradicción que normalmente estará bajo otro supuesto. Pero lo mismo ocurrirá
con todos los supuestos abiertos, de modo que todas las subderivaciones terminarán
en la misma contradicción, por lo que una última aplicación de E∨ nos permitirá
obtener la contradicción deseada, libre de supuestos, y de allí derivar la tautología
por aplicación sucesiva de I¬ y E¬ . Suponer que bajo algún supuesto s no se puede
construir una contradicción sintáctica comporta suponer que hay un conjunto de
Hintikka (el todas las fórmulas que se pueden invocar en la derivación a partir de
16.2 Completitud de LP 351

la última fórmula obtenida bajo s, conjunto este que fue construido asegurando la
aparición de α1 y α2 por cada fórmula de tipo A que contiene, y de una entre β1
y β2 por cada fórmula de tipo B que contiene) tal que uno de sus elementos es la
contradicción ¬τ, lo que sabemos es imposible. El procedimiento asegura que todos
los disyuntos de las disyunciones que aparezcan estarán como supuestos, y que bajo
todos ellos aparecerá la misma contradicción.
El teorema nos da un método mecánico para hallar una derivación de cualquier tautolo-
gía. Apliquémoslo en un ejemplo:
Tomemos la tautología (p → (q → r)) → (((p → q) → (p → r)), y mostremos que
hay una derivación iniciada en el supuesto ¬(p → (q → r)) → (((p → q) → (p → r)),
en la que aplicando el procedimiento descrito, se llega a tener una letra proposicional y
su negación en cada subderivación abierta por supuestos (o en la propia derivación caso
de no haber supuestos). A partir de esas letras se pueden introducir contradicciones que
cierran los supuestos abiertos en las disyunciones, de modo que el supuesto inicial cierra en
contradicción, y la regla I¬ seguida de E¬ termina dando la tautología.

1 ¬((p → (q → r)) → (((p → q) → (p → r)))

2 (p → (q → r)) A, 1

3 ¬((p → q) → (p → r)) A, 1

Extrajimos lo que se puede agregar de la línea 1, y esta línea no volverá a ser usada hasta
casi el final, para introducir la negación del supuesto que contiene. La línea 2 tiene una
fórmula de tipo B, que debe ser convertida a una disyunción, y la línea 3 una de tipo A, que
arroja otras dos líneas:

4 (¬p ∨ (q → r)) B3 , 2

5 (p → q) A, 3

6 ¬(p → r) A, 3

La línea 6 es de tipo A, da otras dos líneas y la 5 debe ser convertida a disyunción:

7 (¬p ∨ q) B, 5

8 p A, 6

9 ¬r A, 6

Ya no podemos aplicar más las reglas A o B y no hemos generado líneas que nos
permitan construir contradicciones en el nivel donde nos hallamos. La primera fórmula que
no hemos usado es la de la línea 4, una disyunción. Abrimos como supuesto su disyunto
izquierdo y continuamos el procedimiento hasta llegar a una letra proposicional y esa misma
352 Capítulo 16. Compacidad y completitud

letra negada, con lo que construimos una contradicción usando I∧ . Luego volvemos a usar
esa disyunción agregando el otro supuesto e iterando:

10 ¬p

11 (p ∧ ¬p) I∧ , 8, 10

12 (q → r)

13 (¬q ∨ r) B, 12

Nuevamente no podemos usar las reglas A o B y no hemos generado contradicción en el


nivel en que nos hallamos. La primera disyunción no usada es la de la línea 7. Abrimos un
supuesto con uno de sus disyuntos. Luego de cerrarlo en contradicción iterando, abrimos
un supuesto con su otro disyunto e iteramos. Al llegar a la línea 17 no podemos aplicar A o
B y debemos abrir otro supuesto con la disyunción de 13:

14 ¬p

15 (p ∧ ¬p) I∧ , 8, 14

16 q

17 (¬q ∨ r) B, 12

18 ¬q

19 (q ∧ ¬q) I∧ , 16, 18

Llegamos a la contradicción, pero necesitamos que sea la misma contradicción bajo


todos los supuestos, de modo que aplicamos ECQ para obtener (p ∧ ¬p), cerramos el último
supuesto abierto, abrimos otro con el disyunto restante de la línea 13 e iteramos una vez
más, y otra vez debemos aplicar ECQ:

20 (p ∧ ¬p) ECQ, 19

21 r

22 (r ∧ ¬r) I∧ , 21, 9

23 (p ∧ ¬p) ECQ, 22

En este punto hemos abierto todos los supuestos que surgen de las disyunciones y bajo
todos hemos obtenido la misma contradicción sintáctica, como sabíamos que debía ocurrir.
De no ser así, habríamos encontrado un conjunto de Hintikka uno de cuyos elementos sería
la negación de una tautología, lo que sabemos que no puede ser. Ahora solo resta eliminar
las disyunciones en orden, aplicar I¬ y E¬ :
16.3 En LPO 353

24 p ∧ ¬p E∨ , 13, 18–20, 21–23

25 p ∧ ¬p E∨ , 7, 14–15, 16–24

26 p ∧ ¬p E∨ , 4, 10–11, 12–25

27 ¬¬((p → (q → r)) → ((p → q) → (p → r))) I¬ , 1–26

28 ((p → (q → r)) → ((p → q) → (p → r))) E¬ , 27

El lector observará dos cosas: la primera, que esto no es una derivación, sino la indicación
de la existencia de una derivación con determinadas características. La segunda, que la
derivación indicada, de formato rígido, es mucho más larga que lo necesario para demostrar
esa tautología (el lector puede probar suponiendo el antecedente de la tautología en cuestión
y verá que no se necesita algo tan largo).
Ahora bien, este procedimiento es totalmente general. Suponer que bajo un supuesto
abierto no se encuentra una letra proposicional y la misma letra proposicional negada es lo
mismo que suponer que se ha hallado un conjunto de Hintikka tal que uno de sus elementos
es la negación de una tautología.
Queda demostrado así el
Teorema 16.2.1 — Completitud del sistema de deducción natural para la LP.
Toda tautología es un teorema.

Los teoremas de corrección y completitud nos permiten afirmar que LP tiene un excelente
comportamiento:

Γ |=LP A si y solo si Γ `LP A

Esto nos asegura, entre otras cosas, que el sistema de deducción natural para LP se
comporta bien en un sentido que nos preocupaba: es siempre posible, a partir de una
contradicción en sentido semántico, derivar una en sentido sintáctico. Otra consecuencia de
la completitud es que para demostrar que un conjunto no tiene como consecuencia sintáctica
a una fórmula, basta encontrar un modelo del conjunto que sea contramodelo de la fórmula.
Corrección y completitud comportan el colapso de nociones semánticas y sintácticas.
Nociones que habían sido definidas de formas muy diferentes, como tautologías y teoremas,
conjuntos satisfacibles y conjuntos consistentes, se revelan extensionalmente iguales.

16.3 En LPO
No demostraremos los resultados correspondientes a LPO porque si bien las ideas
subyacentes son similares, la técnica matemática para ponerlas en uso es bastante más
sofisticada. La razón básica para ello es que, por ejemplo, de un universal ∀xPx se pueden
354 Capítulo 16. Compacidad y completitud

inferir infinitas fórmulas de tipo Pck , y al intentar construir un conjunto de Hintikka donde
aparece un universal, (sería una fórmula de tipo A) no podemos asegurar que el proceso
de ir extrayendo fórmulas menos complejas que la dada termine en una cantidad finita de
pasos, por lo que es obligado considerar conjuntos infinitos de fórmulas.
Sin embargo, aunque no los demostremos, los consignaremos. Por un lado, LPO es
compacta, y por otro, uno de los resultados cumbre de la lógica del siglo XX es el

Teorema 16.3.1 — Completitud de LPO, (Gödel, 1930).


Para todo conjunto de sentencias Γ y toda sentencia A, si Γ |=LPO A entonces Γ `LPO A.

lo que permite afirmar, considerando la corrección de LPO

Corolario 16.3.2 τ es un teorema si y solo si es un fórmula válida.

Corolario 16.3.3 Un conjunto de sentencias Γ es consistente si y solo si es satisfacible.

Pero hay algo extraño. ¿No mostramos al inicio del capítulo un conjunto consistente e
insatisfacible, cuando vimos aquella lista de enunciados que referían a objetos naturales,
en la cual el j-ésimo enunciado expresaba que hay al menos j objetos naturales, y otro
enunciado expresaba que la cantidad de objetos naturales es finita?
La respuesta es que mostramos un conjunto de enunciados en español que sugieren
esas características. Pero no mostramos un conjunto de sentencias de LPO que fuera a
la vez consistente e insatisfacible. Una consecuencia del teorema de Gödel es que no
hay una traducción adecuada del enunciado ω a LPO. ¿Qué sería una traducción adecuada?
Naturalmente, sería una sentencia de LPO que fuera verdadera bajo una interpretación M
si y solo si M asignara como denotación del predicado N un conjunto finito. O sea, estamos
viendo un límite expresivo de LPO. No podemos expresar todo con ese lenguaje. No es
sorprendente, pero es bueno conocer qué cosas no podemos expresar con él.
Por otra parte, en lógica de segundo orden sí se puede expresar la sentencia ω. Es claro
entonces que se deduce sin más que la lógica de segundo orden no es completa.

Ejercicio 16.1 Mostrar que si un sistema es completo, su relación de consecuencia semán-


tica es compacta.
Epílogo: Lógica, ¿para qué?

uego de haber hecho este extenso recorrido, seguramente queden muchas preguntas

L pertinentes en la mente de cualquier estudiante de filosofía. Para despedirnos, toca-


remos más o menos brevemente cuatro cuestiones que naturalmente una persona que
esté estudiando filosofía y se enfrente a un curso de las características de este se haría. Ellas
son acerca de cómo puede profundizar en el estudio de la lógica alguien con intereses filo-
sóficos, la relación entre la lógica y la filosofía, la relación entre la lógica y la argumentación,
y el valor formativo de la lógica.

¿Qué más se puede estudiar de lógica?


Al terminar este curso, el estudiante tiene los elementos necesarios para introducirse
en las diferentes ramas de la lógica. En caso de querer especializarse o simplemente
profundizar en determinados temas desde ciertas tradiciones, deberá estudiar aspectos de
la lógica que no hemos considerado. Con toda seguridad, esos estudios se harán en marcos
más matematizados que el que hemos intentado darle a este curso, pensado de modo que
no tuviera como requisito una formación matemática previa. Sin embargo, lo realizado es
una buena preparación para esos modos de exposición más compactos.
Más allá de lo que hemos estudiado se extiende un vastísimo campo que incluye diversas
ramas de la disciplina. Mencionaremos como las más prominentes la teoría de modelos, que
estudia las estructuras que son modelos de diversas clases de sentencias en lenguajes
formales; la teoría de la prueba, que tiene como objeto de estudio las derivaciones, la teoría de
la computabilidad, que estudia las clases de problemas que se pueden resolver a través de un
algoritmo o programa.
Un segundo curso de lógica para estudiantes de filosofía quizá debería atender a la
tercera y la primera de esas ramas, tratando temas clásicos de la teoría de la computabilidad
como máquinas de Turing, funciones recursivas y la no decidibilidad de la lógica de primer
orden; de la teoría de modelos, como completitud, compacidad y Teorema de Löwenheim-
Skolem, e integrar todo eso a través del estudio de los Teoremas de incompletitud de Gödel.
Un excelente texto que cubre esos tópicos y más es [BBJ07].
Varios de estos temas son de conocimiento imprescindible si se desea abordar desde
cierta óptica otras ramas de la filosofía, como por ejemplo, filosofía de la matemática,
filosofía de la computación o filosofía de la mente. Inclusive es frecuente ver que estos
resultados lógicos que estamos mencionando aparezcan como elementos a tener en cuenta
en filosofía de la física o filosofía del lenguaje.
Estamos pensando en usos adecuados de estos resultados lógicos, introducidos en el
356 Epílogo: Lógica, ¿para qué?

debate filosófico. Lamentablemente, es también muy común ver usos inadecuados de esos
resultados, inadecuación que se deja ver muchísimas veces por el simple parafraseo que
autores irresponsables hacen de ellos, que evidencia desconocimiento inclusive de los
enunciados de los teoremas lógicos que se citan como apoyo a asertos de otras disciplinas.
En particular, los teoremas de incompletitud de Gödel han sido objeto de un manoseo
increíble, pero no han sido los únicos resultados víctimas de pensadores que en ocasiones
intentan hacer filosofía atando moscas por el rabo. El lector interesado en estas cuestiones
puede leer [Fra05] y [SB99].
Por eso, un valor añadido del estudio de la lógica más allá de este curso será la
adquisición de la capacidad de distinguir, entre la enorme oferta intelectual existente, los
discursos serios que utilizan elementos de lógica de los discursos que también lo hacen pero
no resisten el menor análisis. Y si no se hace un curso con esas características ni se estudian
esos temas por cuenta propia, lo mejor quizá sea el escepticismo acerca de la pertinencia de
traer a cuento cuestiones lógicas que se desconocen.
Lo dicho hasta ahora solo tiene en cuenta el marco de la lógica clásica. Para el tratamiento
de algunos problemas dentro de ciertas tradiciones, son fundamentales las lógicas no clásicas.
En el curso hemos mencionado la lógica intuicionista. Es impensable un estudio serio de
la filosofía de la matemática sin un conocimiento por lo menos somero de ella. Pero hay
otras lógicas que interesan a diversos filósofos: las lógicas modales son importantes en
ciertos enfoques de la metafísica, las lógicas epistémicas en ciertos enfoques de la teoría del
conocimiento, e incluso las lógicas deónticas en ciertos enfoques de la filosofía de la moral
y del derecho. Por supuesto, no podemos hacer referencias detalladas a cada una de estas
lógicas y mucho menos a las tantas que existen y no podemos mencionar aquí. Lo que sí
podemos afirmar es que los conocimientos que este curso pretendió aportar constituyen una
base adecuada para dirigirse a cualquiera de estas ramificaciones.
El talante del estudiante marcará la conveniencia de que continúe con sus estudios
de lógica. Si, por ejemplo, quiere convertirse en un erudito en Nietzsche, me será difícil
encontrar alguna razón para impulsarlo dedicar horas de esfuerzo a la teoría de las máquinas
de Turing. Pero si quiere dedicarse al funcionalismo dentro de la filosofía de la mente, le
conviene saber que es absurdo pretender hacerlo sin estudiar al menos las bases de teoría
de la computabilidad.

Lógica y filosofía
Más allá de las preferencias y de cómo están organizadas las carreras de grado de
Filosofía, ¿qué relación hay entre la lógica y la filosofía?
Existe la fuerte tentación de responder esta pregunta en términos históricos. La lógica
nació del genio del mayor filósofo que ha existido, y fue cultivada durante miles de años
por filósofos. Se la consideraba una parte integral de la filosofía.
Esa respuesta, sin embargo, no nos aclara qué le aporta la lógica a la filosofía y además
desconoce la realidad actual. Hoy, la lógica como ciencia es una de las ramas de la matemáti-
ca. Esto tiene que ver con lo sucedido en el devenir histórico que hemos delineado. La lógica,
luego de su formalización, amplió su objeto de estudio –quizá haya quien defienda la idea
de que lo cambió– para abarcar los lenguajes formales, no solo las inferencias o argumentos.
Y por esta vía llegó la matematización de la lógica y su incorporación a la matemática como
357

una de sus ramas.


Sin embargo, es la lógica y no otra ciencia la que nos puede servir en el control de la
calidad de las inferencias desde el punto de vista que hemos llamado “lógico” informalmente
en los primeros capítulos. El objeto original, la inferencia, nunca ha dejado de caer bajo
el foco de la lógica. La matematización solo ha significado que los instrumentos que se
consideran más adecuados para ese estudio son los matemáticos.
¿Y qué tiene que ver la inferencia, la argumentación, con la filosofía? Esta sí que parece
una pregunta tonta. Pero no lo es. Hay presiones contradictorias en esta cuestión. Por un
lado, según un relato muy extendido, los hombres no siempre hicieron filosofía, y en algún
momento sí comenzaron a hacerla3 .
Más allá de la cuestión de si corresponde asignar ese punto augural a algunos jonios
del siglo VI a.C., una forma de verlo es que se comienzan a producir discursos que se
distinguen de los precedentes en que propenden a la obtención de creencias racionalmente
justificadas y revisables. Esto se suele llamar “paso del mythos al logos”, y por supuesto que
es tremendamente controversial, ya que parece implicar que la humanidad prefilosófica no
buscaba tener creencias racionalmente justificadas y corregibles. Pero el punto no es ese,
sino que esta visión ha sido la dominante en la historia de la filosofía durante muchísimo
tiempo, y algo a favor debe tener, porque no consideramos filósofos a ni a Hesíodo, ni a los
autores del Popul Vuh o del Génesis, y sí a Tales o Anaximandro, aunque sus objetos de
discurso son similares.
De hecho, la situación es análoga hoy. Supongamos que pregunto a un fanático religioso
cómo debo conducir mi vida, y me responde que debo cumplir ciertos mandamientos
divinos. Cuando inquiero por sus razones para afirmar eso, me remite a un cierto libro
que considera sagrado, donde entre dudosas narraciones encuentro promesas de premios y
castigos, pero ni un solo argumento. No diríamos que su respuesta es filosófica. Pero si le
hago la misma pregunta a un aristotélico, y me responde que debo buscar la eudaimonía, y al
ser cuestionado acerca de sus razones para afirmar eso me da los argumentos de Aristóteles
en Ética a Nicómaco, aceptaríamos que su respuesta es filosófica.
Es decir, no es el tema lo que hace filosófico al asunto. Aparentemente, la forma en cómo
se trata el asunto es fundamental. También es cierto que no todo tema es filosófico. Nadie
diría que la cuestión de por qué el Palacio Salvo se mantiene firme cuando hay viento es
filosófica, sino física o de ingeniería, aunque se propongan excelentes razones para explicar
su estabilidad. Pero aparentemente, el modo de considerar el problema es parte fundamental
en que lo consideremos filosófico.
Y la pregunta que surge inmediatamente es ¿de qué otra cosa, aparte de la argumentación,
disponemos tanto para evidenciar la racionalidad de un discurso como para evaluarlo en ese
sentido? La respuesta parece ser que de ninguna otra, aparte de la contrastación empírica.
Y esto está relacionado con lo recién considerado, acerca de que hay temas que no son
filosóficos. Si algo se puede decidir por experimentación, no parece ser objeto de la filosofía
sino de alguna de las ciencias.
Entonces aparentemente hemos hallado una indisoluble ligazón entre lógica y filosofía,
3 Este punto de vista no recoge unanimidades, hay quien sostiene que la visión de la filosofía como una
actividad intelectual que surge en el mundo griego hace 2600 años es errónea, que los niños hacen filosofía –y
de la buena–, que hay filosofía de las tribus que no dominan la escritura, y que en definitiva, todo el mundo
hace o tiene una filosofía.
358 Epílogo: Lógica, ¿para qué?

porque la filosofía debe proveer razones para al menos algunos de sus asertos y la lógica es
la ciencia adecuada para evaluar la adecuación de esas razones ofrecidas.
Sin embargo, el problema es vidrioso. Por un lado, si somos lo suficientemente amplios
como para aceptar que filosofía es lo que en la academia se considera filosofía, nos encon-
traremos con que hay algunas filosofías que no parecen depender de la argumentación.
Por citar un ejemplo muy conocido, hay producción filosófica en forma de aforismos. Los
aforismos no suelen ser argumentos ni estar apoyados en ellos. “Lo que no me mata me
hace más fuerte”. Busque el lector en el contexto de esta famosísima cita un argumento, y no
lo encontrará. Es claro que el propio formato elegido no es el más idóneo para el desarrollo
argumental, aunque en ocasiones es posible extraer argumentos de aforismos. Por otro lado,
si va a buscar argumentos a favor de algo que parece tan trivial como “Pienso, luego existo”
en el contexto en el que apareció esta no menos famosa frase, los encontrará en abundancia.
No estoy diciendo que Descartes es un filósofo y Nietzsche no. Ambos son filósofos muy
respetados como tales. Pero es claro que la filosofía nietzscheana, al menos como se expone
en varias de sus obras, tiene una relación muy débil con la argumentación, si es que tiene
alguna4 , y que logra expresiones muy potentes pero desde el punto de vista emocional o
poético, sin que la fuerza de los argumentos tenga nada que ver con ello. Asunto diferente
es que la exégesis posterior busque argumentos a favor de las tesis ofrecidas por el autor,
argumentos que este no dio, con toda certeza porque no consideraba que fuese valioso
darlos, ya que su concepción de la actividad filosófica no la emparentaba con el uso de la
razón argumentativa.
El caso de Nietszche no es único. Hay filósofos como Hegel que han sido acusados
–por otros filósofos– no ya de no argumentar, sino de expresarse en modos ininteligibles,
de manera que si los acusadores están en lo correcto, no tenemos esperanza de saber si
quisieron argumentar o no5 .
Por lo tanto, parece que no es necesario que el filósofo esté preocupado por la argumen-
tación, y por ende, menos aun por la calidad argumental. Pero lo que sí es necesario es que
el estudiante de filosofía lo esté. El estudiante conocerá diversas tradiciones y autores, y es
inevitable que buena parte de lo que llegue a conocer en el transcurso de sus estudios sean
textos argumentativos. Esto es así porque la mayor parte de los filósofos sí han argumentado.
Y parece natural que así sea. En general, se argumenta cuando lo que se sostiene está bajo
el manto de la duda. No solemos argumentar a favor de lo que todo el mundo acepta. Las
opiniones típicas de los filósofos a través de la historia frecuentemente se apartan de lo
que llamaríamos “opiniones normales” en un grado tal que, arrancadas de un contexto
argumentativo, serían tomadas como síntomas de locura. Y si esto parece exagerado, piensen
que esas opiniones incluyen asertos tales como que nada cambia, que todo cambia, que
el mundo exterior no existe, que todo lo existente es pensado por alguna mente, que no
tenemos motivos para creer en los resultados de una inducción, que no hay progreso en
el conocimiento, que el mundo real no es el físico sino otro que recordamos de vivencias

4 No en toda la obra de Nietzsche se da este alejamiento de la argumentación. Por ejemplo, en Genealogía de


la moral los argumentos son claramente discernibles. Sin embargo, el punto es que sus aforismos, o una obra
como Así habló Zaratustra, de altísimo valor poético y nulo valor argumentativo, se consideran obras de valor
filosófico.
5 El lector puede divertirse mucho leyendo las opiniones de Schopenhauer sobre Hegel recogidas en El arte

de insultar.
359

prenatales6 ... cosas que quizá sean verdaderas, pero que no parece muy conveniente decirlas
con convicción a un psiquiatra, y menos sin argumentar.
El estudiante, frente a esos textos argumentativos, naturalmente se preguntará por la
calidad de esos argumentos. Y seguramente intuirá que hay algunos increíblemente buenos
y otros increíblemente malos. Encontrará que un mismo filósofo puede producir unos y
otros, y que esa idea de la calidad argumentativa no estará relacionada con la plausibilidad
a priori de la tesis defendida7 . Y esto nos lleva a la siguiente cuestión.

Lógica y argumentación
Parece entonces que la lógica es algo imprescindible para el estudiante de filosofía.
Quizá lo que el estudiante deba hacer, frente a cualquier argumento, sea sacar la lapicera,
formalizarlo y evaluar si la conclusión es consecuencia semántica o sintáctica de las premisas.
Este uso de la lógica es el que hemos mostrado en el curso, e inclusive lo hemos
esquematizado gráficamente en el inicio del capítulo 5. Lo llamaremos, siguiendo a Seoane
en [Seo14], estrategia traducción – cálculo.
Creemos indudable que la estrategia traducción – cálculo permite, en algunas ocasiones,
obtener un conocimiento acerca del argumento bajo análisis que se presenta en forma
perspicua a través de la formalización y podría permanecer oculto si ella no se efectuase.
Hemos intentado mostrar un ejemplo de ello en 11.6, al analizar la versión cartesiana del
argumento ontológico. Pero esto no siempre es así, por varios motivos.
Supongamos que nos enfrentamos a un texto argumentativo y lo traducimos a un len-
guaje formal. Evaluamos la existencia de la relación de consecuencia semántica o sintáctica y
nuestro dictamen es que no existe esa relación. ¿Podemos estar seguros de que el argumento
es inválido?
Una ligera reflexión nos muestra que no. Es posible que nuestra traducción no haya sido
adecuada. Un ejemplo sencillo es el intento de traducir un silogismo a la lógica proposicional.
En un caso así, advertimos que no estamos aplicando la estrategia traducción – cálculo
adecuadamente, y que una traducción adecuada sería a la silogística o a la lógica de primer
orden. Pero, ¿bajo cuáles condiciones podemos estar seguros de que nuestra traducción
es adecuada? Eso depende de la identificación en el argumento, expresado en lenguaje
natural, de las constantes lógicas que permiten su funcionamiento. Y, sin entrar a explorar
las razones que se puedan esgrimir a favor o en contra de que esta identificación sea siempre
realizable, es claro que esa identificación, previa a la formalización y necesaria para ella, es algo
sobre lo que la lógica no tiene nada que decir, o sea, es algo extralógico. Si entendemos que el
aporte de la lógica a la evaluación argumental se reduce a la aplicación de la estrategia
traducción – cálculo, solo puede comenzar después de la formalización del argumento.
Por otro lado, aunque muchos argumentos son los suficientemente simples como pa-
ra que advirtamos su corrección lógica sin necesidad de formalizarlos, muchos son tan
complejos que su formalización es por lo menos tan dudosa como el argumento mismo,
6 Esta
idea acerca de la “rareza” de las opiniones filosóficas típicas es de David Stove, y parece indiscutible.
7 Por
ejemplo, la filosofía de Berkeley se encuentra bastante reñida con el sentido común, pero al leerlo al
menos por primera vez, uno tiene la sensación de que los argumentos que expone a favor de una visión del
mundo tan extraña son aplastantes. Otro tanto sucede con Hume, sus conclusiones escépticas son bastante
heterodoxas fuera del mundillo filosófico, pero sus argumentos suelen ser brillantes.
360 Epílogo: Lógica, ¿para qué?

aun cuando hayamos identificado las constantes lógicas que están en juego en ellos. Varios
factores coadyuvan para ello. Podemos listar los siguientes:

Dado un argumento expresado en lenguaje natural, muchas veces no sabemos si está


presentado como un argumento deductivo o inductivo. En muchos casos, el autor no
está pretendiendo dar razones concluyentes a favor de su tesis, sino simplemente dar
razones para considerarla plausible o muy probable.
Aun cuando el autor pretenda dar un argumento concluyente, frecuentemente no
explicitará todas las premisas. Normalmente, aquellas premisas que el autor considera
son compartidas por aquellos a quienes está dirigido su argumento, serán omitidas.
Por ejemplo, sería raro que un autor que publique un artículo en Nova et Vetera (una
revista tomista) explicite en sus argumentos premisas que aseguran la aceptación
de una metafísica de tipo aristotélico, premisas que son compartidas por todo el
pensamiento tomista y tales que si no las consideramos, los argumentos serán tenidos
por inválidos. En muchos casos, la explicitación absoluta de todas las premisas de un
argumento deductivo puede hacer que su expresión sea muy larga, y esa explicitación
es muy poco informativa. Por eso cuando se presentan argumentos con la pretensión
de que sean válidos, es normal que aparezcan como entimemas, es decir, con premisas
no explícitas. Por supuesto, cualquier reconstrucción adecuada del argumento las debe
considerar y allí se abre otro frente crucial en el que la lógica no tiene nada que decir.
No hay nada en la lógica que nos permita decidir cuál premisa se debe considerar en
la reconstrucción de un argumento, e incluso si debe agregarse alguna.
Los textos argumentativos pueden ser bastante enrevesados. Suponiendo que todo
se encuentra en el texto, o sea, que está autocontenido –algo no muy frecuente– la
identificación de las premisas y de la conclusión no es un asunto mecánico. Debido a
ello, uno puede encontrar diversas reconstrucciones de un mismo argumento. Y este
asunto puede ocupar libros enteros. Por ejemplo, el libro [Cab99] discute largamente
cómo debe entenderse uno de los dispositivos filosóficos de mayor impacto y difusión
en la modernidad, los argumentos trascendentales, fundamentales en los sistemas de
cuño kantiano.
Aun cuando estemos seguros de que un argumento se ha presentado como deductivo
y de que hemos logrado una traducción adecuada, puede suceder que no sepamos
con qué lógica debemos evaluarlo. Como hemos visto, la evaluación argumental que
hace un clásico no está de acuerdo con la que hace un intuicionista en un campo tan
poco proclive a producir desacuerdos como la matemática, en el que se tiene especial
cuidado en la explicitación de las premisas o al menos en la explicitación de la forma
de reconstruirlas, y no hay duda de que solo se consideran dignos de atención los
argumentos deductivos.

A veces, la aplicación de la estrategia traducción – cálculo da resultados formidables.


Buen ejemplo de ello es lo que se logra en [Sob09], que la utiliza profusamente y se ha
convertido en una obra de referencia para los interesados en la evaluación de los argumentos
acerca de la existencia de Dios. Otras veces, da resultados por lo menos opacos. En opinión
del autor, un ejemplo de ello es [Bar00], donde se leen cosas como la siguiente, precediendo
una pseudoformalización de un argumento de Zenón:
361

Creo que es indispensable el tremendo carácter técnico de lo que sigue: si un


argumento es digno de ser enunciado, es digno de ser enunciado de modo
preciso, y no he logrado encontrar un camino menos [sic] atractivo hacia la
precisión que el que sigo en este caso

Y “el tremendo carácter técnico de lo que sigue” resulta, pocas líneas después, en

La apariencia de todo esto es formidable, pero solo expresa, bajo sus ropajes
formales, la verdad vulgar de que cualquier objeto está formado por las partes
de sus partes.

En definitiva, no se ve que se extraigan frutos particularmente valiosos de la formaliza-


ción, de la que también es objeto, en ese libro, el poema de Parménides. Por supuesto que
se podría argüir que esto se debe a impericia de Barnes pero no creo que sea el caso. Las
reconstrucciones parecen correctas, y se trata de un autor muy agudo. Mi opinión es que
trabaja en terreno poco fértil para la estrategia traducción – cálculo.
Las limitaciones de esta estrategia para un tratamiento universal y uniforme de los
argumentos han llevado a algunos teóricos a la consideración de que la lógica, en realidad,
es una herramienta muy deficiente para la evaluación argumental8 . Sin embargo, como bien
señala Seoane en la obra citada, esto es un error, cuya génesis se encuentra en la idea de que
el único aporte posible de la lógica a la evaluación de los argumentos que normalmente se
encuentran en lenguaje natural es la aplicación de la estrategia referida.
Una consideración detenida de los modos posibles de utilización de la lógica que
trascienden la mera formalización y evaluación de la existencia de las relaciones de conse-
cuencia semántica o sintáctica nos llevaría demasiado lejos. Aquí resumiremos algunas de
las sugerencias de Seoane en el último capítulo de [Seo14], con el fin de mostrar algunas
posibilidades que se abren a quien intenta evaluar un argumento desde el conocimiento de
la teoría lógica, sin ceñirse a la forma tradicional de usarla.
Seoane advierte que si alguien se aproxima a un argumento con el interés exclusivo de
saber si el conjunto de premisas y la conclusión se encuentran en relación de consecuencia
semántica, solamente se centrará en el par formado por un conjunto de premisas y una
conclusión. Y aunque así hemos definido a los argumentos, la actividad argumentativa
presenta una riqueza tal que no se agota en esa especie de producto final. Supongamos que
mi conjunto de premisas es
{Todos los hombres son mortales., Sócrates es hombre.}
y mi conclusión es
Sócrates es mortal.
La consecuencia semántica está asegurada, y desde este estrecho enfoque no hay nada
más que decir. Pero supongamos que el argumento haya sido extraído del siguiente texto:

Aceptamos que todos los hombres son mortales y Sócrates es hombre. De esas dos
premisas se sigue que Platón quiere asesinar a Sócrates. Por lo tanto, concluimos
que Sócrates es mortal.
8 Esta consideración –errada, en mi opinión– ha estado en la base de muchos desarrollos de la moderna

teoría de la argumentación (que no debe confundirse con la lógica, por supuesto).


362 Epílogo: Lógica, ¿para qué?

Este es un texto argumental que alguien exclusivamente interesado en la evaluación de


la consecuencia semántica dará por bueno, ya que esa relación se da entre el conjunto de las
premisas y la conclusión. Pero no es necesario ser lógico para darse cuenta de que se trata
de un adefesio.
¿Qué puede decirnos la lógica acerca de esto?
Si enriquecemos un poco el modelo de evaluación argumental, no atendiendo solamente
a la existencia de la relación de consecuencia semántica entre el conjunto de las premisas y
la conclusión, podemos pensar en un considerar los pasos inferenciales que llevan del primero
a la segunda. En este caso, podemos considerar la relación de consecuencia sintáctica, y aun
sin salir del esquema traducción – cálculo, evaluar si el argumento permite traducir una
derivación. Examinemos con detalle qué pasaría en este caso.
Tomamos el siguiente diccionario:

Nombre o predicado Constante de individuo o letra de relación


. . . es hombre H
. . . es mortal M
. . . quiere asesinar a . . . A
Sócrates s
Platón p

El argumento sugiere una secuencia inferencial que representamos en diagrama de Fitch:

1 ∀x(Hx → Mx)

2 Hs

3 Aps ¿?, 1, 2

4 Ms ¿?

Por más que haya consecuencia semántica y sintáctica de premisas a conclusión, esto no
es una derivación. Y no se trata simplemente de que se haya utilizado una regla derivada.
Observe el lector que el teorema de corrección nos indica que no hay forma de pasar de 1 y 2 a 3.
Puede parecer algo trivial por lo sencillo del ejemplo, pero no lo es. Hay un conocimiento
metateórico, que excede la mera aplicación de la estrategia de traducción – cálculo, que nos está
indicando que algo funciona mal en este argumento. Me gustaría remarcar que la consideración
estrecha de la estrategia traducción–cálculo confina el trabajo lógico al interior de los sistemas
lógicos. Lo que se está mostrando es que la lógica puede ofrecer mucho más que eso si se
amplía el punto de vista. Hay más. Podemos mostrar que el paso 3 es ocioso, aunque es
posible que quien lo haya enunciado lo considere fundamental. Podemos mostrar, (dado
que afirmó que de las premisas surgía que Platón quiere asesinar a Sócrates), que o bien está
razonando en forma incorrecta o bien está suponiendo una premisa implícita que sería bien
representada como (∀x(Hx → Mx) ∨ Hs) → Aps. Podemos también tratar de reconstruir la
relación que encuentra entre Aps y Ms. Es decir, aunque estemos de acuerdo con que las
premisas implican la conclusión, se nos abren múltiples vías de análisis del argumento que
no se agotan en la mera consideración de si existe la relación de consecuencia sintáctica.
363

Seoane propone otros modelos de análisis argumental que hacen un uso muy general de
la lógica, sin agotarse en la estrategia de traducción – cálculo. Particularmente interesante
es uno que además de poner en juego las premisas, la conclusión y los pasos inferenciales,
considera los modos de justificación.
Supongamos que un matemático dice:

Sea n un natural primo menor o igual que 10. Entonces, por LTE, n es menor o
igual a 7 o n no es menor o igual a 7. Si n no es menor o igual a 7, entonces n
es 8, o es 9, o es 10. En ninguno de esos casos es primo. Entonces n es menor o
igual a 7.

Este es un caso interesante en que un intuicionista estaría de acuerdo en que la conclusión


se sigue de la premisa y en que todos los pasos son correctos, pero no estaría de acuerdo en
la justificación que se da a un paso. Para el intuicionista no es LTE lo que justifica que n es
menor o igual a 7 o n no es menor o igual a 7. Lo que justifica esa proposición, desde su
punto de vista, no es LTE, ¡sino la propia premisa del argumento, que expresa que n es un
natural menor o igual que 10!
Parece muy evidente que no hay esperanza de llegar a ser sensible a estas cuestiones, sea
para mediar, para tomar partido por ellas o simplemente para reconocer las profundidades
en las que puede resolverse una cuestión argumentativa, sin involucrarse con la lógica. Por
eso es correcto afirmar que la lógica tiene mucho para aportar al análisis argumental, y que
hay más cosas en el cielo y en la tierra que las que sueñan quienes creen que la utilidad de
la lógica es exactamente la utilidad la estrategia de traducción – cálculo.
Por tanto, si es verdad que la filosofía es una actividad en la que el argumento tiene un
papel central, al menos en muchas de sus tradiciones, y el estudio de la lógica propende
a generar una sensibilidad especial para la evaluación argumentativa, y a proporcionar
un variado almacén de herramientas para ello, el estudio de la lógica es valioso para el
estudiante de filosofía. Y no es necesario formalizar el argumento que se ha ofrecido para
darse cuenta de que es correcto.

Lógica y ética
Me gustaría terminar este curso compartiendo con sus lectores algunas reflexiones
provocadas por la lectura de un artículo de John Corcoran, titulado The Inseparability of Logic
and Ethics [Cor89]. El artículo parte de presupuestos fundamentalmente realistas, recordando
la primera frase de Aristóteles en la Metafísica;

Todos los hombres desean por naturaleza saber.

Muchas veces he creído que este es uno de los mayores disparates de Aristóteles, mucho
peor que su idea de que el cerebro sirve para enfriar la sangre. De hecho, lamentablemente,
cuando observamos el mundo que nos rodea, parece que esa fuera la función del cerebro
en mucha gente. Pero son pensamientos de días malos. Al observar un niño, vemos que
Aristóteles tiene razón y probablemente algo esté matando nuestro deseo de saber, el que sí
es natural.
Aceptado que deseamos saber, Corcoran infiere correctamente que deseamos objetividad,
entendiendo esta virtud como el poner de acuerdo nuestras creencias con los hechos, sin
364 Epílogo: Lógica, ¿para qué?

importar si esto nos agrada o nos disgusta, si nos atemoriza o nos calma, e inclusive si refuta
o reafirma creencias previas. Según él, dada la universalidad del deseo de saber, este deseo
de virtud es una característica que une a la raza humana.
Lo que hace especialmente interesante el planteo es que Corcoran –un lógico muy
respetado, de modo que sabe de qué habla cuando dice lo que sigue– considera que hay
un nexo indisoluble entre lógica y objetividad. Concretamente, expresa que el objetivo de la
lógica es es cultivo de la objetividad.
Es un punto de vista interesante, de larga tradición. El objetivo del cultivo de la lógica
no es ganar discusiones en Facebook ni en ningún otro lugar. Es proporcionar medios
para adecuar las creencias a los hechos, aunque eso nos haga perder una discusión. Es,
aunque Corcoran no lo dice explícitamente, un objetivo muy diferente y a veces opuesto
al de la retórica. Y esto es claro cuando expone los motivos que cree hicieron surgir a la
lógica: nuestra falibilidad y nuestro deseo de conocer la verdad; la brecha entre creencia
y conocimiento, entre sentimiento de certeza y posesión de verdad, entre persuasión y
demostración.
De aquí Corcoran extrae la consecuencia de que la lógica ocupa un lugar importantísimo
en las cuestiones de lo que se ha llamado filosofía práctica, ya que parece innegable que la
objetividad es necesaria para el ejercicio de las demás virtudes, como vemos al pensar en si
será posible la justicia sin objetividad.
El compromiso con la objetividad comporta el estar dispuesto a que las creencias propias
sean objetivamente examinadas.
Por supuesto, entre estudiantes de filosofía debería ser algo de Perogrullo que ante cada
nueva idea, cada nuevo sistema que desafía lo preconcebido, lo normal sería sentir que uno
se juega todo por el todo. Pero lamentablemente, no es así. He conocido estudiantes que se
declaran ateos, por ejemplo, y han sido expuestos a argumentos teístas que no saben refutar
o poner en cuestión siquiera, y siguen tan campantes con su ateísmo sin sentir una molestia
que los lleve a buscar una refutación del argumento o a revisar sus creencias previas. Por no
hablar de las convicciones acendradas en religiosos, o en cuestiones políticas.
La actitud honesta y racional no es cambiar las creencias al primer golpe que reciben, ni
tampoco buscar como un endemoniado la refutación de lo que contradice lo que creemos. La
actitud honesta y racional es comprometerse con tener las mejores creencias que podamos,
afinando su proceso de selección. Nuestras mejores creencias no son las que nos dejan más
cómodos o nos hacen sentir más seguros o más importantes. Son aquellas que mejor se
adecuan a los hechos. Ahora bien, la lógica es un excelente campo de preparación para
ello. Someter nuestras creencias a examen recuerda muy profundamente procedimientos
seguidos en lógica, como considerar muy cuidadosamente inferencias realizadas, o introducir
supuestos en una inferencia, estando dispuestos a rechazar el supuesto, por más querido o
favorable que nos sea, si nos lleva a consecuencias inaceptables.
Cierto es que en el marco de una situación dialógica y confrontativa, estas cuestiones
son acuciantes, y solemos ver que la gente se aparta de estos principios muy fácilmente.
Pero lo mismo ocurre con las cuestiones que normalmente se consideran morales. De hecho,
quizá esto también sea un problema ético. Al menos hay similitudes pasmosas con ciertos
esquemas éticos bien conocidos.
Consideremos un aspecto de esa similitud. Corcoran sugiere una norma para evaluar si
algo es una prueba. Una prueba es un argumento que debe convencernos de su conclusión,
365

haciendo que cambiemos nuestras opiniones previas en caso de que contradijeran esta.
La norma es la siguiente: si me ofrecen algo como prueba, debo preguntarme si yo estaría
dispuesto a dar como concluyente un argumento así, caso que sostuviera su conclusión. En
caso afirmativo, debo aceptar lo propuesto como probado. Recíprocamente, debo ofrecer
argumentos que yo mismo consideraría aceptables si probasen aquello que actualmente no
creo.
La llama la regla de oro de la prueba, y por supuesto que recuerda a esas reglas metálicas
(de oro o plata) que se ven en sistemas éticos y prescriben actuar con los demás del modo en
que nos gustaría que actuaran con nosotros, o al menos abstenerse de actuar con los demás
en modos que no quisiéramos que lo hicieran con nosotros. Su formulación más general es:

argumenta con los demás del mismo modo en que quisieras que los demás
argumentaran contigo.

La cuestión que me parece fascinante es, y pienso esto aun luego de haber perdido la
ingenuidad al ver las dificultades de fundamentación de la ética en principios como los
reseñados: ¿No sería maravilloso que de un principio tan entrañable como ese se pudieran
extraer las leyes de la lógica?
Bibliografía

[Ald43] Henry Aldrich. The Art of Logic. Oxford: J. Vincent, 1843.


[Ari82] Aristóteles. Tratados de Lógica (Órganon) I. Madrid: Gredos, 1982.
[Ari95] Aristóteles. Tratados de Lógica (Órganon) II. Madrid: Gredos, 1995.
[Bac03] Francis Bacon. The New Organon. Cambridge University Press, 2003.
[Bar00] Jonathan Barnes. Los presocráticos. Madrid: Cátedra, 2000.
[Ben65] Paul Benacerraf. “What Numbers Could not Be”. En: Philosophical Review ,74:
47-73 (1965).
[Ben73] Paul Benacerraf. “Mathematical Truth”. En: The Journal of Philosophy , Vol. 70, No.
19: 661-679 (1973).
[Ben03] Jonathan Bennet. A Philosophical Guide to Conditionals. Oxford: Clarendon Press,
2003.
[Boo98] G. Boolos. Logic, Logic and Logic. Cambridge y London: Harvard University Press,
1998.
[BBJ07] G. Boolos, J. Burgess y R. Jeffrey. Computability and Logic. Fifth Edition. New York:
Cambridge University Press, 2007.
[Bor74] Jorge Luis Borges. Obras completas 1923-1972. Buenos Aires: Emecé Editores,
1974.
[Cab99] Isabel Cabrera (Compilador). Argumentos trascendentales. México: Universidad
Nacional Autónoma de México, 1999.
[Car] Lewis Carroll. El juego de la lógica. url: http://www.librosmaravillosos.com/
eljuegodelalogica/pdf/El%20juego%20de%20la%20logica%20- %20Lewis%
20Carroll.pdf.
[Cer80] Miguel de Cervantes Saavedra. El ingenioso hidalgo Don Quijote de la Mancha.
Editado por por Don Joaquin Ibarra ... En Madrid : por Don Joaquin Ibarra ...,
1780. url: http://bibliotecavirtualmadrid.org/bvmadrid_publicacion/
i18n/consulta/registro.cmd?id=774.
[Cor89] John Corcoran. “The Inseparability of Logic and Ethics”. En: Free Inquiry 9
2:37-40 (1989).
[Des13] René Descartes. Meditaciones Metafísicas. University Press, 2013.
[Dum99] Michael Dummet. The Logical Basis of Metaphysics. Cambridge, Massachusetts:
Cambridge University Press, 1999.
368 BIBLIOGRAFÍA

[Dum00] Michael Dummet. Elements of Intuitionism. Oxford: Oxford University Press,


2000.
[Eco99] Umberto Eco. La búsqueda de la lengua perfecta en la cultura europea. Barcelona:
Crítica, 1999.
[Fer79] Clemente Fernández (Compilador). Los filósofos medievales II. Madrid: Biblioteca
de Autores Cristianos, Editorial La Católica, 1979.
[Fou02] Michel Foucault. Las palabras y las cosas. Una arqueología de las ciencias humanas.
Buenos Aires: Siglo XXI Editores Argentina S.A., 2002.
[Fra05] Torkel Franzén. Gödel’s Theorem. An Incomplete Guide to Its Use and Abuse. Welles-
ley: A K Peters, Ltd, 2005.
[Fre72] Gottlob Frege. Conceptografía - Los fundamentos de la aritmética - Otros estudios filo-
sóficos. Instituto de investigaciones filosóficas: Universidad Nacional Autónoma
de México, 1972.
[Fre98] Gottlob Frege. Ensayos de semántica y filosofía de la lógica. Madrid: Editorial Tecnos
S.A., 1998.
[Gen10] Harry Gensler. Introduction to Logic. New York y London: Routledge, 2010.
[Gen69] Gerhard Gentzen. The Collected Works of Gerhard Gentzen. Edited by M. E. Szabo.
Amsterdam - London: North-Holland Publishing Company, 1969.
[Göd90] Kurt Gödel. Collected Works. II: Publications 1938–1974. S. Feferman, J. Dawson, S.
Kleene, G. Moore, R. Solovay, and J. van Heijenoort (eds.) Oxford: Oxford University
Press, 1990.
[Gra90] A. C. Grayling. An introduction to philosophical logic. Oxford: Alden Press, 1990.
[Har12] G. H. Hardy. A Mathematician’s Apology. Cambridge University Press, 2012.
[Hun73] Geffrey Hunter. Metalogic. An Introduction to the Metatheory of Standard First Order
Logic. Berkeley y Los Angeles: University of California Press, 1973.
[Kan98] Immanuel Kant. Crítica de la razón pura. España: Alfaguara, 1998.
[KK80] William Kneale y Martha Kneale. El desarrollo de la Lógica. Madrid: Editorial
Tecnos, 1980.
[Lac18] Lactantius. On the Anger of God. 318. url: http://www.newadvent.org/fathers/
0703.htm.
[Lei83] G. W. Leibniz. Nuevos ensayos sobre el entendimiento humano. Madrid: Editora
Nacional, 1983.
[Mat61] Benson Mates. Stoic Logic. Berkeley y Los Angeles: University of California Press,
1961.
[Mei04] Alexius Meinong. The Theory of Objects. 1904. url: http://www.hist-analytic.
com/Meinongobjects.pdf.
[Mül61] Max Müller. Lectures on the Science of Language. London: Longman, Green, Long-
man y Roberts, 1861.
[Pla87] Platón. Diálogos II. España: Gredos, 1987.
BIBLIOGRAFÍA 369

[Rud90] Walter Rudin. Principios de análisis matemático. Madrid: MacGraw-Hill, 1990.


[Rus05] Bertrand Russell. “Sobre el denotar”. En: Semántica filosófica: problemas y discusio-
nes. T. M. Simpson (Comp.) (1905).
[Rus19] Bertrand Russell. Introduction to Mathematical Philosophy. London: George Allen
& Unwin, Ltd., 1919.
[Rus09] Bertrand Russell. Our Knowledge of the External World. Taylor & Francis Routledge,
2009.
[Sai90] Mark Sainsbury. Logical Forms. An introduction to philosophical logic. Cambridge:
Basil Blackwell Ltd, 1990.
[Seo14] José Seoane. Lógica y Argumento. Montevideo: Ediciones Universitarias, 2014.
[Smu95a] Raymond Smullyan. First-Order Logic. New York: Dover Publications, Inc., 1995.
[Smu95b] Raymond Smullyan. Juegos por siempre misteriosos. Barcelona: Gedisa, 1995.
[Smu09] Raymond Smullyan. Logical labyrinths. Canada: A K Peters, Ltd, 2009.
[Sob09] Jordan Howard Sobel. Logic and Theism. Arguments For and Against Beliefs in God.
Cambridge University Press, 2009.
[SB99] Alan Sokal y Jean Bricmont. Imposturas intelectuales. Barcelona Buenos Aires
México: Paidós, 1999.
[Spa07] Paul Vincent Spade. Thoughts, Words and Things: An Introduction to late Medieval
Logic and Semantic Theory. 2007. url: http : / / pvspade . com / Logic / docs /
Thoughts,%20Words%20and%20Things1_2.pdf.
[Sto93] David Stove. El culto a Platón y otras locuras filosóficas. Madrid: Cátedra, 1993.
Índice alfabético

A C
ajedrez, 58 Carnap, Rudolf, 117
Alphago, 60 Carroll, Lewis, 287
ambigüedad estructural, 41, 67, 70, 72, 214 Cervantes, Miguel de, 264
Anaximandro, 357 Chinook, 60
Anderssen, Adolf, 58 Church, Alonzo, 237
Anselmo de Canterbury, 35, 262, 269 compromiso existencial, 282
aparato deductivo, 185 conceptografía, 47, 56, 207
intuicionista, 197 conceptos fregeanos, 215
árbol de formación de fórmulas condición
de LP, 76 necesaria, 114
de LPO, 220 suficiente, 114
argumento, 10, 12 condicional asociado, 127
deductivo, 16 conjunto
inductivo, 16 adecuado de conectivos, 99
ontológico, 262 consistente, 182, 317
sólido, 16 de Hintikka, 341
trascendental, 360 satisfacible, 93, 239
válido, 15 consecuencia
semántica
Aristóteles, 16, 36, 39–42, 47, 57, 122, 191,
206, 279, 288, 357, 363 compacta, 339
asignación proposicional, 88, 90 en LP, 124
en LPO, 271
axioma, 185
sintáctica
en LP, 164
B en LPO, 307
Bacon, Francis, 42 contingencia, 85, 236
Barnes, Jonathan, 361 contradicción, 85, 236
Benacerraf, Paul, 191 en sentido sintáctico, 143
Berkeley, George, 359 contrafácticos, 113
Boecio, 288 contramodelo
Boole, George, 288 en LP, 90
Boolos, George, 316 en LPO, 235
Borges, Jorge Luis, 43 conversión
372 ÍNDICE ALFABÉTICO

per accidens, 283 Frege, Gottlob, 47, 56, 57, 191, 207, 214,
simpliciter, 282 215, 246, 259, 260, 265, 288, 317,
Corcoran, John, 363, 364 318
Corti, Aníbal, 127 Freudenthal, Hans, 46
cuadrado de oposición, 280
G
D Gassendi, Pierre, 264
Dalgarno, George, 43 Gaunilo, 264
damas, 60 Gensler, Harry, 121
De Morgan, Augustus, 32, 100 Gentzen, Gerhard, 160
Deep Blue, 60 Gingerich, Owen, 135
derivación go, 59
en LP, 164 Gödel, Kurt, 35, 191, 192, 354
en LPO, 306
H
en sistema formal axiomático, 187
Hardy, G. H., 191
Descartes, René, 35, 36, 43, 262–264, 266,
Hegel, Georg Wilhelm, 117, 358
267, 358
Hesíodo, 357
descripción definida, 257
Hintikka, Jaako, 339
diagrama de Fitch, 161
Hume, David, 17, 36, 359
Dickman, Max, 282
I
E
identidad de indiscernibles, 295
Eco, Umberto, 17, 42, 44
implicación, 131, 238
ECQ (ex contradictione quodlibet), 173
indecidibilidad de LPO, 237
Epicuro, 264
individuos destacados, 226
equivalencia
inducción
de fórmulas en LP, 95
sobre derivaciones, 188
de sentencias en LPO, 238
sobre fórmulas, 73
relación de, 295
inferencia, 10
esperanto, 45
infinito actual y potencial, 193
estructura, 228
interpretación
Euler, Leonhard, 60
BHK, 194
extensión de un lenguaje, 232
de LP, 83
inducida, 90
F
para un lenguaje de primer orden, 228
figura de un silogismo, 284
Fitch, Fredric Brenton, 161 J
fórmula Jaśkowski, Stanislaw, 160
abierta, 219
cerrada, 219 K
de LP, 70 Kant, Immanuel, 36, 119, 190, 207, 264, 288
de LPO, 217 Kasparov, Garry, 60
de un lenguaje formal, 47 Kawabata, Yasunari, 59
válida, 236 Kisieritzky, Lionel, 58
Foucault, Michel, 44 Klima, Gyula, 269
ÍNDICE ALFABÉTICO 373

L Plantinga, Alvin, 35
Lafferty, Don, 60 Platón, 35, 39
Lander, L. J., 61 platonismo matemático, 191
Leibniz, Gottfried, 35, 44, 263, 295 polisemia, 41
lema de Hintikka, 341 Popul Vuh, 357
lenguaje formal, 47 Post, Emil, 88
alfabeto, 47 predicados, 215
semántica, 47 principio de Dirichlet, 244
sintaxis, 47 proposición, 11
lenguaje objeto, 54 categórica, 280
lenguas proyecto SETI, 46
artificiales, 42, 46
R
filosóficas, 43
reglas de inferencia
internacionales, 45
en sistema formal, 185
naturales, 40
para LP, 161
letras proposicionales, 66
para LPO, 305
Lewis, C. S., 83
Russell, Bertrand, 259–262, 288, 289, 318
Lincos, 46
lógica S
aristotélica, 40, 279–282, 287–289 Schopenhauer, Arthur, 358
intuicionista, 190 secuencia de formación
libre, 282 en LP, 69
LTE (ley del tercero excluido), 195 en LPO, 217
Sedol, Lee, 60
M Selinger, Peter, 182
Meinong, Alexius, 259 sentencia, 219
metalenguaje, 54 Seoane, José, 359, 361, 363
Minoru, Kitani, 59 Shusai, 59
modelo silogismo categórico, 283
en LP, 90 silogística, 206, 279
en LPO, 235 símbolos
modo de un silogismo, 284 lógicos, 222
no lógicos, 222
N
sistema
Nietzsche, Friedrich, 358
completo, 326
nurikabe, 3
correcto, 326
O sistema axiomático, 188
Oliver, James Willard, 134 sistema formal, 185
Oller, Carlos, 134 Smullyan, Raymond, 17, 236
sorites, 287
P Spinoza, Baruch, 35
paradoja Stove, David, 132, 359
de Grelling, 246 subfórmula
de Russell, 246 en LP, 77
Parkin, T. R., 61 en LPO, 220
374 ÍNDICE ALFABÉTICO

suposición del “absurdo” (versión semántica)


formal, 55 en LP, 131
material, 55 en LPO, 275
del “absurdo” (versión sintáctica)
T
en LP, 184
tablas de verdad, 85
en LPO, 317
Tales, 357
del condicional asociado, 128
tautología
en sistema formal, 188
en LP, 85
términos
en LPO, 238
de LPO, 216
teorema
en lógica aristotélica, 279
de compacidad para LP, 342
tesis de Hilbert, 206
de completitud
Tiberio, 42
de LP, 353
Tinsley, Marion, 60
de LPO, 354
Tolkien, J. R. R., 46
de conjuntos adecuados unitarios, 102
Tomás de Aquino, 36
de corrección, 327
Turing, Alan, 237
de deducción (versión semántica)
en LP, 130 U
en LPO, 275 uso–mención, 55
de deducción (versión sintáctica)
en LP, 183 V
en LPO, 317 valores de verdad, 82
de determinación recíproca de valuación
asignaciones e interpretaciones, booleana, 238
88 de LP, 82
de lectura única variable
en LP, 75 libre, 218
en LPO, 220 ligada, 218
de monotonía (versión semántica) variables, 216
en LP, 125 volapük, 45
en LPO, 274
de monotonía (versión sintáctica) W
en LP, 183 Wilkins, John, 43
en LPO, 317 Wittgenstein, Ludwig, 88

También podría gustarte