Subido por karinapmdeo

Lógica

Anuncio
UN PRIMER CURSO DE LÓGICA
PARA ESTUDIANTES DE FILOSOFÍA
Miguel Molina
Un primer curso de Lógica
Para estudiantes de Filosofía
Miguel Molina
Toda la historia de la lógica es un intento por definir una noción
aceptable de estupidez. Demasiado ambicioso.
U MBERTO E CO
Copyright c 2013 John Smith
P UBLISHED BY P UBLISHER
BOOK - WEBSITE . COM
Licensed under the Creative Commons Attribution-NonCommercial 3.0 Unported License (the
“License”). You may not use this file except in compliance with the License. You may obtain a copy
of the License at http://creativecommons.org/licenses/by-nc/3.0. Unless required by
applicable law or agreed to in writing, software distributed under the License is distributed on an
“AS IS ” BASIS , WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and limitations under the License.
First printing, March 2013
Prefacio
Índice general
Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
I
Lógica
I
1
¿Lógica? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1
Dos acertijos
1.1.1
1.1.2
Nurikabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
El oso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2
Inferencias, proposiciones y argumentos
14
1.3
El problema de la calidad
17
1.4
Argumentos deductivos e inductivos
19
1.5
Lógica: primera aproximación
21
1.6
Una clase importante de argumentos válidos
21
1.6.1
1.6.2
La biblioteca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Nigra sum, sed formosa: la forma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.7
¿Qué es la lógica?
34
1.8
Ejercicios
36
2
Naturaleza, artificio y forma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.1
Las lenguas naturales
42
2.2
Lenguas artificiales
44
2.2.1
2.2.2
Las lenguas internacionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Otras lenguas artificiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
9
2.3
Lenguajes formales
48
2.3.1
Lenguaje y metalenguaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.4
Lógica y lenguajes formales
56
2.5
Ejercicios
58
Lógica proposicional
II
3
Sintaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.1
Alfabeto
61
3.2
Fórmulas
64
3.3
El bloqueo de la ambigüedad estructural
66
3.3.1
Inducción sobre fórmulas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.4
El teorema de lectura única
68
3.5
Árbol de formación de una fórmula
71
3.6
Ejercicios
73
4
Semántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.1
Verdadero, falso e interpretaciones
76
4.2
Tautologías, contradicciones y contingencias
78
4.3
Tablas de verdad
79
4.4
Asignaciones proposicionales e interpretaciones
81
4.5
Modelos y contramodelos
83
4.6
Vuelta a la biblioteca
86
4.6.1
4.6.2
Una advertencia importante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
La tabla de verdad en la biblioteca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.7
¿Decir lo mismo? Equivalencia
87
4.8
¿Será suficiente? Conjuntos adecuados de conectivos
89
4.9
Ejercicios
95
5
Conectivos lógicos y lenguaje natural . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.1
El conectivo ¬
5.1.1
5.1.2
5.1.3
La negación de proposiciones cuantificadas . . . . . . . . . . . . . . . . . . . . . . . . . . 99
La negación de proposiciones que expresan relaciones asimétricas . . . . . . 100
La negación de algunas proposiciones modalizadas que expresan creencia, posibilidad, etc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.2
El conectivo ∧
101
5.3
El conectivo ∨
102
5.4
El conectivo →
103
5.4.1
5.4.2
5.4.3
Condiciones suficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
Condiciones necesarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
Condicionales expresados con un “y” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.5
El conectivo ↔
105
5.6
Ejercicios
106
98
6
Consecuencia semántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.1
La validez en el lenguaje formal
109
6.2
La relación de consecuencia semántica
111
6.3
Conjuntos insatisfacibles y contradicciones
112
6.4
Conjunto vacío y tautologías
113
6.5
Monotonía
113
6.6
El condicional asociado
115
6.7
El teorema de deducción (versión semántica)
117
6.8
El “absurdo”
118
6.9
Ejercicios
119
7
Consecuencia sintáctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
7.1
Tras las huellas de los humanos
7.1.1
7.1.2
Pensar como la gente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
¿Qué nos falta? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
7.2
El sistema de deducción natural para L P
143
7.3
Consecuencia sintáctica
147
7.3.1
Acerca de las derivaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
7.4
Heurística
149
7.5
Errores frecuentes al intentar hacer derivaciones
160
7.5.1
7.5.2
7.5.3
7.5.4
Creer en la magia . . . . . . . . . . . . . . . . . . .
Invocar fórmulas bajo supuestos cerrados
No cerrar supuestos . . . . . . . . . . . . . . . . . .
Abusar del conocimiento semántico . . . .
7.6
Propiedades de la relación de consecuencia sintáctica
7.6.1
7.6.2
7.6.3
7.6.4
Consecuencias de conjuntos inconsistentes .
Monotonía . . . . . . . . . . . . . . . . . . . . . . . . . . . .
El teorema de deducción (versión sintáctica)
El “absurdo” . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.7
Aparatos deductivos
7.7.1
7.7.2
7.7.3
Derivaciones en sistemas formales axiomáticos . . . . . . . . . . . . . . . . . . . . . . . 169
Inducción sobre la longitud de las derivaciones . . . . . . . . . . . . . . . . . . . . . . 170
Un sistema axiomático para la lógica proposicional . . . . . . . . . . . . . . . . . . . 170
7.8
Excurso filosófico: Lógica intuicionista
171
7.9
Ejercicios
179
123
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
160
161
163
163
163
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
164
164
164
165
167
Lógica de primer orden
III
8
Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
9
Sintaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
9.1
Alfabeto
189
9.2
Fórmulas
194
9.3
El teorema de lectura única
199
9.4
Árbol de formación de una fórmula
199
9.5
Lenguajes de Primer Orden
200
10
Semántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
10.1
Interpretaciones
203
10.2
Estructuras
206
10.3
Valores de verdad bajo una interpretación
207
10.3.1
10.3.2
10.3.3
10.3.4
10.3.5
Fórmulas atómicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuantificador universal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuantificador existencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Comportamiento semántico de los conectivos proposicionales . . . .
Evaluación semántica de un lenguaje L bajo una interpretación M
10.4
Modelos, fórmulas válidas, tautologías
212
10.5
Conjuntos satisfacibles e insatisfacibles
215
11
L PO y lenguaje natural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
11.1
La elección de los predicados
221
11.2
La cuantificación
224
11.3
En la práctica
225
11.4
La igualdad
228
11.5
Excurso filosófico: Descripciones definidas según Russell
11.5.1
11.5.2
11.5.3
11.5.4
Planteamiento del problema
Frege . . . . . . . . . . . . . . . . . . .
Meinong . . . . . . . . . . . . . . . .
Russell . . . . . . . . . . . . . . . . . . .
11.6
Excurso filosófico: Una versión del argumento ontológico
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
207
208
210
211
211
229
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
229
231
231
232
233
11.6.1 La versión cartesiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
11.6.2 Objeciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
11.6.3 La falacia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
12
Consecuencia semántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
12.1
Definición y primeros ejemplos
239
12.2
Propiedades de la consecuencia semántica en primer orden
242
12.3
La consecuencia semántica y la corrección argumental
244
12.4
Excurso filosófico: Lógica aristotélica y crítica de Russell
246
12.4.1 La lógica aristotélica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
12.4.2 Alcance de la lógica aristotélica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
12.4.3 Implicaciones filosóficas según Russell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
13
Consecuencia sintáctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
13.1
Las reglas de inferencia
257
13.1.1 La igualdad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
13.1.2 Los cuantificadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
13.2
El sistema de deducción natural para L PO
267
13.3
Consecuencia sintáctica
269
13.4
Heurística
269
13.5
Propiedades de la consecuencia sintáctica
278
13.6
Excurso filosófico: Contextos indirectos
279
IV
Metateoría
14
Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
15
Corrección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
15.1
La demostración
285
15.2
Consecuencias de la corrección
292
16
Compacidad y completitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
16.1
Compacidad
296
16.1.1 Compacidad de L P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
16.1.2 El teorema de compacidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
16.2
Completitud de L P
300
16.2.1 La idea de la demostración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
16.2.2 El teorema de completitud para L P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
16.3
En L PO
312
Epílogo: Lógica, ¿para qué? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
Índice alfabético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
I
Lógica
1
¿Lógica? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
Dos acertijos
Inferencias, proposiciones y argumentos
El problema de la calidad
Argumentos deductivos e inductivos
Lógica: primera aproximación
Una clase importante de argumentos válidos
¿Qué es la lógica?
Ejercicios
2
Naturaleza, artificio y forma . . . . . . . . . . 41
2.1
2.2
2.3
2.4
2.5
Las lenguas naturales
Lenguas artificiales
Lenguajes formales
Lógica y lenguajes formales
Ejercicios
1. ¿Lógica?
N esta primera parte intentaremos dar una respuesta a la pregunta “¿Qué es la lógica?”.
Como el lector imaginará, no se trata de una pregunta que admita una respuesta a la vez
correcta, comprensible para quien la desconoce a priori y que se pueda dar en pocas líneas.
Así es que comenzaremos un recorrido tendiente a responderla, en el cual revisaremos variados
elementos necesarios para ello.
Por poco contacto que hayamos tenido con la ciencia de la lógica, sabemos que esta tiene
relación con el razonamiento. Vamos, por tanto, a comenzar nuestro recorrido resolviendo algunos
problemas y acertijos, con la esperanza de que esa actividad, que seguramente será divertida, nos
ayude a aproximarnos a una comprensión cabal de qué es la lógica.
E
1.1
1.1.1
Dos acertijos
Nurikabe
El Nurikabe es un juego inventado en Japón en el año 1991, aparentemente por la compañía
Nikoli1 , en el que se parte de una grilla cuadrada en algunas de cuyas casillas hay números, y el
objetivo es determinar cuáles casillas son blancas y cuáles negras según reglas dadas. La figura
siguiente muestra la disposición inicial de un nurikabe de 5x5 y su solución.
5
4
1
4
5
4
1
4
Antes de dar las reglas que nos permitirán determinar cuáles cuadrados deben quedar negros y
cuáles no, introduzcamos dos términos que nos serán útiles.
1 http://es.wikipedia.org/wiki/Nurikabe,
consultada el 4 de agosto de 2013.
Capítulo 1. ¿Lógica?
10
Diremos que las casillas negras representan agua, mientras que las blancas representan islas.
Las reglas son:
1. Toda casilla debe quedar al final en negro (agua) o en blanco (o sea, formar parte de una isla
o ser ella misma una isla).
2. Todas las casillas que representan agua deben quedar conectadas; es decir se debe poder
ir desde cualquier casilla con agua hasta cualquier otra también con agua sin pasar jamás
por una isla. La conexión se da a través de los lados. Si dos casillas con agua comparten un
vértice pero no un lado, ese contacto no cuenta como conexión.
3. No debe quedar ningún cuadrado de 2x2 formado solamente por casillas con agua.
4. Cada casilla numerada debe estar en una isla formada por tantas casillas como indica su
número. Las islas están formadas por casillas conectadas por un lado. Ninguna isla debe
tener más de una casilla numerada en su interior.
Observe que en la solución ofrecida se cumplen todas las condiciones impuestas por las reglas.
Examinemos ahora la resolución de un nurikabe. En las figuras hemos agregado un sistema de
coordenadas a la grilla (letras para las columnas, números para las filas), de modo que podamos
referir a cada casilla individualmente. La disposición inicial es la siguiente:
5
2
2
1
3
3
4
3
2
1
A B C D E
Podemos resolver el problema de descubrir cuáles casillas tienen agua siguiendo este razonamiento:
Paso 1: Observe la casilla A2. Según la regla 4, esa casilla debe constituir por sí sola una isla.
Por lo tanto, debe estar completamente rodeada de agua. Por eso, se deduce que las casillas A1, B2
y A3 tienen agua.
5
2
2
1
3
3
4
3
2
1
A B C D E
Paso 2: Las casillas B5 y D5 separan casillas numeradas. Si no tuvieran agua, existirían islas
con más de una casilla numerada en ellas, violando la regla 4. Por lo tanto, en B5 y D5 hay agua.
5
2
2
1
3
3
4
3
2
1
A B C D E
1.1 Dos acertijos
11
Paso 3: La regla 2 indica que todas las casillas que tienen agua deben estar conectadas. Para
que las casillas con agua A1, B5 y D5 no queden aisladas, es necesario que haya agua en B1, B4 y
D4.
5
2
2
1
3
3
4
3
2
1
A B C D E
Paso 4: Por regla 2, en A4 no puede haber agua, para conformar la isla de A5. Entonces, la
única forma de que el agua de A3 no quede aislada es que haya agua en B3.
5
2
2
1
3
3
4
3
2
1
A B C D E
Paso 5: Por regla 4, las casillas C4 y C5 deben conformar una isla, de manera que en C3 debe
haber agua.
5
2
2
1
3
3
4
3
2
1
A B C D E
Paso 6: Por regla 4, las casillas E5, E4 y E3 deben conformar una isla, de manera que en D3 y
E2 debe haber agua.
5
2
2
1
3
3
4
3
2
1
A B C D E
Paso 7: Por regla 4, la casilla C2 forma parte de una isla de 3 casillas, que solo pueden ser C1,
C2 y D2 o C2, D2 y D1. Y no hay más islas. En cualquiera de los dos casos, en la casilla E1 hay
agua, y por tanto, en E1 hay agua.
Capítulo 1. ¿Lógica?
12
5
2
2
1
3
3
4
3
2
1
A B C D E
Paso 8: Por regla 2, el agua de las casillas E1 y E2 debe quedar conectada con el resto del agua
que aparece en la grilla. La conexión puede hacerse o bien a través de E3, pero en este caso la isla
de E5 quedaría con dos casillas, no con tres; o bien a través de D1 y C1, pero en este caso la isla de
C2 quedaría con dos casillas, no con tres; o bien a través de D2. Esta es la única posibilidad de no
violar las reglas. Entonces, hay agua en D2 y con esto queda resuelto el nurikabe propuesto.
5
2
2
1
3
3
4
3
2
1
A B C D E
Reflexionemos sobre lo que acabamos de hacer. Estamos absolutamente seguros de que hemos
resuelto el nurikabe. Además, repasando el razonamiento que hicimos para conseguirlo, nos
convencemos fácilmente de que hemos hallado la única solución de este. En cada paso hemos
estado “obligados” a optar como lo hicimos, de manera que no hay otra solución.
Si se nos presenta la configuración inicial, y se nos dice que algunas casillas son blancas y
otras son negras, respetando las reglas, podemos estar seguros, absolutamente seguros, a través del
razonamiento hecho, de que si la configuración inicial es esa, y las reglas se cumplen, entonces las
casillas negras son A1, B1, B2, A3, B3, B4, B5, C3, D2, D3, D4, D5, E1, E2, y las restantes son
blancas.
Es imposible que si es verdad que en un nurikabe de 5x5 la configuración inicial es la dada y
las reglas se cumplen, la solución sea otra o no haya solución.
Examinemos ahora un conocido problema.
1.1.2
El oso
El problema del oso es muy famoso. Fue votado como uno de los diez acertijos más conocidos
en la lista de correo Snark, dedicada a los juegos de ingenio2 , y considero poco probable que el
lector no lo conozca. Sin embargo, será valioso analizarlo. El acertijo se enuncia así:
Un oso camina 10 kilómetros hacia el sur, 10 hacia el este, y 10 hacia el norte, volviendo al
punto del que partió. ¿Cuál es el color es el oso?
Es muy probable que si el lector conoce el acertijo, recuerde que en la versión por él conocida
aparecía un cazador. Pero aquí analizaremos el pelaje del animal que pasea tranquilamente, sin que
nadie lo moleste.
2 Seguramente, la mejor lista de correo para compartir acertijos en español. Para inscribirse:
http://mailman.uba.ar/mailman/listinfo/snark
1.1 Dos acertijos
13
Parece que de los datos no podemos inferir nada sobre el color del oso. Después de todo, saber
que algo se movió así o asá no parece decir nada acerca de su color. Pero examinemos el enunciado
con más detenimiento. Tiene algo extraño: se nos dice que el oso comienza y termina su recorrido
en el mismo punto. Hagamos un diagrama, suponiendo que el oso parte de A:
D
A
10 km
10 km
B
10 km
C
Obviamente, esto no puede ser. Aparentemente, el problema está mal planteado, ya que el oso
no empieza y termina su recorrido en el mismo punto, sino en un punto que dista 10 Km de donde
partió.
Pero en realidad, el problema es nuestro, ya que este diagrama representa el recorrido del oso
en un plano, y hace ya algún tiempo que la humanidad sabe que no vive en un planeta con forma de
plato. Por lo tanto, una representación más adecuada sería la siguiente:
N
A
B
D
C
W
E
S
Ahora vemos que no es verdad, en general, que el oso termine a 10 Km de donde empezó. Y
también es obvio dónde puede empezar su recorrido el oso para cumplir las condiciones impuestas
por el acertijo:
N
A=D
B
C
W
E
S
Capítulo 1. ¿Lógica?
14
Aparentemente, el oso partió del Polo Norte y volvió allí. Nunca estuvo a una distancia mayor
a 10 kilómetros del polo. ¿Es necesariamente esto así? Tal vez el lector no resuelva problemas
de geometría esférica todos los días, de modo que adelantamos la respuesta: No, el oso también
puede moverse en las inmediaciones del Polo Sur. Considere lo siguiente: existe un paralelo en
el hemisferio sur cuya circunferencia mide exactamente 10 kilómetros. El oso puede haberse
encontrado 10 kilómetros al norte de ese paralelo al comenzar su recorrido. Al caminar 10 km al
sur, llega a ese paralelo, luego lo recorre completamente caminando siempre hacia el este, con lo
que vuelve al punto en que llegó a ese paralelo caminando 10 kilómetros, y al moverse al norte 10
kilómetros vuelve al punto de partida. La figura siguiente muestra una posible trayectoria del oso
(en una escala exagerada):
S
W
E
N
Y no hay más lugares donde pueda estar el oso para cumplir con el enunciado del acertijo.
Entonces, ni siquiera sabemos dónde está el oso. Sin embargo, en la Antártida (que es donde
se mueve el oso si está en el hemisferio sur) no hay osos. Por lo tanto, el oso se mueve en las
inmediaciones del Polo Norte. Así que: ¿De qué color es el oso? La respuesta parece obvia: si está
en las inmediaciones del Polo Norte, debe ser un oso polar, y por lo tanto, blanco.
Es verdad que se considera que esa es la respuesta correcta al acertijo, y en cierto sentido, lo es.
Pero, ¿realmente el oso tiene que ser blanco?
En realidad, si pensamos bien, el problema es totalmente equivalente, en cuanto a lo relevante,
a “Hay un oso en el Polo Norte o muy cerca del Polo Sur. ¿Cuál es su color?”. Nadie discutirá que
es sumamente razonable responder que es blanco. Pero evidentemente, no es absolutamente seguro
que el oso sea blanco, aun si está en el Polo Norte. Podría ser un oso grolar, un híbrido raro de
oso polar y oso pardo, que tiene características de sus dos padres y su pelaje a veces no es blanco.
Podría ser un oso pardo, perdido por allí. Podría ser de cualquier color, en realidad. Por improbable
que parezca, podría ser un oso polar al que alguien haya pintado de rojo. Esto sin contar con que
el enunciado del problema es compatible con que el oso esté en el hemisferio sur, en cuyo caso
no tendríamos razón alguna para afirmar que es de un color u otro. Por supuesto, es muy poco
razonable decir algo como que el oso es rojo. Pero no es imposible que el oso sea rojo, por más que
haya caminado 10 kilómetros al sur, luego 10 kilómetros al este, luego 10 kilómetros al norte y
haya vuelto a su punto de partida.
1.2
Inferencias, proposiciones y argumentos
Revisemos lo que hemos hecho con el nurikabe y el problema del oso. En ambos casos hemos
partido de una información dada (la disposición inicial y las reglas del nurikabe en un caso; que el
animal cuyo color debíamos hallar era un oso -observe que si nos hubieran dicho que un mamífero
hacía el recorrido que se le atribuyó al oso, no hubiéramos encontrado una respuesta tan razonabley el recorrido que hizo en otro), y hemos arribado a una conclusión.
1.2 Inferencias, proposiciones y argumentos
15
¿Y qué es una conclusión? ¿Por qué algo es una conclusión? Parece claro que la conclusión es lo
que afirmamos luego de examinar cuidadosamente la información proporcionada. Ese examen fue
necesario porque hay una determinada relación entre la conclusión y la información que nos dieron,
una relación que no es fácil de precisar, pero que podemos presentar, en una primera aproximación
así: en caso de que la información proporcionada sea correcta, la conclusión es muy plausible.
Vamos a llamar inferir a la actividad de extraer una conclusión de una información dada.
La inferencia correspondiente será la información dada junto con su conclusión, siempre que
distingamos la conclusión de la información dada.
Es esta una definición muy amplia. Supongamos que estoy en mi casa, ya acostado, y siento
hambre. Me levanto sin encender la luz y me dirijo a la cocina. Antes de llegar, siento un ruido de
arrastre junto con un agudísimo dolor en el dedo meñique del pie derecho. Infiero que me llevé por
delante un mueble. En este caso, buena parte de la información relevante para extraer la conclusión
está presentada en una forma dolorosamente sensorial, no lingüística. Por otro lado, si al otro día le
cuento a un amigo “Anoche estaba ya acostado y me vino hambre. Me levanto sin prender la luz,
doy un par de pasos y ¡pah! sentí que me arrancaban el dedo chiquito del pie derecho...”, y mi amigo
me interrumpe diciendo “¡Ja! Te llevaste un mueble por delante.”, él ha concluido lo mismo que
yo, pero lo ha hecho desde información presentada en forma lingüística, o menos ampulosamente,
mediante un lenguaje, en este caso, el español.
Como veremos en breve, vamos a interesarnos exclusivamente por las inferencias en las que la
conclusión surge o se extrae a partir de fragmentos lingüísticos, es decir, de expresiones de algún
lenguaje, y llamaremos argumentos a estas inferencias.
Desde este punto de vista, un argumento quedará determinado por un conjunto de expresiones
lingüísticas: las que contienen la información dada, y la que contiene la conclusión.
Nos interesa volver a presentar la inferencia del nurikabe bajo esta luz. Para hacerlo, definamos
algunos términos: Por “nurikabe de 5x5” entendemos una grilla cuadrada de 5 casillas de lado, en
la cual algunas casillas contienen números. En un nurikabe 5x5 etiquetamos las columnas como
A, B, C, D y F (en ese orden) y las columnas como 1, 2, 3, 4 y 5 (en ese orden). Por “casilla xy”
significamos la casilla que se encuentra en la columna x y en la fila y. Dos casillas diferentes se
llamarán contiguas si comparten un lado, y diremos que dos casillas α y ω están conectadas por
negras (blancas) si hay una sucesión de casillas negras (blancas) tal que cada casilla –excepto la
primera– es contigua a la anterior, todas las casillas de la sucesión son negras (blancas) y la primera
casilla de la sucesión es α y la última es ω.
Podemos mostrar así la inferencia colocando la conclusión bajo una línea horizontal sobre la cual
se encuentran las expresiones que contienen la información dada:
Inferencia del nurikabe
En un nurikabe de 5x5, en la casilla A2 hay un 1; en las casillas A5 y C5 hay un 2; en la
casilla E5 hay un 3 y ninguna casilla, además de estas, contiene un número.
Toda casilla del nurikabe es blanca o negra (y no ambas cosas).
Todas las casillas negras están conectadas por negras
No hay cuatro casillas negras que ocupen la intersección de dos filas consecutivas con dos
columnas consecutivas.
Si una casilla contiene el número n es blanca. Además, existen exactamente n − 1 casillas
blancas que no tienen número y están conectadas con ella.
Todas las casillas blancas que no contienen un número están conectadas por blancas con
exactamente una casilla que sí contiene un número.
Las casillas A2, A4, A5, C1, C2, C4, C5, D1, E3, E4, E5 son blancas; las restantes son
negras.
Capítulo 1. ¿Lógica?
16
Y podemos hacer lo mismo para la inferencia del oso:
Inferencia del oso
Un oso caminó 10 kilómetros al sur de su punto de partida, giró al este y caminó 10
kilómetros, giró al norte, caminó 10 kilómetros y volvió a su punto de partida.
El oso es blanco
Ahora veremos qué características tienen las expresiones lingüísticas que nos proporcionan la
información necesaria para hacer inferencias.
Hay una clase de expresiones que tienen la característica de que podemos decir de ellas que son
verdaderas o falsas. La clasificación de las expresiones según los cánones de la gramática española
no nos ayudará demasiado a identificarlas, pues si bien las oraciones llamadas asertivas normalmente
cumplen la condición que nos llama la atención ahora –es decir, pueden ser verdaderas o falsas–,
no son las únicas que la cumplen. Por lo tanto, apelaremos a nuestra condición de hablantes
competentes de la lengua para identificarlas.
Podemos hacer una lista en dos columnas, y reconocer inmediatamente que de las expresiones
de la izquierda podemos decir que son verdaderas o falsas, mientras que de las expresiones de la
derecha no podemos decir lo mismo.
Con valor de verdad
Sin valor de verdad
Está lloviendo.
Salió el sol.
Partes el pan.
Me duele.
¿Está lloviendo?
Ojalá salga el sol.
Por favor, parte el pan.
¡Ay!
Los ejemplos podrían multiplicarse indefinidamente, pero no es necesario. La idea está suficientemente clara. Diremos que esas expresiones de las que podemos decir que son verdaderas o
falsas expresan proposiciones.
Es conveniente que nos detengamos un poco en este punto. Observe que no decimos que la
expresión es la proposición, sino que expresa la proposición. Determinar qué es una proposición
es un problema filosófico de importante calado, del que se ocupa la filosofía de la lógica. Sin
profundizar en el problema, daremos la principal motivación para no identificar la proposición
con la expresión lingüística que la expresa. Esta es que vamos a querer decir que las expresiones
lingüísticas “Llueve”, “Está lloviendo”, “It’s raining”, expresan todas la misma proposición, aunque
obviamente, como expresiones lingüísticas no son la misma. Podemos pensar que una proposición
es aquello que puede ser verdadero o falso en una expresión lingüística de la que decimos que puede
ser verdadera o falsa. La proposición sería el portador de la verdad o la falsedad. Por supuesto,
todo esto puede parecer una sutileza inútil. En todo caso, el problema existe y no se conoce una
solución que obtenga amplios consensos. Algunos filósofos piensan que las proposiciones son
hechos, otros que son objetos abstractos, otros que son entidades mentales, otros se decantan por la
opinión de que son clases de expresiones lingüísticas. Afortunadamente, para hacer lógica no es
necesario saber qué es una proposición más allá de lo dicho: Una proposición es aquello que puede
ser verdadero o falso, y derivativamente, decimos que una expresión lingüística es verdadera o
falsa cuando lo es la proposición que esta expresa. Por eso, terminamos la discusión acerca de la
naturaleza de las proposiciones en este mismo punto y continuamos con nuestro camino, no sin
antes indicar al lector interesado que puede encontrar una somera discusión sobre el problema con
referencias para profundizar en [Gra90].
1.3 El problema de la calidad
17
¿Y por qué nos dedicamos a hablar de proposiciones? Estamos interesados en las proposiciones
porque vamos a acotar nuestro análisis a inferencias en las que la información aportada así como
la conclusión están dadas a través de expresiones lingüísticas que expresan proposiciones, o sea,
a argumentos. Es más, consideraremos que lo esencial en los argumentos no son las expresiones
lingüísticas, sino las proposiciones que expresan. Que esto es razonable queda claro considerando
los dos argumentos siguientes:
Argumento 1
Está lloviendo.
Debo salir a la calle
No tengo el paraguas aquí
Argumento 2
Llueve
Tengo que salir a la calle
Estoy sin mi paraguas
Me mojaré
Me voy a mojar
Hay un sentido en el que nos gustaría decir que ambos argumentos son el mismo. Este sentido
se podría expresar groseramente diciendo que se concluye lo mismo en ambos a partir de la misma
información. Y si aceptamos que los argumentos son conjuntos de proposiciones con una destacada
como conclusión, y que las proposiciones correspondientes son las mismas, aunque sus expresiones
lingüísticas son diferentes, parece indiscutible que también debemos identificar ambos argumentos.
De ahora en adelante, las expresiones lingüísticas nos interesarán fundamentalmente en tanto
expresan proposiciones, y más aun, cometiendo un abuso de lenguaje, hablaremos de las expresiones
como si fueran proposiciones. Diremos, por ejemplo:
La proposición “Salió el sol”
queriendo significar la proposición expresada por la oración “Salió el sol”.
Continuando con este proceso de acercamiento gradual a nuestro objeto, reformulemos lo que
es un argumento a la luz de lo que hemos dicho sobre proposiciones:
Un argumento es un conjunto de proposiciones en el cual se distingue una como la conclusión.
Las restantes se llaman premisas.
De acuerdo con esto, el esquema general de un argumento será:
Premisa 1
Premisa 2
..
.
Premisa n
Conclusión
Es importante recordar que tanto las premisas como la conclusión son proposiciones. Por
supuesto, los argumentos se expresan lingüísticamente, y así podemos referirnos a un determinado
texto como un argumento. Pero es el mismo caso que el de las proposiciones, es decir, el argumento,
desde nuestro punto de vista, no es el texto que lo expresa sino el conjunto de proposiciones
expresadas por el texto, en el cual se destaca una como conclusión.
Nos centraremos en los argumentos, ya que como veremos, de ellos es que se ocupa la lógica.
1.3
El problema de la calidad
Cuando resolvimos los acertijos del nurikabe y del oso construimos sendos argumentos. Consideramos las proposiciones que aparecían en el enunciado del acertijo, las tomamos como premisas
Capítulo 1. ¿Lógica?
18
y obtuvimos una conclusión. Pero, por supuesto, nos costó cierto trabajo hacerlo. ¿Para qué nos
tomamos ese trabajo? La respuesta es que nos tomamos ese trabajo para asegurar la calidad del
argumento. Veamos qué significa esto, a través de algunos ejemplos de argumentos de los cuales
intentaremos decir algo sobre su calidad.
Todo el dinero que tengo son tres monedas.
Las monedas que existen son de 1, de 2, de 5 y de 10 pesos.
Tengo 35 pesos.
No hay dudas de que este argumento es muy malo, y no vacilamos en decir eso porque en caso de
que las premisas sean verdaderas, es decir, si la información aportada por las premisas es correcta,
entonces la conclusión debe ser falsa. Consideremos este otro argumento:
Todo el dinero que tengo son tres monedas.
Las monedas que existen son de 1, de 2, de 5 y de 10 pesos.
Tengo 30 pesos.
Este segundo argumento no parece ser tan malo como el anterior, pero sin embargo, parece bastante
malo. La información que las premisas aportan no es incompatible con la ofrecida por la conclusión,
como en el caso anterior. Sin embargo, la verdad de las premisas no hace plausible la conclusión.
Más bien, parece poco razonable afirmar la conclusión en base a la información aportada por las
premisas. Esto es así porque la única forma en que la conclusión sea verdadera dada la información
aportada por las premisas es que tenga tres monedas iguales de 10 pesos cada una, y la información
que las premisas dan es compatible con muchos escenarios en los que eso no se cumple. Nos parece
una conclusión extremadamente poco segura, muy arriesgada. Veamos el siguiente argumento:
Todo el dinero que tengo son tres monedas.
Las monedas que existen son de 1, de 2, de 5 y de 10 pesos.
Tengo menos que 13 pesos.
Este argumento no parece tan malo como el último. Por supuesto, es una inferencia arriesgada,
ya que la información aportada con las premisas es compatible con que tenga 13, 14, 16, 17, 20,
21, 22, 25, o 30 pesos, y en cualquiera de esos casos la conclusión sería falsa. Pero también es
compatible con varios casos –no solo con uno, aquí radica la diferencia con la inferencia anterior–
en los que la conclusión sería verdadera. Como sea, la conclusión no parece firmemente apoyada
por las premisas, aunque el apoyo que recibe es mayor que en la inferencia anterior. Veamos otra
inferencia aun:
Todo el dinero que tengo son tres monedas.
Las monedas que existen son de 1, de 2, de 5 y de 10 pesos.
Tengo más que 3 pesos.
Este argumento parece bastante bueno. La información aportada por las premisas parece apoyar
en un grado muy alto la conclusión. En caso que las premisas sean verdaderas, la conclusión lo
será excepto solo en un caso: cuando las tres monedas que tengo sean de 1 peso cada una. Es una
conclusión arriesgada, pero “sentimos” que el riesgo que asume es pequeño. Y consideremos un
último argumento con las mismas premisas:
1.4 Argumentos deductivos e inductivos
19
Todo el dinero que tengo son tres monedas.
Las monedas que existen son de 1, de 2, de 5 y de 10 pesos.
No tengo exactamente 10 pesos.
Veamos cómo se articulan las premisas y la conclusión en este caso. Si tenemos tres monedas, cada
una de las cuales es de 1, de 2 , de 5 o de 10 pesos. ¿Cómo podría ser falsa la conclusión? Un rápido
análisis de las posibilidades nos convence de que es imposible que la conclusión sea falsa si las
premisas son verdaderas.
Eso indica que la calidad de este argumento es excelente, inmejorable. No arriesga nada, la
verdad de la conclusión está asegurada si está asegurada la de las premisas. En la próxima sección,
distinguiremos los argumentos que tienen esta característica de los demás.
1.4
Argumentos deductivos e inductivos
Acabamos de ver que no todos los argumentos son igualmente “buenos”. Hay algunos en los
que la verdad de las premisas no asegura la verdad de la conclusión, y entre estos hay “grados de
bondad”, es decir, el grado de apoyo que las premisas prestan a la conclusión puede ser variable.
Estos son muy importantes, y se encuentran en la base de las afirmaciones que, con un alto grado
de certeza, hacen las ciencias naturales. Por ejemplo, cuando se predice que en el interior de un
tubo de vacío, una moneda y una pluma de ave, dejadas caer desde la misma altura, llegarán al
fondo al mismo tiempo, se está haciendo una inferencia que podríamos representar así:
Las numerosas veces que se han dejado caer dos cuerpos en el interior de un
tubo de vacío desde la misma altura han llegado al fondo al mismo tiempo.
Esta pluma y esta moneda serán dejadas caer desde la misma altura
en el interior de un tubo de vacío
Esta pluma y esta moneda llegarán al fondo al mismo tiempo.
Es este un argumento fortísimo, dado que muchísimas veces se ha repetido la experiencia (si la
experiencia solo se hubiera hecho una vez, la inferencia no sería tan buena). No es razonable esperar
que la pluma y la moneda no lleguen al mismo tiempo al fondo. Sin embargo, es claro que no es
imposible que ese extrañísimo resultado se dé. Si bien las premisas apoyan la conclusión en un
grado alto, no la apoyan totalmente.
Y no solo la ciencia depende de inferencias de este tipo, sino también muchísimas decisiones
que tomamos en la vida cotidiana: cuando salgo de Facultad y voy a la parada de siempre a esperar
el ómnibus para volver a mi casa, lo hago basado en una inferencia que tiene como premisa que
el 188 ha parado muchas veces allí en un horario determinado, y concluye que dirigiéndome a
esa parada podré tomar un ómnibus que me lleve a casa. Por supuesto, también se trata de una
inferencia muy segura, pero no totalmente segura. Podría pasar, por ejemplo, que se decida cambiar
el recorrido del 188 o que se suprima la línea.
Por otro lado, hay argumentos de los que no cabe decir que son más o menos seguros, o muy
seguros, sino que son absolutamente seguros. La verdad de sus premisas asegura totalmente la de
su conclusión. Es imposible que sean a la vez las premisas verdaderas y la conclusión falsa. Un
ejemplo venerable es el que aparece en la memoria de tanta gente, asociado con alguna lección de
lógica en la enseñanza secundaria:
Todos los hombres son mortales
Sócrates es hombre.
Sócrates es mortal.
Capítulo 1. ¿Lógica?
20
Observemos que la calidad de un argumento no tiene relación con la verdad o falsedad de las
premisas y la conclusión consideradas aisladamente, sino meramente con la consideración de si la
verdad de las premisas impone verdad a la conclusión. Por ejemplo:
Todos los perros tienen plumas
Sócrates es perro.
Sócrates tiene plumas.
Este argumento es excelente, en el siguiente sentido: tiene la misma virtud que el anterior, de que
la verdad de las premisas hace imposible la falsedad de la conclusión. Frente a este argumento, si
alguien quiere afirmar que la conclusión es falsa, solo le queda el camino de decir que alguna de las
premisas lo es, ya que si las premisas fuesen verdaderas, necesariamente la conclusión lo sería. Eso
no sucede con el argumento de la pluma y la moneda. Alguien puede a la vez aceptar que hasta el
momento los cuerpos lanzados desde la misma altura han llegado al fondo al mismo tiempo, pero
negar que eso sucederá la próxima vez que se lancen. No es una postura que parezca razonable,
pero en principio, es posible que las premisas sean verdaderas y la conclusión falsa en ese caso.
Vamos a introducir una distinción que a esta altura debe parecer muy natural y reviste una
fundamental importancia. Diremos que un argumento es válido si es imposible que su conclusión
sea falsa siendo verdaderas sus premisas. Otra forma de decir lo mismo es la siguiente: un argumento
es válido si es necesario que su conclusión sea verdadera si sus premisas lo son.
La validez es, en cierto sentido, un grado máximo de virtud de un argumento: las premisas
dan apoyo total a la conclusión. Y como dado un argumento, sus premisas ofrecen apoyo total a
su conclusión o no lo hacen, es una característica que los argumentos tienen o no tienen, no hay
grados en ello. No hay argumentos más válidos que otros, solamente hay argumentos válidos y
argumentos inválidos.
Un argumento que, además de ser válido, tiene premisas verdaderas, se llama sólido. Por
supuesto, los argumentos sólidos tienen conclusiones verdaderas.
Las inferencias o argumentos que no son válidos tienen diversos grados de bondad. En este
libro nos ocuparemos solamente de la cuestión planteada por la división de los argumentos en
válidos e inválidos. Básicamente, estaremos interesados en la determinación de la validez de los
argumentos. Cuando un argumento es válido, se lo llama deductivo. Caso contrario, lo llamaremos
inductivo o no deductivo3 . No está de más repetir que esta cuestión no tiene nada que ver con la
verdad de las premisas y la conclusión consideradas aisladamente, sino con la cuestión de si la
conclusión puede ser falsa siendo verdaderas las premisas. Si la respuesta es “No”, el argumento es
válido. Si es “Sí”, se trata de un argumento inductivo.
El concepto introducido es tan importante que bien vale un recuadro:
Un argumento es válido si es imposible que sus premisas sean verdaderas y su conclusión falsa,
o dicho de otro modo, si es necesario que su conclusión sea verdadera si sus premisas lo son. A veces esto mismo se expresa diciendo que en los argumentos válidos trasmiten la verdad de las
premisas a la conclusión, pero creemos que esta forma de hablar no es afortunada. Las premisas
pueden perfectamente ser falsas, como hemos remarcado varias veces. Incluso pueden ser tales que
en ningún caso pudieran ser verdaderas. Por supuesto, un argumento con premisas así será válido,
3 Esta
clasificación de los argumentos no recoge consenso universal, en el sentido de que no todos los filósofos están
de acuerdo en clasificar como inductivos a todos los argumentos no válidos. Es decir, hay clasificaciones que encuentran
divisiones más finas que la que hemos planteado entre los argumentos no válidos. En estas clasificaciones, los inductivos
son solo una clase de argumentos inválidos
1.5 Lógica: primera aproximación
21
porque es imposible que sus premisas sean verdaderas y su conclusión falsa, ya que es imposible
que sus premisas sean verdaderas.
1.5
Lógica: primera aproximación
La lógica es una ciencia, y en esta sección intentaremos aproximarnos a su objeto. Las ciencias
pueden ser consideradas desde diversos puntos de vista, de los cuales dos muy prominentes son el
que las presenta como conjuntos de teorías, un corpus organizado de conocimientos, y el que las
presenta como una actividad humana inserta en la historia.
Desde el punto de vista histórico, hay cierto consenso acerca de que la lógica como ciencia
tiene sus orígenes en la obra de Aristóteles, quien dedicó una serie de tratados pioneros a su estudio.
En estos tratados, Aristóteles intentaba demarcar los “buenos” argumentos de los “malos”, con
independencia de la verdad o falsedad de sus premisas. Por supuesto, no es que Aristóteles no se
interesara en la verdad de las proposiciones, sino que buscaba las condiciones bajo las que se podía
confiar en el resultado de una inferencia, supuesta la verdad de las premisas. No interesan ahora los
detalles de la lógica aristotélica, que fue sumamente influyente a través de la historia, al punto de
que pudo considerarse superada recién en el siglo XIX, es decir, unos 2500 años después de los
tiempos de Aristóteles. Sin embargo, este primer impulso es el que ha alentado fundamentalmente a
la lógica desde siempre. Podemos decir que la lógica es una ciencia que se ocupa de los argumentos,
centrándose en las formas de apoyo de las premisas a la conclusión.
Tradicionalmente, la lógica se ha ocupado de distinguir los argumentos válidos de los inválidos
y del estudio de los argumentos válidos -aunque en el propio Aristóteles se encuentran rudimentos
de una lógica que se ocupa de argumentos inválidos-. Una lógica que se ocupara de los argumentos
inductivos debería ser capaz de determinar la fuerza o bondad relativa de estos, los diversos
grados -no absolutos- en que la verdad de las premisas apoya la de la conclusión y este proyecto,
que ha tenido un enorme impulso en el siglo XX, es mucho más discutido que el de la lógica
tradicional. Especialmente a partir de un famoso argumento de Hume, que pretende establecer
que una inferencia inductiva nunca da razones para creer en su conclusión hay muchos filósofos
que dudan incluso de la posibilidad de una lógica inductiva. A pesar de esto, es de destacar que
actualmente se hacen ingentes esfuerzos en el sentido de desarrollar lógicas inductivas. Estos
esfuerzos caen por completo fuera del interés de este libro, y además el lector debe estar advertido
de que cuando se habla de “lógica” a secas, normalmente se está refiriendo a la lógica que se ocupa
de la clasificación de argumentos en válidos e inválidos y al estudio de los primeros. Cuando se
desea hablar de lógica entendiendo que se intenta la clasificación y calificación de los argumentos
inválidos, se suele decir “lógica inductiva”.
A esta altura del desarrollo, debe estar claro que la lógica de la que nos ocuparemos -de ahora en
más, simplemente “la lógica”- clasificaría la inferencias que hemos hecho al principio, del nurikabe
y del oso como inválida esta, válida aquella, y podría arrojar luz sobre algunas cuestiones que aun
no sabemos cuáles son concernientes a la que es válida. Análogamente, clasificaría como inválidas
todas las inferencias de las tres monedas menos la última, a la que clasificaría como válida. Podría,
además, arrojar luz sobre esta inferencia. Nuestra caracterización de la lógica, como ciencia que
se ocupa de la discriminación de argumentos válidos e inválidos, y del estudio de los argumentos
válidos, está lejos de ser completa. Veamos algunos aspectos necesarios para seguir comprendiendo
qué es la lógica.
1.6
Una clase importante de argumentos válidos
Examinemos ahora algunos argumentos válidos, con el propósito de identificar alguna característica común que tienen muchos de ellos, y diferenciarlos de otros, también válidos. Para ello,
volveremos nuestra atención a una familia de acertijos, inspirados en la obra del eminente lógico,
Capítulo 1. ¿Lógica?
22
mago y escritor Raymond Smullyan, cuya lectura recomiendo con especial énfasis (el lector hallará
referencias en la bibliografía).
1.6.1
La biblioteca
Si el lector ha disfrutado de la estupenda novela El nombre de la rosa, de Umberto Eco,
recordará que en ella el protagonista, Guillermo de Baskerville, debe resolver varios enigmas en un
ambiente dominado por la presencia de una maravillosa biblioteca. Allí hay una rígida clasificación
de las obras, con una sección dedicada a las heréticas, en la que las falsedad campea y cuya libre
circulación se considera muy peligrosa. Para acceder a ellas, hay que solicitar un permiso que rara
vez se otorga.
Ficción por ficción, imaginemos que tenemos la suerte de llegar a una biblioteca medieval,
dedicada solamente a guardar las obras de dos famosos escritores, Veratius y Mendacius. Ambos
escribieron sobre temas muy arcanos, desconocidos en su totalidad por casi toda la humanidad.
Es común abrir uno de esos códices y encontrar frases como “El día que murió Julio César un
gladiador llamado Rufus encontró dos sestercios en la Vía Apia”, o “Dios prefiere las biblias en
códice a las biblias en rollo”. En general, casi todo lo que escribieron está más allá de nuestras
posibilidades de verificación. Pero sin embargo, la posesión de esas obras es muy valiosa, porque
todo lo que escribió Veratius es verdadero y todo lo que escribió Mendacius es falso. Por eso, es
muy importante, al leer uno de esos libros, saber quién fue su autor. Sea el que fuere, la lectura
nos dará conocimiento –si es que hacemos la atribución de autoría correcta–. En esta biblioteca,
los códices, manuscritos originales, están dispuestos en estantes, y no tienen una marca de autoría
que sea confiable en principio. En general, en el primer folio dicen algunas cosas (escritas por el
autor) que pueden permitir hacer la atribución. Nuestro problema es clasificar los libros por autor
en cada estante, tarea que se ve dificultada porque ambos autores eran maestros calígrafos y –quizá
por ser hermanos gemelos– las maravillosas letras unciales que gustaban trazar son indistinguibles.
Recordemos que en esta biblioteca todo libro es de autoría de Veratius o de Mendacius, y que todo
lo que dicen las obras del primero es verdadero, mientras que todo lo que dicen las del segundo es
falso. Llamaremos “reglas de la biblioteca” a estas condiciones.
Advertencia: en los problemas que siguen, la solución se encuentra inmediatamente bajo el
planteo. Quizá el lector quiera resolverlos por sí mismo antes de leer la solución. Sería bueno que
al menos lo intentara, para comparar sus razonamientos con los que ofrecemos.
Un primer problema4
En un estante hay tres códices. El título de uno es “Argos”, el de otro “Belerofonte” y el del
último “Casiopea”. Tomamos Argos y lo abrimos, con intención de leer el primer folio. Para nuestra
decepción, ha sido atacado por la humedad. Solo llegamos a leer
Argos
$
Este libro fue escrito por
ius
En buena parte de donde figuraba un nombre encontramos algo ilegible. Abrimos Belerofonte,
el que por suerte está mucho mejor conservado. Su primer folio dice
4 Este
mismo problema, bajo otro ropaje, aparece en El hombre que calculaba, de Malba Tahan.
1.6 Una clase importante de argumentos válidos
23
Belerofonte
En el primer folio de Argos su autor
afirmo que fue escrito por Mendacius
Finalmente, miramos el primer folio de Casiopea:
Casiopea
Belerofonte es un libro lleno de mentiras
Nos interesa especialmente saber quién es el autor de Casiopea, ya que hace mucho tiempo
queremos investigar sobre su tema, que es métodos de maquillaje de las nereidas.
¿Cómo podemos resolver este problema, si ninguno de los libros dice algo que sea patentemente
falso, como por ejemplo, “Dos más dos es igual a cinco” –en cuyo caso sabríamos que el autor es
Mendacius–, o patentemente verdadero, como “Esto es un ejemplo de escritura” –en cuyo caso
sabríamos que el autor es Veratius?
La clave está en imaginar qué es lo que podría haber originalmente en el folio que encontramos
corrompido. Supongamos el autor de Argos fuese Veratius. Si así fuese, no podría escribir en su
libro que el autor era Mendacius, porque estaría escribiendo algo falso. Ahora supongamos que
el autor de Argos fuese Mendacius. ¡Tampoco podría escribir que el autor era él mismo, ya que
Mendacius solo escribe cosas falsas! Y no hay otra posibilidad, ya que en la biblioteca todos los
libros son o bien de Veratius o bien de Mendacius. O sea, en todos los casos posibles, el primer
folio de Argos no podía decir que fue escrito por Mendacius. Hemos deducido que ese folio no
afirmaba que el libro era de Mendacius, aunque la información dada en el problema no lo dice
explícitamente. Es importante notar que sabemos que en el primer folio de Argos no decía que era
de Mendacius, pero no sabemos si lo es o no. Sin embargo, esto nos permite resolver el problema
de averiguar el autor de Casiopea: en Belerofonte se dice que el primer folio de Argos afirmaba
que había sido escrito por Mendacius. Esto tiene que ser falso, es necesario que Belerofonte sea
un libro lleno de mentiras. Y eso es exactamente lo que afirma Casiopea, de modo que este está
diciendo una verdad, y por lo tanto su autor es Veratius.
Ahora que hemos entendido cómo funcionan las cosas en esa biblioteca tan extraña, consideremos algunas situaciones particulares, de las cuales encontraremos unas sumamente sencillas y
otras no tanto. En cada caso, luego de resolverlas, haremos alguna reflexión sobre lo que nos ha
permitido hacer la inferencia conducente a la solución.
Todo lo contrario
En un estante se encuentran dos libros muy, muy viejos. Ambos han perdido su primer folio,
ni siquiera sabemos sus títulos, de modo que los llamaremos 1 y 2. A continuación se muestra la
primera oración de cada uno de ellos.
Capítulo 1. ¿Lógica?
24
1
Dios existe
2
Dios no existe
¿Qué podemos inferir acerca de estos libros?
Quizá haya entre los lectores algunos teístas, quienes pensarán que el primero fue escrito por
Veratius. Tal vez haya algunos ateos, según los cuales el autor del primero es Mendacius. Es posible
que haya agnósticos, quienes no sabrán qué decir acerca de quién es el autor de cada uno de ellos5 .
Pero, por más que la creencia acerca de la existencia de Dios pueda dividir las opiniones, hay
algo que está más allá de toda disputa: Uno de los libros fue escrito por Mendacius, y el otro por
Veratius.
Stricto sensu, esto es todo lo que podemos inferir a partir de los datos dados con absoluta
seguridad. Es claro que la conclusión de que uno es de Veratius y el otro de Mendacius surge de
que uno niega lo que el otro afirma. La proposición expresada por el segundo es la negación de la
expresada por el primero, y recíprocamente. En un par así, necesariamente una de las proposiciones
es verdadera y la otra falsa. Además, la palabra “no” en la construcción del enunciado es la que
nos indica que se está expresando la negación de la proposición anterior. De modo que si el primer
libro dice la verdad, el segundo miente, y recíprocamente. Por lo tanto, uno de ellos es de Veratius y
el otro de Mendacius. El problema de resolver cuál de ellos es el de Veratius, queda para los libros
de teología.
Los dos mentimos
En otro estante encontramos dos libros, titulados “Dragones” y “Esfinge”. Esfinge está tan
deteriorado que solo es legible la parte superior de cada uno de sus folios, por lo que apenas si
sabemos su título.
Pensamos que la única posibilidad que existe de descubrir quién es su autor –excluyendo la de
encontrar en él una expresión que podamos clasificar como verdadera o como falsa, lo que no suele
suceder en las obras de autores como estos, que se dedican a temas abtrusos– es que otro libro se
refiera a Esfinge. Ya hemos visto que, al igual que en la realidad, en esta ficción sucede que unos
libros hablan de otros, de modo que al abrir Dragones encontramos que su primer folio tiene estas
palabras:
5Y
quizá haya algún lector de talante positivista, que adhiera al criterio empírico del significado y opine que en
realidad, lo enunciado son pseudoproposiciones y por tanto, carecen de valor de verdad. A un tal lector le sugiero que
sustituya los enunciados dados por “Hay vida en otros planetas” y “No hay vida en otros planetas”.
1.6 Una clase importante de argumentos válidos
25
Dragones
Dragones es obra de Mendacius
y
Esfinge es obra de Mendacius
Clasificar estos libros es fácil. Se comprende inmediatamente que Dragones no puede haber
sido escrito por Veratius, porque en ese caso tendríamos a este autor escribiendo algo falso, al
atribuir la autoría del libro que escribe a Mendacius. Ahora que sabemos que Dragones fue escrito
por Mendacius, podemos determinar la autoría de Esfinge. Si Esfinge también fuese una obra de
Mendacius, resultaría que este habría escrito una verdad en el primer folio de Dragones. Pero eso
es imposible, de modo que Esfinge tiene que ser obra de Veratius. Por lo tanto, la respuesta es: El
autor de Dragones es Mendacius, y el de Esfinge es Veratius.
Esta inferencia se basó en el hecho fundamental –y previamente conocido por nosotros, como
hablantes competentes del español– de que la proposición expresada en Dragones se construyó
a partir de las proposiciones más simples “Dragones es obra de Mendacius” y “Esfinge es obra
de Mendacius” conectadas con un “y”, y en esas condiciones, la proposición constituida sería
verdadera si y solo si lo fueran ambas constituyentes. Es algo que nos puede parecer trivial, pero
sin apelar a eso, hubiera sido imposible resolver el problema.
Acá hay un mentiroso
En otro estante encontramos otros dos libros, uno con el título de “Fe” y el otro titulado
“Gracia”. Miramos el primer pliego de Fe, donde se lee:
Fe
Fe es obra de Mendacius
o
Gracia es obra de Mendacius
Como ya tenemos cierta práctica en esto de inferir la autoría de cada libro, decidimos no abrir
Gracia e intentar deducirla solo a partir de los datos que obtuvimos con Fe. Otra vez la solución
es fácil: supongamos que Fe fuese obra de Mendacius. En ese caso, Mendacius habría escrito una
verdad, ya que lo escrito significa que al menos uno de los dos libros es de su autoría. Pero no puede
ser que Mendacius escriba una verdad y por lo tanto, el autor de Fe debe ser Veratius. Ahora bien,
si Gracia también fuese obra de Veratius, este habría mentido en el primer pliego de Fe, ya que
hubiera escrito algo que implica que al menos uno de los dos libros es de Mendacius, pero ninguno
de los dos lo sería. Por tanto, Gracia tiene que haber sido escrito por Mendacius. La solución es
entonces que Fe es obra de Veratius y Gracia es de Mendacius.
En esta ocasión, lo que resultó fundamental para encontrar la solución fue el reconocimiento de
que la proposición expresada en Fe se componía por “Fe es obra de Mendacius” y “Gracia es obra
de Mendacius”, conectadas por un “o”, y de que en esas condiciones, la proposición constituida
Capítulo 1. ¿Lógica?
26
sería falsa si y solo si lo fueran ambas constituyentes6 .
Si yo soy, él también
Y por fin encontramos un problema bastante más delicado. En una vitrina había dos libros, con
los hermosos títulos “Hades” e “Infierno”, ambos con fuertes cierres metálicos. Luego de maniobrar
un poco con ellos, encontramos que el primer pliego de Hades reza:
Hades
Si
Hades es obra de Ueratius
entonces
Infierno es obra de Ueratius
Con estos datos podemos inferir la autoría de ambos libros. ¿Cómo? (Se sugiere al lector pensar
cuidadosamente este problema antes de leer la solución; y cuando vaya a leerla, hacerlo también
con cuidado).
Comenzaremos contando una breve anécdota. Cuando yo era pequeño, la ley no prohibía a los
padres dar palmadas a los hijos. Según me contaron, antes de que cumpliera los dos años, una vez
estaba con mis padres caminando por la calle, y bajé de la vereda a la calzada. Mi padre me levantó,
me puso sobre la vereda y me dijo: “Si volvés a bajar a la calle, te daré una palmada”. Caminamos
un poco más, yo volví a bajar a la calle. . . Inmediatamente averigüé que mi padre había dicho la
verdad. O sea, me dio una palmada. Es obvio también que si yo hubiera bajado a la calle y mi padre
no me hubiera dado la palmada, habría mentido. ¿Cuál es la moraleja? Bueno, hay varias, pero aquí
no nos interesa ni la de que a veces las palmadas vienen bien, ni la de que los niños deben obedecer
a los padres, sino otra: Al bajar a la calle estaba poniendo a prueba la veracidad de lo dicho por
mi padre en una forma en que no podía quedar sin respuesta: si daba la palmada, había dicho la
verdad; si no la daba, había mentido, lo que podemos resumir en:
Bajas a la calle
Te daré una palmada
Si bajas a la calle, te daré una palmada
Verdadero
Verdadero
Verdadero
Falso
Verdadero
Falso
Después consideraremos la posibilidad de que yo hubiera nacido con una predisposición
genética a la obediencia y no hubiera vuelto a bajar a la calle, pero lo dicho por ahora basta para
generar una estrategia que podría resolver el problema de la biblioteca que tenemos entre manos. La
estrategia es la siguiente: Así como podríamos saber si mi padre había dicho la verdad al aseverar
que si bajaba a la calle, entonces me daría una palmada imponiendo la condición de que se
cumpliera lo que queda entre el “si” y el “entonces” (en ese caso, bajando a la calle), podríamos
intentar averiguar si bajo la condición de que Hades sea obra de Veratius, se cumple que Infierno
también lo es. Si logramos deducir que bajo esa condición Infierno es obra de Veratius, podremos
afirmar que lo que dice el primer pliego de Hades es verdadero. Si logramos deducir que bajo esa
condición Infierno no es obra de Veratius, podremos afirmar que lo que dice el primer pliego de
6 Así hemos entendido el “o” en este caso. A veces se usa el “o” para significar que lo expresado será verdadero si y
solo si uno y solo uno de los constituyentes es verdadero. Hablaremos de eso más adelante.
1.6 Una clase importante de argumentos válidos
27
Hades es falso. Esto es análogo a bajar la calle para ver si se da la palmada o no. Con una diferencia:
si bajamos a la calle, nos dan o no nos dan la palmada, es inevitable que averigüemos si la amenaza
era verdadera. Pero si suponemos que el autor de Hades es Veratius, puede pasar que no logremos
deducir que Veratius es también autor de Infierno ni que no lo es. En ese caso, nuestro intento,
aunque bien encaminado, se habría perdido en el vacío. De todas formas, intentémoslo:
Supongamos que Hades fue escrito por Veratius. Bajo esa suposición, lo que dice su primer
pliego es verdadero. Dice algo equivalente a “Si Hades es obra de Veratius, Infierno también lo es".
Entonces, tenemos que bajo la suposición de que Hades es obra de Veratius se dan estas dos cosas:
1. Hades es obra de Veratius (obviamente, esta es la propia suposición).
2. Si Hades es obra de Veratius, Infierno también lo es (esto lo acabamos de inferir de que sería
algo escrito por Veratius, y por tanto, verdadero).
Ahora bien, como bajo la suposición de que Hades fue escrito por Veratius se cumplen 1 y 2,
también, bajo esa misma suposición, debe cumplirse:
3. Infierno fue escrito por Veratius (porque así entendemos que se comporta la expresión “si...
entonces...” de 2 junto con 1).
Entonces, recapitulemos: Hemos demostrado que bajo la suposición de que Hades fue escrito
por Veratius, Infierno fue escrito por Veratius. Pero esto es lo que entendemos por si Hades fue
escrito por Veratius, entonces Infierno fue escrito por Veratius. Hemos demostrado que lo que está
destacado en la oración anterior es verdadero, de manera que el primer pliego de Hades dice una
verdad. Por lo tanto, Hades fue escrito por Veratius. Y como lo escrito es que si Hades fue escrito
por Veratius, entonces Infierno también lo fue, y efectivamente Hades fue escrito por Veratius, se
sigue que Infierno también es obra de Veratius. La solución, por tanto, es que ambos libros fueron
escritos por Veratius.
Quizá el lector no esté del todo convencido. Habíamos advertido que era este un problema
complicado. Continuemos pensando en él, para despejar algunos aspectos importantes.
Habrá observado que intenté establecer una analogía entre mi traumática experiencia infantil
y la estrategia seguida en la solución del problema. Parece que es correcto decir que una vez que
bajé a la calle, era inevitable saber si lo que mi padre me había dicho era verdadero o no. Si me
daba la palmada, era verdadero, si no me la daba, era falso. También podemos conceder que no era
necesario que yo bajara a la calle para saberlo. Bastaría que tuviéramos la capacidad de saber una
de estas dos cosas:
1. Bajo la condición de que yo bajaba a la calle, mi padre me daría la palmada.
2. Bajo la condición de que yo bajara a la calle, mi padre no me daría la palmada.
Si sabíamos 1, lo dicho por mi padre hubiera sido verdadero, y si sabíamos 2, lo dicho por mi
padre hubiera sido falso. Ahora bien, es bastante difícil que alguien supiera 1 o 2 si yo no bajaba a
la calle. En el caso del problema pasa algo análogo, y afortunadamente podemos saber que
3. Bajo la condición de que Hades sea obra de Veratius, Infierno también lo es.
Podemos saberlo porque la estructura del problema nos permite hacer una deducción que
culmina en 3. Es verdad que esto nos da motivos para afirmar que lo expresado en el primer pliego
de Hades es verdadero. Pero, podría decir alquien, ¿qué pasa si suponemos que el autor de Hades
es Mendacius? ¿Acaso se concluye algo que nos obligue a rechazar que su autor es Mendacius?
¿Por qué no podemos decir que el autor de Hades es Mendacius, que por lo tanto lo que dice el
primer pliego es falso y dejar indeterminada la autoría de Infierno o inclusive atribuírsela a Veratius
o Mendacius, uno de los dos, a placer?
Capítulo 1. ¿Lógica?
28
Una respuesta terminante sería que no podemos suponer que el autor de Hades es Mendacius,
porque ya hemos demostrado que lo que dice el primer pliego de ese libro es verdad: Si el autor
de Hades es Veratius, entonces el autor de Infierno es Veratius. Eso nos obliga a aceptar que
Hades fue escrito por Veratius. Pero aun así, resta un sentimiento de extrañeza, porque no se ve
cómo culminaría nuestro razonamiento si supusiéramos que Hades fue escrito por Mendacius.
Intentaremos aclarar eso ahora.
Si nuestro análisis del problema es correcto, Mendacius nunca podría escribir una proposición
de la forma
Si el autor de este libro es Veratius, entonces X
donde X es cualquier proposición, porque si encontramos una proposición así escrita en un libro,
razonamos en forma totalmente análoga a la anteriormente expuesta, y concluimos que el el libro
fue escrito por Veratius y X es verdadera.
Entonces, alguien podría pensar así:
El hecho de que Mendacius nunca pueda escribir Si el autor de este libro es Veratius,
entonces X indica que esa proposición, suponiendo que la escribiera Mendacius, sería
siempre verdadera, sin importar lo que sea X. En ese caso, lo que tenemos es una
proposición en la que lo que está entre el si y el entonces es falso, y la proposición
resulta ser verdadera, sin importar si X es verdadera o falsa. ¿Será que todas las
proposiciones del tipo
Si A, entonces B
donde A es una proposición falsa son verdaderas? Eso obligaría a aceptar que expresiones tan extrañas como Si el sol es un planeta, entonces la Tierra es un planeta, o Si
el sol es un planeta entonces la tierra es una estrella o aun Si los chanchos vuelan, los
burros estudian filosofía, son verdaderas. Aquí hay algo muy raro.
Efectivamente, aquí hay algo raro. Para considerarlo adecuadamente retrocedamos un poco
y veamos cómo resolvimos los problemas anteriores. En ellos, sabíamos bajo qué condiciones
es verdadera y bajo qué condiciones es falsa una proposición constituida por dos proposiciones
conectadas por un “y” o por un “o”. Ahora se trata de saber bajo qué condiciones es verdadera y bajo
qué condiciones es falsa una proposición que se construye de la siguiente manera: Empezamos con
la palabra “Si”, continuamos con una proposición p, a la que llamaremos el antecedente, colocamos
la palabra “entonces” y terminamos con una proposición q a la que llamaremos el consecuente.
Estamos entonces analizando una proposición de la forma
Si p, entonces q
Por lo que habíamos analizado, los casos en que el antecedente es verdadero no presentan problema.
La proposición analizada es verdadera si tanto el antecedente como el consecuente son verdaderos,
y es falsa si el antecedente es verdadero y el consecuente es falso. Pero el cuestionamiento hecho
sobre el problema, al preguntar “¿Y qué pasa si Hades fue escrito por Mendacius?” apunta a que
no está claro si la proposición analizada es verdadera o falsa en los casos en que el antecedente es
falso. Y es un cuestionamiento muy inteligente, que ha hecho correr ríos de tinta. Vamos a dar aquí
un algunos de argumentos tendientes a convencer al lector de que, cuando el antecedente es falso,
la proposición analizada debe considerarse verdadera. Después agregaremos algunos comentarios.
El primer argumento es el siguiente: Consideremos la proposición
Si llueve y truena, entonces llueve.
1.6 Una clase importante de argumentos válidos
29
Por supuesto que estamos dispuestos a afirmar que esta proposición es verdadera, y no necesitamos para ello saber el estado meteorológico. Veámoslo en general: Supongamos que el antecedente
es una proposición construida conectando dos proposiciones con un “y”, y el consecuente es una de
esas mismas proposiciones. Si llamamos a esas dos proposiciones r y s, la proposición que estamos
analizando será de una de las dos formas:
1. Si r y s, entonces r
2. Si r y s, entonces s
La clave de este asunto es que parece obligado admitir que proposiciones de ese tipo tienen que
ser siempre verdaderas, sin importar si r es verdadera o falsa y si s es verdadera o falsa. Supongamos
entonces que r fuese verdadera y s falsa. En ese caso, tendríamos que el antecedente de 1 es falso, y
su consecuente verdadero; pero hemos acordado que 1 es verdadera. Por otro lado, tenemos que el
antecedente de 2 es falso y su consecuente falso, pero hemos acordado que 2 es verdadera. De aquí,
si aceptamos que todas las proposiciones con la forma
Si p, entonces q
dependen, para ser verdaderas o falsas, únicamente de si p y q lo son, debemos aceptar que todas
las proposiciones de esa forma con antecedente falso son verdaderas.
Otro argumento es el siguiente: Supongamos que se da lo siguiente, que no es una proposición:
Si A es el padre de B, entonces A nació antes que B.
Esto no es una proposición, ya que A y B no son nombres, sino que están para indicar que los
podemos sustituir por nombres. “A es el padre de B” no tiene valor de verdad. Pero si se sustituyen
A y B por nombres de personas, se obtendrá una proposición. Y estamos muy inclinados a decir
que sin importar por cuáles nombres de personas sustituyamos A y B en el esquema de oración
destacado, obtendremos una proposición verdadera.
Bien, sustituyamos A por “Sócrates” y B por “Wittgenstein”. Obtenemos una proposición del
tipo analizado, con antecedente falso y consecuente verdadero. Pero habíamos acordado que la
proposición obtenida sería verdadera. Si sustituimos A por “Sócrates” y B por “Tales”, obtenemos
una proposición con antecedente y consecuente falsos, pero habíamos acordado que sería verdadera.
Del mismo modo que en el argumento anterior, bajo la suposición de que todas las proposiciones
con la forma de la analizada son verdaderas o falsas solo según si su antecedente y consecuente,
debemos aceptar que todas las proposiciones con de esa forma con antecedente falso son verdaderas.
Un último argumento: Supongamos que aceptamos lo siguiente:
1. Las proposiciones de la forma Si p entonces q solo dependen, para ser verdaderas o falsas, de
cómo son p como q en cuanto a verdad o falsedad, y dependen de la verdad o falsedad de
ambas, no de una sola de ellas.
2. Cuando p es verdadera, Si p entonces q es verdadera si q lo es y es falsa si q lo es.
3. En algunos casos, la proposición Si p entonces q es verdadera a la vez que la proposición Si
q, entonces p es falsa.
Las tres condiciones que acabamos de listar parecen aceptables. Tal vez no sea evidente, pero si
las aceptamos estamos obligados a aceptar que las expresiones de la forma Si p, entonces q, en las
que p es falsa, son verdaderas. Veámoslo:
Si no aceptamos que esas expresiones serán verdaderas cuando p es falso, solo tenemos tres
posibilidades, que supondremos de a una:
Supongamos que aceptamos que la proposición Si p, entonces q será falsa si p es falsa y q
verdadera, y será verdadera si tanto p como q son falsas. Nos quedaría este esquema:
Capítulo 1. ¿Lógica?
30
p
q
Si p entonces q
verdadera
verdadera
falsa
falsa
verdadera
falsa
verdadera
falsa
verdadera
falsa
falsa
verdadera
Pero esto viola la condición 3, como el lector sabrá apreciar. Dadas p y q cualesquiera, se le atribuye
la misma calidad de verdadero o falso tanto a Si p, entonces q como a Si q, entonces p.
Otra posibilidad sería aceptar el esquema siguiente:
p
q
Si p entonces q
verdadera
verdadera
falsa
falsa
verdadera
falsa
verdadera
falsa
verdadera
falsa
falsa
falsa
Pero nuevamente se viola la condición 3. De modo que sin aceptar que el antecedente falso haga
que el compuesto sea verdadero solo nos queda probar este esquema:
p
q
Si p entonces q
verdadera
verdadera
falsa
falsa
verdadera
falsa
verdadera
falsa
verdadera
falsa
verdadera
falsa
Esta posibilidad no viola la condición 3, pero sí la condición 1, porque el valor de verdad de p
no importa en este caso, y resultaría que para evaluar la verdad o falsedad de Si p entonces q solo
habría que atender al consecuente, y en realidad, no sería distinto, desde el punto de vista de lo
verdadero o lo falso, afirmar el compuesto que solo afirmar el segundo componente.
Es necesario aclarar aquí que esta es una interpretación de la expresión “Si. . . entonces . . . ”,
que se llama interpretación del condicional material. Hay otras interpretaciones, e históricamente
este tipo de expresiones han provocado muchas controversias7 . Pero nadie ha podido dar una
interpretación generalmente más adecuada -al menos para nuestros propósitos, que incluyen por
lo menos abarcar los razonamientos comunes en las ciencias deductivas- que la que acabamos
de ofrecer. Más adelante estudiaremos las precauciones que debemos adoptar al trabajar con el
condicional material. Desde un punto de vista más general y profundo, no es este el lugar para
discutir el problema, que básicamente se reduce a que las expresiones de ese tipo cumplen múltiples
funciones en el español, y remitimos al lector interesado en introducirse al problema a [Sai90],
donde se analiza extensamente la adecuación de la interpretación del condicional material sobre
expresiones del tipo “Si . . . entonces . . . ” (en inglés, la mayor parte del análisis es pertinente para el
español).
Volviendo al problema, entendemos que si Mendacius escribiera “Si esta obra es de Veratius,
entonces Infierno también lo es”, estaría expresando una proposición del tipo examinado con
antecedente falso (ya que el antecedente afirma que el autor es Veratius, cuando en realidad es
Mendacius), y acabamos de ver que estas proposiciones son verdaderas, de modo que no la podría
7 Estas controversias son milenarias. En [Mat61] se puede leer acerca de las diferentes interpretaciones que expresiones de este tipo recibieron en la escuela estoica.
1.6 Una clase importante de argumentos válidos
31
escribir. En general, Mendacius jamás podría escribir una proposición del tipo “Si esta obra es de
Veratius, entonces X”, ya que sin importar qué proposición sea X, estaría escribiendo una verdad.
También vemos que si yo no hubiera bajado a la calle, mi padre hubiera dicho la verdad, me diera
la palmada o no.
Todos o ninguno
Y finalmente llegamos a un estante con dos libros, cuyos títulos son “Koiné” y “Lenguas”. En
el primer pliego de Koiné se leía
Koine
Koine es obra de Ueratius
si y solo si
Lenguas es obra de Ueratius
Pensando un poco, podemos darnos cuenta de que lo que esta oración expresa es que tanto
Koiné como Lenguas fueron escritos por el mismo autor. Separemos el enunciado en dos partes
Koiné es obra de Veratius si Lenguas lo es.
O sea, según lo que dice, si Lenguas es obra de Veratius, Koiné también lo es. No puede ser
que Lenguas sea obra de Veratius y Koiné de Mendacius.
Koiné es obra de Veratius solo si Lenguas lo es.
Esta expresión, “solo si” está diciendo que la única circunstancia bajo la que Koiné es obra
de Veratius es la de que Lenguas lo sea. En otras palabras, no puede ser que Koiné sea obra de
Veratius y Lenguas de Mendacius. Quedan excluidos los dos casos en los que los libros son de
autores distintos. Por lo tanto, la proposición escrita en el primer pliego de Koiné equivale a la que
afirma que ambos libros son del mismo autor.
Supongamos entonces que Koiné fue escrito por Veratius. Como el enunciado escrito es
verdadero, Lenguas también fue escrito por Veratius. Supongamos ahora que Koiné fue escrito por
Mendacius. En este caso el enunciado es falso, y por lo tanto, Lenguas no puede haber sido escrito
por él, sino que debe haber sido escrito por Veratius. Entonces, no podemos saber quién escribió
Koiné, pero en todos los casos posibles Lenguas fue escrito por Veratius, y eso es lo que deducimos.
1.6.2
Nigra sum, sed formosa: la forma
Después de esta maratón de acertijos que hemos resuelto, conviene recuperar el aliento reflexionando sobre lo que acabamos de hacer. ¿Qué hicimos al resolverlos? ¿Y por qué pudimos hacerlo?
La respuesta a la primera pregunta debería ser obvia a esta altura: al resolverlos hicimos inferencias,
planteamos argumentos. Además, podemos advertir que estos argumentos fueron deductivos8 .
La respuesta a la segunda pregunta es bastante más compleja, y eso porque no está muy precisamente formulada. En realidad, lo que se pretende al plantearla es llamar la atención sobre un aspecto
prominente en esos argumentos que llevaron a la solución de los problemas de la biblioteca. Ese
8 Queda
para el lector dar una explicación de por qué esos argumentos son deductivos
Capítulo 1. ¿Lógica?
32
aspecto se puede expresar así: las inferencias se basaron fundamentalmente en nuestro entendimiento de la función de ciertas palabras en expresiones más complejas9 . Y estas palabras son muy
particulares, porque si bien es casi imposible encontrar un texto largo que no contenga alguna de
ellas, si le preguntamos a alguien qué significan, es muy probable que lo pongamos en un aprieto.
Las palabras y expresiones a las que me refiero son –considerando el acertijo en el que tienen un
papel fundamental– no (Todo lo contrario), y (Los dos mentimos), o (Acá hay un mentiroso), si
. . . entonces . . . (Si yo soy, él también) y . . . si y solo si . . . (Todos o ninguno). Como tal vez se haya
quedado pensando en el significado de una palabra “no”, consultemos el diccionario. Por supuesto,
el lector bien sabe que la palabrita “no” es salvajemente polisémica, de modo que nos quedaremos
con la primera acepción según el Diccionario de la Real Academia:
no.
(Del lat. non).
1. adv. neg. U. para negar, principalmente respondiendo a una pregunta.
Esa “U.” quiere decir “usado”. El diccionario nos dice para qué se usa. Es una palabra que
se usa para negar. Y esto es algo que ya sabíamos, pero sucede que muchas veces es bueno
reflexionar sobre las cosas que ya sabemos. Se usa para negar, y claramente, cualquier proposición
se puede negar. La negación de una proposición es otra proposición. Y además, si una proposición
es verdadera, su negación es falsa, y si una proposición es falsa, su negación es verdadera. Esta
reflexión nos indica algo obvio: si una proposición es verdadera, la negación de su negación también
lo será. De ese modo, este argumento es válido:
Los perros son mamíferos.
No es verdad que los perros no son mamíferos.10
Es válido porque es imposible que la premisa sea verdadera y la conclusión sea falsa, ya que esta es
la negación de la negación de aquella. Por supuesto, este otro argumento también es válido:
La Tierra es plana
No es verdad que la Tierra no es plana.
Estamos viendo que hay toda una familia de argumentos válidos: aquellos que constan de una
premisa, y tienen como conclusión la negación de la negación de la premisa. Es fácil considerar
que este es un paso trivial, pero en realidad, es imposible sobrestimar su importancia. Porque al
darlo, nos estamos independizando del contenido concreto de las proposiciones, y aseguramos que
cualquier inferencia que tenga una determinada forma será válida. Esa forma identificada es, siendo
p cualquier proposición:
p
negación de la negación de p
A partir de aquí, nos resulta natural requerir un modo cómodo y compacto de indicar la negación de
una proposición a la que se está designando con p. Los lógicos han adoptado varios, y en este libro
lo haremos anteponiendo el símbolo ¬ a la letra p. Así, podemos decir, por ejemplo, que todos los
argumentos de la forma
9 Es
importante remarcar que lo fundamental no son esas palabras en sí, sino la función que ellas cumplen contribuyendo a las condiciones de verdad de los enunciados en que se encuentran.
10 Observe las contorsiones lingüísticas necesarias para que la negación de la negación de “Los perros son mamíferos”
quede expresada en una forma estilísticamente aceptable.
1.6 Una clase importante de argumentos válidos
33
p
¬¬p
son válidos. Hemos trabajado partiendo de la palabra “no”, pero podemos hacerlo igualmente
con las expresiones restantes sobre las que llamábamos la atención al principio. Cada una de
ellas determina, en los contextos que hemos analizado, aspectos formales que tienen un impacto
absolutamente central en la evaluación de algunos argumentos.
El problema llamado “Los dos mentimos” gira alrededor de la palabra “y”. Allí funciona
conectando dos proposiciones, y basamos nuestra inferencia en el hecho de que la proposición
obtenida al conectar las dos anteriores por medio del “y” es verdadera si las dos que se conectan lo
son y falsa en otro caso. Llamemos “conjunción” a esa conexión y simbolicemos la conjunción de
dos proposiciones designadas con p y q como p ∧ q. El lector podrá convencerse fácilmente de que
todos los argumentos que tengan las siguientes formas son válidos:
Forma 1
p
q
Forma 2
Forma 3
Forma 5
p∧q
Forma 4
¬¬p
q
p∧q
p∧q
p
q
p∧q
¬(p ∧ q)
¬p
Por ejemplo, un argumento de la forma 4 es válido porque siempre que ¬¬p y q sean verdaderas,
serán ¬p falsa y q verdadera, o sea que tanto p como q serán verdaderas, y en ese caso, p ∧ q
es verdadera. Observe que al intentar expresar de esta manera la última inferencia presentada,
recurrimos a los paréntesis. Una reflexión ligera le mostrará qué hubiera ocurrido en caso de no
colocarlos. Trataremos el punto más adelante.
En el problema llamado “Acá hay un mentiroso” razonamos sobre lo que imponía la palabra
“o” en ese contexto. Al igual que “y”, sirve para conectar dos proposiciones. Allí entendimos que
la proposición que se obtenía sería verdadera si una de las conectadas lo era: es decir, que solo
sería falsa si las dos conectadas eran falsas. Es este un sentido inclusivo. Por supuesto, en español a
veces se usa la palabra “o” en un sentido exclusivo, significando que lo afirmado es verdadero solo
cuando exactamente una de las proposiciones conectadas es verdadera. Un ejemplo claro de esto es
cuando un padre le dice a un hijo, “Te compro la tableta o te doy dinero para que viajes con tus
amigos.” Quizá el padre tiene dinero suficiente para hacer las dos cosas, pero está implícito que no
hará las dos. Aclarado esto, consignemos que si llamamos disyunción a la conexión hecha por el
“o” inclusivo y la simbolizamos mediante ∨, todos los argumentos con las formas siguientes serán
válidos, como el lector sabrá reconocer:
Forma 1
Forma 2
Forma 3
p∧q
Forma 4
¬p
p∨q
Forma 5
¬p
¬q
p
q
p∨q
p∨q
p∨q
q
¬(p ∨ q)
Por ejemplo, una inferencia de la forma 4 será válida, porque es imposible que q sea falsa
siendo ¬p y p ∨ q verdaderas: si q fuera falsa, al ser ¬p verdadera, sería también falsa p. Así, p ∨ q
sería falsa.
El problema llamado “Si yo soy, él también” fue el más trabajoso, y por mucho. En él examinamos lo que sucedía con la proposición que se obtenía conectando otras dos por medio de la
expresión “si . . . entonces . . . ”. Afirmamos que, al menos en ese contexto, entenderíamos que la
proposición formada solo sería falsa en un caso: cuando la proposición que llamábamos antecedente
fuese verdadera y la que llamábamos consecuente fuese falsa. Si llamamos “condicional” a esa
Capítulo 1. ¿Lógica?
34
conexión que se establece, y simbolizamos como p → q a la proposición de antecedente p y
consecuente q, todos los argumentos con las formas siguientes serán válidos:
Forma 1
p
p→q
Forma 2
Forma 3
Forma 4
q
¬p
¬(p∨q)
Forma 5
¬q
p→q
q
p→q
p→q
p→q
¬p
Por ejemplo, todo argumento con la forma 5 será válido, ya que si ¬q y p → q son verdaderas,
tenemos, por un lado, que q es falsa y por otro no se da a la vez que p sea verdadera y q falsa.
Entonces tiene que ser p falsa, y por lo tanto, ¬p verdadera.
Y el último acertijo ambientado en la biblioteca que consideramos, el titulado “Todos o
ninguno” fue resuelto una vez que establecimos que la expresión “. . . si y solo si . . . ” conecta dos
proposiciones de forma que la proposición formada es verdadera si las dos proposiciones conectadas
son verdaderas o si las dos son falsas; y es falsa si entre las dos proposiciones conectadas una es
verdadera y la otra falsa. Llamamos bicondicional a esa conexión. Simbolizándola mediante ↔,
podemos ver que todos los argumentos de las formas siguientes son válidos:
Forma 1
p
q
Forma 2
¬p
¬q
Forma 3
p
¬q
Forma 4
p↔q
q
Forma 5
¬p
p∨q
p↔q
p↔q
¬(p ↔ q)
p
¬(p ↔ q)
Podríamos examinar la forma 5 considerando nuevamente el comportamiento de la disyunción,
pero preferimos hacerlo de la siguiente manera: Observe la forma que numeramos 4 al ejemplificar
la disyunción. Tiene el mismo esquema de premisas que esta, y conclusión q. Entonces, sabemos
que si las premisas son verdaderas, q tiene que ser verdadera. Pero además, si las premisas son
verdaderas, obviamente ¬p es verdadera, de modo que p es falsa. De modo que, al ser q verdadera
y p falsa, es p ↔ q falsa, y por lo tanto, ¬(p ↔ q) verdadera.
A esta altura, debería ser evidente que gracias a la identificación de la forma, tenemos la
posibilidad de afirmar que algunas inferencias son válidas, de darles “certificado de calidad”, por
decirlo de algún modo. Por ejemplo, podemos decir que el argumento
Miguel se levantará temprano hoy si y solo si entra a trabajar temprano hoy.
Miguel entra a trabajar temprano hoy.
Miguel se levantará temprano hoy.
es válido porque tiene la forma que se muestra bajo el número 4 en los ejemplos vistos sobre el
bicondicional.
Por supuesto, son infinitas las formas debido a las cuales un argumento puede ser válido. Hemos
visto solo una pequeña colección de ellas. Lo fundamental de este apartado es que hay argumentos
o inferencias que son válidos en virtud de su forma.
1.7
¿Qué es la lógica?
Acabamos de ver que hay inferencias o argumentos que son válidos en virtud de su forma. Una
pregunta sumamente interesante es si todos los argumentos válidos lo son en virtud de su forma.
Una ligera reflexión parece indicar que no es ese el caso. Considere el siguiente:
1.7 ¿Qué es la lógica?
35
Miguel tenía un perro llamado Sócrates.
Miguel tenía un animal llamado Sócrates.
Sin dudas, se trata de un argumento válido. No es posible que Miguel no tuviese un animal
llamado Sócrates bajo la condición de que tenía un perro llamado Sócrates, porque los perros son
animales. Pero el argumento es válido no gracias a su forma, sino a esa relación que se da entre la
clase de los perros y la de los animales. Un ejemplo clásico en la literatura de argumento válido
pero no en virtud de la forma es:
Miguel es soltero.
Miguel no está casado.
¿En qué se distingue la forma de ese argumento de la del siguiente?
Miguel es bajo.
Miguel no está acostado.
Si bien, por razones que veremos más adelante, se debe ser muy cauto al dictaminar que un
argumento válido no lo es en virtud de su forma, podemos advertir que hay argumentos válidos
cuya validez no relacionamos con su forma. La distinción es importantísima, porque apunta a un
rasgo central de la lógica, que destacaremos ahora, para terminar de caracterizar a esa ciencia, al
menos en forma preliminar.
Lógica es la ciencia que, a través de la consideración de la forma los argumentos, discierne
entre válidos e inválidos y estudia las condiciones bajo las cuales, en virtud de su forma, un
argumento es válido.
Hemos hablado de “forma” de una manera muy laxa. Precisar la noción de forma será nuestra
próxima tarea, antes de ingresar al estudio de la Lógica.
Capítulo 1. ¿Lógica?
36
1.8
Ejercicios
1. Resolver el siguiente nurikabe. Explicitar el razonamiento hecho para resolverlo.
7 2
1
2
6
5 4
2
1
4
2
3
3
2
1
1 1
A B C D E F G
2. La vida del lógico y matemático Augustus De Morgan transcurrió en el siglo XIX. Se sabe
que tuvo la siguiente particularidad: uno de sus cumpleaños fue en el año que era el cuadrado
de la edad que estaba cumpliendo. ¿En qué año nació? ¿El razonamiento que resuelve este
problema impone que necesariamente la respuesta sea la dada? ¿La respuesta se obtiene por
una inferencia deductiva o inductiva?
3. De una secuencia se sabe que sus primeros términos son los que se muestran, y que todos sus
términos son letras. ¿Cuál es el primer término que no se muestra?
A, B, A, C, D, A, E, F, G, . . .
Explicite la inferencia por la que dio la respuesta. ¿Es deductiva o inductiva?
4. En los ejercicios 2 y 3 usted respondió si las inferencias hechas para resolver los problemas
planteados son deductivas o inductivas. ¿Realizó inferencias para saber si las inferencias
que le permitieron resolver los problemas son deductivas o inductivas? En caso afirmativo,
¿estas segundas inferencias fueron deductivas o inductivas? ¿Debe hacer alguna inferencia
para saberlo? ¿De qué tipo es esta última inferencia, si es que la hay? ¿Sugiere esto un
regreso al infinito? ¿Podemos estar alguna vez seguros de que una inferencia es inductiva?
¿Y deductiva?
Para llegar a la solución de algunos problemas es necesario hacer inferencias que tienen como
objeto otras inferencias. Ejemplos famosos son los planteados en los dos ejercicios siguientes.
5. En una cárcel hay tres prisioneros y los carceleros prometen darle un premio a quien logre
deducir el color de un disco que le colocan en la espalda en las siguientes condiciones: eligen
discos de un conjunto de 5 entre los cuales hay 3 blancos y 2 negros, y le colocan uno en la
espalda a cada prisionero. Ponen a estos en fila, de modo que el último de la fila ve los discos
de sus dos compañeros, el del medio ve el disco del primero, y el primero no ve ningún disco.
Los carceleros le preguntan al último de la fila si sabe de qué color es el disco que tiene en la
espalda. Este responde “No sé.”, lo que es escuchado por sus dos compañeros. Seguidamente
preguntan al del medio si sabe de qué color es el disco que tiene en su espalda. Este responde
“No sé.”, lo que es escuchado por el primero de la fila. Finalmente, preguntan al primero de la
fila si sabe de qué color es el disco que tiene en su espalda. Este responde que sí y dice cuál
1.8 Ejercicios
37
es el color. ¿De qué color era ese disco?
6. Un encuestador se dirige a una casa y es atendido por una mujer. Pregunta él: “¿Cantidad
de hijos?” “Tengo tres hijas”, dice ella. “¿Cuáles son las edades de sus hijas?”, pregunta
el encuestador. La mujer responde: “El producto de las edades es 36 y la suma es igual al
número de ventanas del edificio de la esquina”. El encuestador se va, pero al rato vuelve y le
dice a la mujer que los datos que le dio no son suficientes. La mujer piensa y le dice: “Tiene
razón, la mayor tiene ojos azules”. Esto es suficiente para que el encuestador sepa las edades
de los hijos. ¿Cuáles son esas edades?
Los siguientes dos siguientes ejercicios están ambientados en la biblioteca donde solo se
encuentran obras de Veratius y Mendacius, y todo lo escrito por el primero es verdadero mientras
que todo lo escrito por el segundo es falso.
7. En la biblioteca encontramos tres libros en un estante. El primero, llamado Azur, tiene el
primer folio ilegible. El segundo, titulado Baroco, dice en su primer folio: “Azur empieza
diciendo que de los libros de su estante, exactamente dos fueron escritos por Mendacius”. El
tercero, cuyo título es Camestrop, dice en su primer folio: “Baroco fue escrito por Mendacius”.
¿Quién escribió Camestrop?
8. En otro estante de la biblioteca hay tres libros. Uno de ellos dice que de los libros del
estante, exactamente uno fue escrito por Mendacius, otro dice que de los libros del estante,
exactamente dos fueron escritos por Mendacius y el último dice que los tres libros del estante
fueron escritos por Mendacius. ¿Quién escribió cada uno?.
9. Uno de los libros de la biblioteca guarda el secreto de la vida. Los bibliotecarios no saben
cuál es ese libro, pero sí saben que se trata de uno entre cinco, llamados Abbadon, Baal,
Crocell, Decarabia y Empusa.
No permiten acceder a ellos libremente, como a los demás libros, y han establecido la regla
de que si alguien solicita uno, se le dará, pero con eso quedará impedido de acceder a los
otros cuatro. Como queremos conocer el secreto de la vida, sobornamos a un bibliotecario,
que accede a darnos información acerca de lo que está escrito en esos libros.
Nos da una hoja donde se indica el libro y una frase textual copiada de él:
Abbadon Decarabia no explica el secreto de la vida.
Baal Crocell explica el secreto de la vida.
Crocell En mis páginas se encuentra el secreto de la vida.
Decarabia El secreto de la vida está explicado en mis páginas, o en las de Abbadon o en las
de Baal.
Empusa El secreto de la vida se explica en Baal o en Decarabia.
Al leerla nos damos cuenta de que el bibliotecario solo extrajo oraciones que mencionaban
el secreto de la vida pero no nos trajo nada que nos permita guiarnos en el problema de
determinar la autoría. Se lo explicamos y nos dice que nos puede traer otros menos datos que
la otra vez, porque teme que lo encuentren copiando de los libros, cosa que tiene prohibida.
Nos trae lo siguiente:
Abbadon Decarabia fue escrito por Veratius.
Capítulo 1. ¿Lógica?
38
Baal Decarabia fue escrito por Mendacius. De hecho, de entre Abbadon, Baal, Crocell, y
Decarabia, Baal es la única obra de Veratius.
Crocell Empusa fue escrito por Veratius.
¿Qué libro debemos pedir para conocer el secreto de la vida?
En los siguientes ejercicios se trabajará con textos no preparados especialmente para un curso
de lógica, sino con otros propósitos. El mundo real queda ahí afuera.
10. Identifique qué se sostiene en los siguientes textos, y cuáles razones se dan como apoyo a la
tesis sostenida.
a) “Este país debe crear trabajos bien remunerados porque necesita achicar la brecha entre
los más ricos y el resto de nosotros. En la última década, la diferencia entre el 20 % más
rico y las clases más pobres se ha agrandado considerablemente. Si la diferencia llega a
ser muy grande, la democracia estará en riesgo. Solo podemos superar este riesgo si
logramos que los trabajadores puedan mantener cómodamente a sus familias”.
b) “A lo largo y ancho del país, la gente está muriendo, víctima del flagelo de las drogas. La
vida de esas víctimas se destruye, cuando no por las drogas mismas, por enfermedades
como el SIDA, que frecuentemente advienen con el consumo. El tráfico de drogas
provoca la violencia que vemos en nuestras ciudades. Bandas financiadas por el dinero
de las drogas llevan el terror a nuestras calles. Nuestro sistema político también es
una víctima. Las increíbles cantidades de dinero que manejan los zares de la droga
inevitablemente corrompen a nuestra policía y nuestros gobernantes. Nuestra existencia
como nación está en peligro. La guerra a las drogas es uno de los mayores problemas
que nuestro país deberá enfrentar en los próximos diez años.”
c) “El tema del aborto aparece en los medios casi todas las semanas. Se hacen manifestaciones, editoriales y discursos políticos. Varios candidatos están buscando sacar
una ventaja política al abanderarse de un lado u otro en este tema polémico. El aborto
pone en cuestión asuntos fundamentales que enfrentan nuestros ideales de humanidad y
de libertad. A pesar de su importancia, este tema no debería ocupar un lugar central
en las campañas políticas. Los candidatos difieren en muchos otros aspectos, algunos
de los cuales son mucho más importantes para el destino del país que la política con
respecto a la práctica del aborto. Si no resolvemos adecuadamente problemas como la
seguridad y la cobertura de salud, tanto nuestros ideales de humanidad como de libertad
se verán amenazados. No debería haber un criterio único para evaluar la aptitud de un
gobernante en nuestro mundo complejo y vulnerable.”
d) “La honestidad está a la baja en EEUU. Cada vez más gente admite que miente
regularmente en su trabajo y en su hogar. Esas mentiras no son omisiones menores,
falsedades triviales que se dicen para no herir sentimientos de otros, u ocultamientos en
el dominio tradicional de la conducta sexual. Muchos trabajadores dicen que mienten
regularmente en el trabajo. Este cambio en las actitudes de los ciudadanos comenzó
cuando el presidente Johnson negó que fuera a expandir la guerra en Vietnam, justo
antes de hacerlo. Fue alentado con las mentiras que llevaron a Nixon a renunciar a su
presidencia. La creencia en que los gobernantes a todos los niveles mienten ha crecido.
La revelación del presidente Clinton de que no había dicho “toda la verdad” acerca de
su conducta sexual solamente confirmó lo que era algo ya muy extendido: la idea de
que los políticos y otras figuras públicas mienten rutinariamente. ¿Por qué las figuras
públicas –así como el resto de nosotros– sienten que deben mentir? La verdadera razón
es que los estadounidenses no quieren oír la verdad. Los votantes no quieren que les
1.8 Ejercicios
39
digan que si les bajan los impuestos decaerán los servicios sociales. Los jefes no quieren
que les digan que sus planes probablemente fallarán. Y los amigos no quieren oír que
su alcoholismo está perturbando sus vidas. Si esta tendencia continúa, nuestro país
estará en peligro. Necesitamos querer enfrentar a la verdad como ciudadanos, como
empleados, como amigos. Si dejamos de penalizar a los que dicen la verdad, habrá más
gente dispuesta a ser honesta.”
11. Identifique premisas y conclusión. Represente los siguientes argumentos con los símbolos
que se han presentado informalmente en este capítulo. Los primeros cuatro argumentos
representan hitos importantes en la historia de la filosofía. No están en la forma original
presentada por sus autores, sino que su presentación se adapta a los propósitos de este curso.
En todos los casos se trata de reconstrucciones que encuentran apoyo entre los estudiosos.
a) Si la ética depende de la voluntad de Dios, entonces las cosas buenas son buenas porque
Dios las quiere. Las cosas buenas no son buenas porque Dios las quiera. La ética no
depende de la voluntad de Dios.
[Platón (ca. 428 a.C./427 a.C.– 347 a.C.) en el Eutifrón. Este argumento hace honor a
Platón en su indiscutida brillantez para encontrar problemas filosóficos. Lo que este
argumento pone en cuestión es, en algún sentido, más básico que el problema del mal
para los creyentes en un Dios providente y omnipotente. Las posibilidades parecen ser
dos: Una es que las cosas buenas sean buenas porque Dios las quiere y en ese caso, si
Dios quisiera la mentira, el asesinato y la violación ¿esas cosas serían buenas? (esto
es inaceptable para Platón –y probablemente para cualquier persona decente, el grito
del fanático es “Dios lo quiere”, seguido de una atrocidad-). Otra es que Dios quiera
algunas cosas porque son buenas en sí (esto es lo que plantea el argumento), y en ese
caso ¿quién manda acá, Dios o la Ética?].
b) Si Dios existe en el entendimiento y no en la realidad, es concebible un ser mayor
que Dios. Es falso que se puede concebir un ser mayor que Dios. Dios existe en el
entendimiento. Dios existe en la realidad.
[San Anselmo (1033-1109) en el Proslogion. Esta es la primera versión del argumento
ontológico (se llama “argumento ontológico” a aquel que pretende demostrar la existencia de Dios a partir de premisas a priori, es decir, independientes de la experiencia)
a favor de la existencia de Dios, retomado posteriormente por filósofos célebres como
Descartes, Leibniz, Spinoza y en nuestros días, Plantinga y nada menos que Gödel.
Refutado por filósofos no menos célebres como Santo Tomás, Hume, Kant. Es uno de
los argumentos más discutidos en la historia de la Filosofía]
c) Si la existencia es una perfección y Dios, por definición, tiene todas las perfecciones, entonces Dios, por definición, debe existir. Dios por definición tiene todas las
perfecciones. La existencia es una perfección. Por definición, Dios debe existir.
[Descartes (1596-1650) en las Meditaciones metafísicas (1641). Descartes necesitaba a
Dios para salir de los problemas que él mismo había generado con la duda metódica, al
crear argumentos escépticos de una fuerza desconocida hasta entonces. Más allá del
contexto histórico en que surge el cartesianismo, (con lo que a veces se intenta explicar
la introducción de Dios) la función que este cumple en su sistema es la de garante de
conocimiento. Esta es la versión cartesiana del argumento ontológico. A pesar de haber
sido publicada 600 años después del primer argumento ontológico, es mucho más débil
que esa primera versión. Presenta una falla que mostraremos más adelante en el curso.]
d) Si tenemos conocimiento, entonces o algunas cosas son conocidas sin prueba o podemos
probar toda premisa mediante premisas previas, y así sucesivamente. No podemos
probar toda premisa mediante premisas previas y así sucesivamente pero tenemos
Capítulo 1. ¿Lógica?
40
e)
f)
g)
h)
i)
conocimiento. Algunas cosas son conocidas sin prueba.
[Aristóteles (384 a. C. – 322 a. C.). Esta concepción aristotélica, que lleva directamente
a los sistemas axiomáticos, ha sido probablemente una de las ideas más influyentes en
la historia de la ciencia. El sistema axiomático más famoso y que fue considerado por
dos milenios como el paradigma de la perfección científica es también un producto
griego, los Elementos de Euclides. El libro más editado en la historia es por supuesto la
Biblia, en segundo se encuentran los Elementos.]
Si wu shu entonces miao o wu-wei. Pero no wu-wei. Además, si chung, entonces no
miao. Y chung. Por lo tanto, no wu shu.
(Como el lector políglota habrá advertido, los fragmentos lingüísticos en itálicas expresan proposiciones).
[Mi-guel (n. 1970), oriental, por lo demás desconocido absolutamente. No sabemos qué
diablos quiere decir este argumento].
Si Juan tiene una pareja irresponsable, entonces evita tener hijos o se prepara para
afrontar los problemas de criar a un niño solo. Por lo tanto, Juan evita tener hijos ya
que tiene una pareja irresponsable y no se prepara para afrontar los problemas de criar
a un hijo solo.
Te sentirás muy mal al envejecer. Si le das mucha importancia a la apariencia física, te
sentirás muy mal al envejecer. Le das demasiada importancia a la apariencia física.
Si respetaras mi opinión, buscarías mi consejo. No buscas mi consejo. No respetas mi
opinión.
Las parejas deben ser desestimuladas de casarse jóvenes. El matrimonio conlleva una
gran adaptación. Si conlleva una gran adaptación y los jóvenes la encuentran difícil,
deben ser desestimulados de casarse. Los jóvenes encuentran difícil la adaptación al
matrimonio.
2. Naturaleza, artificio y forma
I bien la lógica como ciencia comienza con los trabajos de Aristóteles ([Ari82] y [Ari95]), la
preocupación por la calidad de los argumentos es anterior a él, como puede verse claramente
en algunos pasajes de la obra de Platón1 .
La evaluación de la calidad argumentativa tiene múltiples facetas, de las cuales la lógica es
apenas una de ellas. Un argumento puede ser impecable desde el punto de vista lógico; es decir,
sus premisas pueden apoyar en máximo grado a su conclusión, pero sin embargo, es posible que
ese argumento no sea en absoluto convincente. Eso sucederá en el caso de que las premisas sean
evidentemente falsas, por ejemplo. Otro caso en el que sucedería eso sería el siguiente: imagine a
un teísta discutiendo con un ateo, intentando convencerlo de la existencia de Dios, y proponiendo
para eso el siguiente argumento:
S
Dios existe o dos más dos es igual a cinco.
Dos más dos no es igual a cinco.
Dios existe.
El argumento es, como el lector sabrá apreciar, válido. Impecable desde el punto de vista lógico.
Pero no es de extrañar que el ateo no se sienta impresionado por él. Sencillamente responderá
que la primera premisa es falsa. Si bien la primera premisa no es evidentemente falsa, no es en
modo alguno más segura que la conclusión, de modo que quien dude de esta antes de enfrentarse al
argumento, rechazará aceptar esa premisa cuando se la expresen.
Así como hay argumentos que, aunque son impecables desde el punto de vista lógico, tienen muy
poco valor persuasivo y cognitivo, como el acabamos de ver, también hay argumentos defectuosos
desde el punto de vista lógico que se han mostrado extremadamente persuasivos. Un ejemplo que se
ve frecuentemente en las redes sociales, también asociado con discusiones religiosas, es el siguiente:
1 Especialmente
recomendable es la lectura del divertido diálogo titulado Eutidemo, que se encuentra en [Pla87], en
el que se contraponen dos formas muy diferentes de argumentar: la sofística y la socrática o platónica. Se debe recordar
al leerlo, por supuesto, que el autor del diálogo es parte interesada.
42
Capítulo 2. Naturaleza, artificio y forma
Todas las cosas tienen una causa.
Hay una causa de todas las cosas.
Este último argumento ha convencido a mucha gente a través de la historia, y sigue haciéndolo
hoy. Pero no es válido: perfectamente puede pasar que cada cosa tenga una causa (que es lo que
afirma la premisa), y no haya algo que sea causa de cada una de las cosas. Si el lector tiene dudas,
piense que cada ser humano tiene una madre, pero no hay nada que sea madre de cada uno de los
humanos.
La preocupación por la calidad lógica de los argumentos surge de que los humanos somos
falibles y no lo sabemos todo. Debemos inferir, y a veces lo hacemos en formas que nos llevan
de premisas verdaderas a conclusiones falsas, aun en casos en los que estamos convencidos de
que la verdad de las premisas asegura la de la conclusión. No estamos pensando en los casos en
que se proponen malos argumentos desde el punto de vista lógico con intención de engañar a los
demás, que los hay. Estamos pensando en que simplemente, a veces caemos en error sin advertirlo.
Y como la actividad inferencial y argumentativa está en la base de nuestra sobrevivencia y de las
posibilidades de mantener la civilización, el control de la calidad argumental es de primordial
importancia.
2.1
Las lenguas naturales
Aristóteles no fue el primero en pensar en la calidad de los argumentos, pero sí fue el primero
en hacerlo del modo sistemático y característico de la lógica. Siendo el más prominente intelectual
de la civilización griega2 , la que había alcanzado un altísimo grado de desarrollo en las actividades
intelectuales, Aristóteles tenía acceso a multitud de inferencias de diversos tipos y provenientes de
diferentes campos. Se argumentaba en el ágora, en la matemática, en la filosofía. Aristóteles mismo
tenía un proyecto de ciencia, y en él la inferencia válida tenía un papel explícito y central.
La lógica aristotélica en sí no es nuestro centro de interés aquí –veremos más tarde que puede
ser reinterpretada como un pequeño fragmento de la lógica que vamos a estudiar en este libro–, pero
nos interesa remarcar algo obvio: las inferencias a las que Aristóteles tuvo acceso como material
primario para iniciar sus reflexiones sobre la calidad argumental estaban expresadas en dialectos
griegos. Es decir, en lenguas naturales. Es de notar que Aristóteles consideró que el pródromo
necesario para embarcarse en el estudio de la calidad argumental era un examen cuidadoso de la
lengua. Así, el primer libro del corpus de trabajos de Aristóteles sobre lógica se llama Categorías y
en él se clasifican de diversas formas los vocablos. Este estudio se ha visto también como un tratado
con fuertes tintes metafísicos, pero el hecho es que dio pie, por ejemplo, a vastas investigaciones
gramaticales. En el curso de esa investigación, Aristóteles se percató de que le convenía apartarse,
en cierta medida, del lenguaje natural para evaluar la calidad de los argumentos. Uno de los motivos
que tuvo para ello es bastante obvio. Recordemos la famosa inferencia que todos sufrimos en la
educación secundaria:
Todos los hombres son mortales.
Sócrates es hombre.
Sócrates es mortal.
Aristóteles advirtió que se trataba de un argumento válido, y más aun: advirtió que se trataba
de un argumento válido en virtud de su forma. (Se trata de una forma que no vimos en el capítulo
anterior pero estudiaremos más adelante). Si se sustituye “hombres” y “mortales” por el nombre de
2 Según la opinión del autor, Aristóteles es el más grande intelecto que la humanidad ha dado, y que especie humana
es la que da los intelectos mayores que se conocen.
2.1 Las lenguas naturales
43
otros dos colectivos, y “Sócrates” por el nombre de otro individuo, sean estos los que fueren, la
inferencia resultante será válida:
Todos los estafadores son poetas.
Empédocles es estafador.
Empédocles es poeta.
Aristóteles dio un paso fundamental al sustituir por letras los nombres de colectivos, afirmando
que todas las inferencias de la forma
Todos los A son B.
s es A.
s es B.
son válidas. Este primer paso era un avance enorme, porque si algo es la forma, tiene que ser una
estructura compartida por una clase de argumentos, y esta representación la muestra en forma
mucho más clara que la repetición de una cantidad arbitraria de ejemplos en griego, en español o en
cualquier lengua natural. Decimos que Aristóteles se apartó un poco del uso de su lengua materna
porque, obviamente, la gente no anda diciendo por ahí cosas como “Todos los A son B”. Persiste el
marco de la lengua natural, pero se han introducido elementos que no pertenecen a ella.
Había además otros motivos de preocupación acerca la adecuación del lenguaje natural como
instrumento para la evaluación argumental, algunos de los cuales fueron advertidos por el propio
Aristóteles. Por ejemplo, en el lenguaje natural se dan fenómenos como la polisemia y la ambigüedad
estructural. La polisemia puede ser utilizada para generar argumentos aparentemente buenos pero
que en realidad son de pésima calidad, en los que se entiende una palabra de un modo en una
premisa y de otro modo en la conclusión:
El banco de la plaza tiene cuatro patas.
Los bancos son instituciones financieras.
Hay una institución financiera que tiene cuatro patas.
La ambigüedad estructural puede hacer que una oración asertiva, correctamente construida
desde el punto de vista gramatical, adopte una forma que impida saber qué proposición está
expresando:
Juan estudia filosofía y artes marciales o tarot.
No sabemos si lo que esa oración expresa es que Juan estudia filosofía y además, al menos una
de entre las dos otras disciplinas nombradas, o si la oración expresa que al menos una de estas dos
posibilidades se cumple: Juan estudia filosofía y artes marciales a la vez y Juan estudia tarot.
Estas características, que no parecen deseables para los propósitos de la evaluación argumental, al
menos desde el punto de vista lógico (es muy posible que sean muy valiosas, por ejemplo, desde
un punto de vista retórico) no son evitables en el marco de las lenguas naturales. No se puede
someter a las lenguas naturales a reformas impulsadas por la conveniencia o el deseo de las elites
intelectuales. Como dijo un gramático al emperador romano Tiberio, se puede dar ciudadanía a
los hombres, pero no a las palabras3 . En reconocimiento de esta realidad, el aliento normativo de
la Real Academia está muy debilitado, pretende ahora registrar los usos, ya no “limpia, fixa y da
esplendor” a la lengua.
3 La
única referencia que he encontrado de esta maravillosa anécdota es [Mül61]
Capítulo 2. Naturaleza, artificio y forma
44
Las lenguas naturales no surgen de un convenio explícito entre los hombres, no tienen una
sintaxis y una semántica regida por reglas fijas, no son inmutables. Se parecen a organismos o a
especies de seres vivos, están sometidas a procesos de evolución natural. Permiten la metáfora, todos
los tropos, la función poética. Y esta misma riqueza y ductilidad es la que los hace instrumentos de
muy difícil manejo para el estudio de la corrección argumental desde el punto de vista lógico.
2.2
Lenguas artificiales
Se podría decir que hasta la modernidad los hombres más avisados advirtieron, en algunos
casos, las complejidades propias del uso de los lenguajes naturales. Por ejemplo, la Edad Media fue
testigo del surgimiento de teorías muy refinadas, como las de la significación, de la suposición, de
la distribución, que lograban en buena medida dar cuenta de esas complejidades. Hacia el siglo XIV
se disponía de dispositivos teóricos que permitían tratar perfectamente la diferencia entre decir que
los perros están comiendo carne, que los perros son una especie y que los perros son dos palabras4 .
Con el advenimiento de la modernidad surge una actitud decididamente inconformista y
revolucionaria con respecto al lenguaje natural. Hasta ese momento, los pensadores que habían
considerado imperfectas las lenguas naturales, habían creído que las “imperfecciones” se debían
a un proceso de degradación sufrido por una lengua perfecta originaria, seguramente la lengua
que Adán hablaba en el paraíso, la lengua común de la humanidad antes de que Dios castigara
la arrogancia humana en Babel. Con los nuevos esquemas de pensamiento aparece una fuerte
denuncia de las limitaciones de las lenguas naturales, junto con el reclamo de la construcción de
una lengua universal que superase esas deficiencias. No todos los pensadores cultivaron ambas
facetas, la crítica y la propositiva, pero la época agudizó la primera y prohijó la segunda.
Francis Bacon, en su obra Novum Organum5 , publicada en 1620, dedica una buena parte a la
discusión de lo que llama “ídolos”. Estos son ilusiones, obstáculos o impedimentos de diversas
clases que perturban o inclusive imposibilitan el razonamiento correcto. Bacon distingue cuatro
clases de ídolos, entre las cuales hay una, los ídolos del foro, que está directamente relacionada con
el lenguaje natural.
Aforismo XLIII: Hay también ilusiones que surgen por acuerdo y de la asociación de
los hombres entre sí, a las que llamaremos ídolos del foro (...). Los hombres se asocian
a través del habla, y las palabras son elegidas para que se acomoden al entendimiento
de la gente común. Y así un código pobre e inepto obstruye en forma increíble el
entendimiento...
Aforismo LIX: Pero los ídolos del foro son los que mayores perturbaciones causan,
porque se han ocultado en el entendimiento a partir del convenio sobre palabras y
nombres. Porque los hombres creen que su razón controla las palabras. Pero también
es verdad que las palabras reaccionan y dirigen su fuerza contra el entendimiento: y
así la filosofía y las ciencias se han vuelto sofísticas e improductivas. Y las palabras
(...) disecan las cosas a lo largo de las líneas más obvias al sentido común. Y cuando
un entendimiento más agudo, o una observación más cuidadosa intenta dirigir esas
líneas en mejor acuerdo con la naturaleza, las palabras resisten.
4 Tal
vez el lector eche de menos las comillas en la última oración. No fueron colocadas porque su utilización para
distinguir entre uso y mención no fue conocida por los medievales. Ellos dirían que “los perros” está en suposición
material. Quien haya leído la novela El nombre de la rosa, de Umberto Eco, recordará que en ella Guillermo resuelve un
enigma a partir de un relato casual de Adso y de su conocimiento de la suposición material.
5 El título alude directamente a los trabajos sobre lógica de Aristóteles, cuya compilación es conocida como Organum,
“instrumento”. Aristóteles no creía que la lógica fuese una ciencia, sino un pródromo necesario para todas las ciencias, un
instrumento indispensable en todas ellas.
2.2 Lenguas artificiales
45
Aforismo LX: Los ilusiones que las palabras imponen al entendimiento son de dos
clases. O bien son nombres de cosas que no existen (...) o bien son nombres de cosas
que existen pero son confusas y están mal definidas (...)6 .
Unos cuarenta años después, también en las islas británicas, aparecen los esbozos de lenguas
filosóficas que, de tener éxito, superarían todas las maldiciones del lenguaje natural denunciadas
por Bacon. George Dalgarno y John Wilkins son los nombres de quienes presentaron esos esbozos.
La idea de las lenguas filosóficas, que explicaremos brevemente, está inspirada en algo que había ya
llamado la atención de Descartes: a pesar de que un alemán y un francés hablan lenguas diferentes,
ambos, frente a la cadena de caracteres 92357865 reconocen el mismo número, aunque nunca
la hayan visto antes, y aunque cada uno en su lengua la nombre en forma diferente. El objetivo
era lograr algo análogo con una lengua creada justamente con ese propósito: los nombres debían
codificar de alguna manera sus referentes –Descartes, luego de considerar la idea, no la consideró
realizable–. Esto se conseguiría de la siguiente manera: se clasificarían los conceptos, asociando un
carácter a cada uno de ellos. Lo que sigue es un ejemplo totalmente ficticio, inventado solo con el
propósito de que se comprenda la idea. Supongamos que hemos dividido las cosas en materiales
e inmateriales. A “materiales” le asignamos el carácter µ. Supongamos además que convenimos
en que las cosas materiales se dividen en varias especies, una de las cuales es “artefactos”. A esta
especie le asignamos el carácter α. También los artefactos, como género, presentan especies: una
de ellas podría ser “con mango”, a la que asignamos el carácter γ. A su vez, de aquí podrían surgir
subdivisiones, una de las cuales podría ser “para golpear”, a la que le asignamos el carácter λ . Así,
una lengua en la que el nombre de los martillos fuera µαγλ tendría a su favor que si alguien no
sabe lo que es un martillo, el simple hecho de nombrárselo mediante esa palabra le explicará qué es.
Esto muestra también la dificultad básica de la empresa. Como Dalgarno advirtió, antes de
diseñar la lengua en sí se debe disponer de una clasificación adecuada de las cosas de las que se
desea hablar. No podemos distraernos con las dificultades que presentan los proyectos taxonómicos,
pero en resumen la dificultad de encontrar una clasificación adecuada parece irremontable –fue
brillantemente utilizada por J. L. Borges en su escrito El idioma analítico de John Wilkins [Bor74],
el que a su vez fue fermental, según consigna el autor, en la creación de Las palabras y las cosas
[Fou02], de Michel Foucault. Pero además de la dificultad taxonómica, plagada de complicadísimas
cuestiones metafísicas y gnoseológicas, parece inevitable dar la clasificación en una lengua natural,
introduciendo los defectos que se querían evitar. El lector interesado puede saciar su curiosidad
leyendo [Eco99].
Una de las mentes más brillantes del siglo, Leibniz, soñó con una lengua universal de propiedades asombrosas. Aunque el proyecto leibniciano presenta dificultades hermenéuticas y hay una
copiosa literatura al respecto, existe consenso acerca de que se trataría de un sistema lingüístico
basado en caracteres sobre los que se pudiese aplicar un cálculo de modo que solamente se pudieran
producir proposiciones verdaderas. Si le suena familiar, no se asombre: la lógica matemática es
hija de ese sueño de Leibniz, solo que este era muchísimo más complexivo. En palabras del propio
Leibniz
Todo razonamiento humano se realiza por medio de ciertos signos o caracteres.
No solamente las cosas mismas, de hecho, sino ni siquiera las ideas de las cosas
pueden siempre, ni deben, ser observadas distintamente, y por tanto, en lugar de
éstas, por razones de brevedad, se utilizan signos. (...) Por esto se ha llegado a
asignar nombres a los convenios, a las figuras y a las distintas especies de cosas,
signos, signos a los números de la aritmética y a las magnitudes del álgebra... En la
categoría de los signos, pues, incluyo las palabras, las letras, las figuras químicas,
astronómicas, chinas, jeroglíficas, las notas musicales, los signos esteganográficos,
6 Los
aforismos fueron traducidos de [Bac03]
46
Capítulo 2. Naturaleza, artificio y forma
algebraicos, aritméticos y todos los otros que usamos en lugar de las cosas en nuestros
razonamientos. Los signos escritos, o dibujados, o esculpidos, se llaman caracteres...
Las lenguas comunes, aunque sirven para el razonamiento, no obstante están sometidas
a innumerables equívocos, y no pueden ser utilizadas para el cálculo, de manera que
se puedan descubrir los errores de razonamiento remontándose a la formación y
a la construcción de las palabras, como si se tratase de solecismos o barbarismos.
Esta ventaja admirabilísima hasta ahora solo la proporcionan los signos empleados
por los aritméticos y los algebristas, para quienes todo razonamiento consiste en el
uso de caracteres, y todo error mental equivale a un error de cálculo. Meditando
profundamente sobre este tema, de pronto vi claro que todos los pensamientos humanos
podían resumirse completamente en unos pocos pensamientos que deben considerarse
como primitivos. Si luego se les asignan los caracteres a estos últimos, a partir de
aquí se pueden formar los caracteres de las nociones derivadas, de donde siempre es
posible extraer sus requisitos y las nociones primitivas que las componen, es decir, las
definiciones y los valores, y por lo tanto, también sus modificaciones que se pueden
derivar de las definiciones. Una vez hecho esto, quien se sirva de los caracteres así
descritos a la hora de razonar o de escribir, o bien no cometerá nunca errores, o los
reconocerá siempre por sí mismo, ya sean suyos o de otros, mediante comprobaciones
muy simples. [Eco99]
Para entender las motivaciones que Leibniz podría tener para sostener este grandioso proyecto,
conviene recordar algunos elementos:
Él fue uno de los creadores del cálculo diferencial e integral. Lo hizo en forma independiente
de Newton, utilizando una notación mucho más práctica que este. La notación leibniciana
estaba tan adecuadamente elegida –es, básicamente, la que se usa hoy universalmente– que
facilitaba enormemente los cálculos.
Produjo modelos aritméticos de la lógica aristotélica. Por ejemplo, si a animal se le asigna
el número 2, a racional el 3, dado que hombre es, por definición, un animal racional, se le
asignará el 6, producto de 2 y 3. La pregunta acerca de si el hombre es animal, racional, o las
dos cosas, queda respondida al factorizar el 6.
Además, Leibniz consideraba que la razón podría descubrir todas las verdades. La explicación
de esto no nos interesa aquí, pero está intrínsecamente relacionada con su concepto acerca de
cómo Dios había creado el mundo.
No es objetivo de este libro decir más sobre las lenguas filosóficas, excepto que todos estos proyectos
parecen tener un punto débil común, sobre el que pronto confluyó la crítica: necesitan codificar
de alguna manera conceptos primitivos, y la identificación de estos presupone una estructura en
la naturaleza que parece al menos, extremadamente dudosa, y es muy razonable pensar que el
conocimiento humano puede organizarse de muchos modos diferentes, de modo que un objeto que
se incluye en una clase por algunas propiedades, se considera también miembro de otra por otras
propiedades. Un ejemplo simple aclarará el punto: si se desea tener un lenguaje en el que nombres
diferentes correspondan a objetos diferentes, si se nombra al número 2 en una lengua filosófica
por la propiedad de ser el menor par, debería prohibirse nombrarlo como el menor primo, o si no
introduce esta interdicción, debería ser posible identificar ambos nombres como correferenciales.
En el caso del lenguaje matemático parece razonable esperar esta posibilidad en principio, mediante
el cálculo, aunque profundos descubrimientos del siglo XX arrojan una larga sombra de duda
sobre este optimismo restringido a lenguajes que pretendan hablar “simplemente” de la aritmética.
Pero además de este problema, ¿cómo hallar esos caracteres primarios, reales, que se relacionen
directamente con la estructura de la realidad? ¿Cuáles son las propiedades básicas a partir de las
cuales se pueden describir todas? Problemas aparentemente insuperables que bloquearon el camino
2.2 Lenguas artificiales
47
a la realización de los sueños de lenguas filosóficas universales.
2.2.1
Las lenguas internacionales
Mencionamos brevemente aquí otro intento de apartarse del lenguaje natural, pero con propósitos diferentes a los de las lenguas filosóficas. Las lenguas internacionales son creaciones que se
proponen con el único objeto de facilitar la comunicación entre personas con lenguas maternas
diferentes. Es de observar que durante siglos, el latín cumplió esta función en Occidente. Pero en la
época del auge de las lenguas internacionales –el siglo XIX–, el latín había dejado de cumplirla, y
se consideraba impensable que alguna de las lenguas vivas pudiera hacerlo. De ese modo, algunas
personas consideraron que la solución al problema de la comunicación de todos los humanos podría
resolverse mediante una lengua artificial.
Existen varias de estas lenguas, de las cuales tal vez las más importantes son el volapük y
el esperanto. Toman raíces léxicas de diversas lenguas naturales, y tienden a tener gramáticas
absolutamente regulares. El volapük, surgido en 1879, tuvo un momento de auge hacia fines
del siglo XIX, pero las disensiones entre sus hablantes sobre la conveniencia o no de introducir
reformas, y la competencia con el esperanto, surgido en 1887 con una gramática más sencilla,
determinaron que paulatinamente se fuera reduciendo la comunidad que lo sostenía. Hoy se calcula
que lo hablan menos de una centena de personas en el mundo.
El esperanto conoció un éxito mucho mayor. Posiblemente más de un millón de personas lo
hablen actualmente, y se supone que unos pocos miles lo han aprendido en su entorno familiar, no
como resultado de un estudio; de modo que se los puede considerar hablantes nativos.
Las lenguas internacionales sufren siempre la tensión de su transformación con el uso, como le
sucede a las lenguas naturales. Desde determinado punto de vista, no es incorrecto decir que las
palabras que usted está leyendo están escritas en latín transformado. Si bien el español tiene como
ancestro al latín, no hubo un momento en el que la gente decidió crear el español, sino que surgió
como resultado de un lento proceso natural, de un modo análogo a como una especie surge de otra
como resultado de la evolución. Pero el español no es la única lengua romance. Si el esperanto
diera origen a lenguas tan distantes como el español y el rumano, su propósito original se vería
totalmente traicionado. Por ese motivo, las lenguas internacionales se normativizan fuertemente, y
eso hace que, al decir de algunos, se parecen a las lenguas filosóficas en su rigidez, pero sin tener
las ventajas que estas pretendían tener al vincular estrechamente morfología y semántica, mientras
que, debido a esa rigidez, no poseen las ventajas expresivas del lenguaje natural.
2.2.2
Otras lenguas artificiales
Existen otras lenguas artificiales, que tienen propósitos diferentes. Todos conocemos que
algunas lenguas han sido creadas por motivos artísticos, tales como el sindarin o élfico gris, creado
por Tolkien, que aparece en El señor de los anillos. Obviamente, no cumplen otra función aparte de
su pertenencia a una obra literaria.
Inclusive, sin propósitos artísticos, hay personas que crean lenguas. El lector puede encontrar
un manual de construcción de lenguas artificiales en la página The Language Construction Kit,
cuya URL es http://www.zompist.com/kit.html.
Diferente es el caso de la lengua Lincos (nombre que abrevia la expresión latina lingua cosmica).
Esta lengua, creada por Hans Freudenthal en 1960, tiene como propósito la comunicación con
inteligencias extraterrestres. Se trata de un proyecto científico serio, no de una fantasía ovnivológica.
El proyecto SETI rastrea desde hace años el cielo en busca de señales de exointeligencia. Si
encontrásemos una señal electromagnética de la que la mejor explicación fuese que ha sido emitida
por seres inteligentes, ¿cómo podríamos intentar comunicarnos con sus emisores? Dado que esos
emisores presumiblemente sean muy diferentes a los humanos, la tarea no es sencilla. Lincos
está pensada para poder “enseñarse”, y buena parte del programa consiste en la secuenciación
Capítulo 2. Naturaleza, artificio y forma
48
de emisiones con ese fin. Es de destacar que la lengua comenzaría a enseñarse con términos de
aritmética en base 2, y luego continuaría con las lógicas que vamos a estudiar en este libro. Esto
es un reconocimiento implícito de la consideración –que tal vez no recoja unanimidades entre los
filósofos– de que la aritmética y la lógica son universales, compartibles por todas las inteligencias
del universo.
2.3
Lenguajes formales
Los lenguajes formales no son lenguas naturales ni artificiales. No están pensados para ser
hablados, ni para expresar todo. Son lenguajes que se crean con propósitos muy específicos. En
nuestro caso, el propósito está relacionado con la evaluación de las inferencias o argumentos.
Veamos la motivación que impulsó a Gottlob Frege, considerado el más grande lógico de la historia
después de Aristóteles (veremos por qué, cuando estudiemos la lógica de primer orden) a crear un
lenguaje formal, cuando se enfrentó a la tarea de evaluar inferencias que se daban en matemática:
...para que no pudiera introducirse inadvertidamente algo intuitivo, se debió llegar a
suprimir toda laguna en la cadena de inferencias. Al procurar cumplir lo más rigurosamente posible con este requerimiento, me encontré, junto a todas las dificultades
que surgen de la expresión, un obstáculo en la inadecuación del lenguaje: cuanto más
complicadas eran las relaciones tanto menos podía alcanzar la exactitud requerida
por mi propósito. De estas necesidades nació la idea de la presente conceptografía
[este es el nombre que Frege dio a su sistema formal. Un sistema formal está basado
en un lenguaje formal, como veremos]. Por lo tanto, esta debe servir para probar de
la manera más segura la precisión de una cadena de inferencias... [Fre72]
He aquí el propósito de Frege para crear su lenguaje formal. ¿Pero qué es un lenguaje formal?
Según la caracterización que se hace en [Hun73],
Un lenguaje formal es un lenguaje que puede ser completamente descrito sin hacer referencia a
ninguna interpretación o apelación a significados.
¿Cómo puede ser eso? Obviamente, la forma de hacerlo es ver el lenguaje formal como un conjunto
de cadenas de caracteres. Todo lo que cuenta es poder decidir si una cadena dada de caracteres
pertenece o no al lenguaje, sin que la significación que se le pueda dar tenga algo que ver con esto.
Observe que en las lenguas naturales y en las artificiales, las cadenas de caracteres –las palabras–
forman parte del lenguaje en tanto significan algo.
¿Por qué querría uno hacer un lenguaje formal? se preguntará el lector. La respuesta es que, al
menos en nuestro caso, al relegarse en su construcción toda consideración material, de contenido,
la forma queda evidenciada en forma inequívoca.
Para construir un lenguaje formal, entonces, se debe hacer lo siguiente:
Dar un alfabeto, esto es, un conjunto de símbolos que servirán para construir las fórmulas de
nuestro lenguaje, o sea, las cadenas símbolos que pertenecerán a él.
Caracterizar inequívocamente las fórmulas, de manera que frente a cualquier cadena de
símbolos, se sepa si es una fórmula o no.
El lenguaje será el conjunto de las fórmulas. Observe que la caracterización de las fórmulas equivale
al establecimiento de una sintaxis, o sea, a dar reglas de combinación de símbolos.
Una vez hecho esto, según nuestros propósitos, podemos asignarle significados a las fórmulas,
esto es, dar una semántica para el lenguaje. Pero el lenguaje formal queda establecido con prioridad
a la semántica que se le asigna. Un mismo lenguaje formal puede soportar semánticas diferentes.
2.3 Lenguajes formales
49
Con las lenguas naturales no pasa esto, si existiera un lenguaje en el que las palabras se escribiesen
exactamente como en español pero no significaran lo que significan en español, no diríamos que se
trata del español.
Veamos algunos ejemplos simples de lenguajes formales:
Ejemplo 2.1 — Lenguaje formal 1. Alfabeto: {♣, ♦}
Llamaremos “trébol” al símbolo ♣ y “diamante” al símbolo ♦.
Fórmulas: Serán fórmulas todas las cadenas finitas en las cuales la cantidad de tréboles sea
superior a la de diamantes. Ninguna cadena que no cumpla lo anterior será fórmula.
Lo precedente describe en forma completa el lenguaje formal. Debido a la extrema precisión
de su descripción, siempre podemos, sistemáticamente, saber si una cadena dada es fórmula (un
elemento del lenguaje) o no lo es:
♣♣♦♥♣ no es fórmula porque uno de sus símbolos no pertenece al alfabeto del lenguaje.
La cadena formada por cinco diamantes seguidos por infinitos tréboles no es fórmula porque
no es finita.
♣ es fórmula.
♣♦ no es fórmula porque la cantidad de diamantes iguala a la de tréboles.
Es posible obtener resultados generales sobre el lenguaje:
Ejemplo 2.2 ¿Cuántas fórmulas con exactamente cuatro símbolos hay?
Podemos razonar así: una posibilidad de tener una fórmula con cuatro símbolos es que todos
sean tréboles. Eso da una única fórmula. Otra posibilidad es tener una fórmula con tres tréboles y
un diamante. Hay cuatro fórmulas así, según el lugar que ocupe el diamante. No podemos tener
fórmulas con otras cantidades, porque en ese caso los tréboles no superarían los diamantes. Por
lo tanto, hay exactamente cinco fórmulas con cuatro símbolos. Es posible, aunque mucho más
trabajoso, resolver el problema de cuántas fórmulas con k símbolos hay, siendo k un natural dado. Llamemos concatenar a la operación de formar una cadena a partir de dos dadas (en un
orden) colocando la segunda a continuación de la primera. Por ejemplo, la concatenación de las
cadenas ♦♦♣♦ y ♣♦ da como resultado ♦♦♣♦♣♦. Dos resultados sencillos cuya demostración
encarecemos al lector es el siguiente: El resultado de concatenar dos fórmulas es una fórmula y
si en una fórmula con al menos un diamante se elimina un diamante y un trébol, se obtiene una
fórmula.
Ejemplo 2.3 Si una fórmula comienza con dos diamantes contiguos, debe tener también dos
tréboles contiguos.
Supongamos que tenemos una fórmula así:
♦♦S1 S2 ...Sn
donde S1 S2 ...Sn son los símbolos que siguen a los dos diamantes iniciales (sabemos que deben
ser al menos tres porque si no, la cadena no es una fórmula), y que no hay dos tréboles consecutivos
entre estos símbolos. Eso quiere decir que si recorremos esa cadena de símbolos, después de un
trébol siempre encontraremos al menos un diamante, con la única excepción de símbolo final. En
esas condiciones, hay al menos tantos diamantes como tréboles en la cadena examinada, excepto
en un único caso: cuando S1 es un trébol, y luego se van alternando diamantes y tréboles hasta
llegar a Sn , que es también un trébol, o sea, cuando la cadena S1 S2 ...Sn empieza con trébol, sigue
con diamante, sigue con trébol, y así hasta que termina en trébol. Pero en este caso, en la cadena
los tréboles superan a los diamantes por uno. Si agregamos los dos diamantes del principio, en la
Capítulo 2. Naturaleza, artificio y forma
50
cadena total los diamantes superan a los tréboles y no es fórmula. Por otro lado, si no se alternan
así, en la cadena examinada hay al menos tantos diamantes como tréboles, y por lo tanto, en la
cadena total, que agrega dos diamantes al principio, hay más diamantes que tréboles. Entonces, si
la cadena que empieza con dos diamantes es fórmula, debe tener dos tréboles contiguos en algún
lado.
Ejemplo 2.4 — Lenguaje formal 2. Alfabeto: {a, b}
Fórmulas: Esta vez caracterizaremos las fórmulas en forma inequívoca, como debe ser, pero
siguiendo un procedimiento distinto al seguido en el Lenguaje formal 1. Lo que haremos será lo
siguiente:
Daremos explícitamente las fórmulas más simples.
Daremos reglas que permitirán construir fórmulas más complejas a partir de fórmulas de
menor complejidad.
Explicitaremos que las únicas fórmulas son las que se pueden obtener comenzando por las
más simples de todas y aplicando las reglas sucesivamente hasta llegar a ellas. Cualquier
cadena que no se pueda obtener mediante ese procedimiento, no será fórmula.
Siguiendo el plan establecido, las reglas de formación son las siguientes:
1.
2.
3.
4.
Las cadenas a y b son fórmulas.
Si X es una fórmula, entonces aaX es una fórmula.
Si X es una fórmula, entonces Xb es una fórmula.
Todas las fórmulas se pueden obtener por las reglas anteriores.
Este modo de caracterizar el lenguaje nos permite ir construyendo las fórmulas siguiendo un orden:
a es fórmula, b es fórmula (Lo establece directamente la especificación).
Si aplicamos la regla 2 a la fórmula a, obtenemos aaa. Si aplicamos la regla 3 a la fórmula a,
obtenemos ab. Si aplicamos la regla 2 a la fórmula b, obtenemos aab. Si aplicamos la regla 3
a la fórmula b, obtenemos bb.
Podemos seguir aplicando las reglas 2 y 3 a cada una de las fórmulas obtenidas en el paso
anterior. Repitiendo el procedimiento, llegamos a obtener cualquier fórmula del lenguaje.
Esto se puede mostrar con esta estructura arborescente:
a
aaa
aaaaa
b
ab
aaab aaab
aab
abb aaaab
bb
aabb aabb
bbb
2.3 Lenguajes formales
51
En la parte superior tenemos las dos cadenas que se nos dice explícitamente son fórmulas. En el
siguiente nivel, las fórmulas que podemos formar a partir de ellas con la aplicación de una regla; en
el siguiente nivel, las que podemos obtener de estas últimas y así podríamos seguir. Toda fórmula
tiene algún lugar en esa estructura de la que se muestran los primeros tres niveles.
Se observa que la cadena aaa es fórmula y solo puede obtenerse de una manera: comenzando
con la fórmula a y aplicando la regla 2. (Está claro que las fórmulas que quedan en niveles superiores
en la estructura –o sea, más abajo si se piensa gráficamente– tienen más símbolos, de modo que esa
cadena no aparece en ningún otro lugar). Por otro lado, la fórmula aaab se puede obtener de dos
modos: comenzando con la fórmula a, aplicando la regla 2 y luego aplicando la regla 3 al resultado,
o comenzando con la fórmula a, aplicando regla 3 y luego la regla 2 al resultado.
Shift ⇑
SEGUNDA LECTURA
Podemos probar resultados generales sobre este lenguaje, mediante un método que será
importante en variadas ocasiones. Para comprender el método, hay que observar que la
estructura arborescente es muy similar a un árbol genealógico. Cada fórmula tiene dos
“hijos”, que son las fórmulas que resultan de aplicarle la regla 2 y la regla 3. Hemos
observado que algunas fórmulas tienen más de un “padre”, como aaab, que desciende
de aaa por regla 3 y también desciende de ab por regla 2. Supongamos ahora que hay
una propiedad que cumple la característica siguiente: si una fórmula la tiene, sus hijos
la tienen. En forma inexorable, es algo que se trasmite a los dos descendientes, siempre
que el padre lo tenga. Se puede pensar, sobre la estructura arborescente, como algo que
pasa en forma inevitable por las líneas hacia abajo. ¿Asegura eso que todas las fórmulas lo
tienen? No, de ninguna manera, solo dijimos que si una fórmula tiene la propiedad, sus
hijos la tendrán, pero eso no asegura que haya siquiera una fórmula que tenga la propiedad.
Sin embargo, hay una condición bajo la cual se puede asegurar que todas las fórmulas del
lenguaje tendrán la propiedad. Y es una condición obvia: si las fórmulas que están en la
parte superior de la estructura tienen esa propiedad, entonces todas las fórmulas la tendrán.
Al tenerlas las de la parte superior (a y b), la tendrán las que están en el segundo nivel para
abajo, y estas la trasmitirán a las del tercer nivel, y así siguiendo.
De esta manera, si queremos probar que una propiedad es tenida por todas las fórmulas,
tenemos la posibilidad de hacerlo, aunque hay una infinidad de ellas. El método consistiría
en:
1. Probar que las fórmulas más básicas, a partir de las cuales se construyen todas las
demás, las que están en el tope de la estructura arborescente, (a y b en nuestro caso,
pero esto es de aplicación general cuando el lenguaje formal se explicita en la forma
en que lo fue este) cumplen la propiedad.
2. Probar que si una fórmula cualquiera tiene esa propiedad, sus descendientes la tienen
(en nuestro caso, probar que si una fórmula cualquiera tiene la propiedad, las fórmulas
que se obtienen al aplicar las reglas 2 y 3 a ella también la tienen).
Apliquemos el método para probar que todas las fórmulas del lenguaje cumplen la siguiente
propiedad: Si la fórmula tiene una b, a la derecha de esa b no hay ninguna a.
Primero trabajamos sobre las fórmulas más simples, a y b, y vemos que se cumple: la
fórmula a no tiene ninguna b, y la fórmula b no tiene ninguna a a la derecha de su única
b. Ahora tenemos que demostrar que si una fórmula cualquiera tiene la propiedad, sus
descendientes la tienen. No podemos tomar una fórmula específica, como aabb, para hacer
la prueba, porque en ese caso no estaríamos probando que la propiedad es trasmitida por
todas las fórmulas, sino solo que es trasmitida por la fórmula que elegimos. De modo que
consideramos cualquier fórmula (la llamamos X) y suponemos que cumple la propiedad.
Es decir:
Capítulo 2. Naturaleza, artificio y forma
52
Sea X una fórmula que o bien no tiene ninguna b o bien no tiene ninguna a a la derecha de
una b.
¿Cuáles son sus descendientes?
Uno de ellos es aaX. Es claro que aaX también cumple la propiedad, es decir: o bien no
tiene ninguna b (en el caso en que X no tuviera ninguna, ya que lo que hicimos fue agregar
dos aes), o bien tiene bes, pero a la derecha de ellas se encuentra lo mismo que en X, es
decir, ninguna a, porque agregamos las dos aes en el extremo izquierdo de la fórmula. El
otro descendiente es Xb. Pero también es claro que Xb no tiene ninguna a a la derecha de
una b, porque X no las tenía, y ahora lo que se ha hecho es agregar una b en el extremo
derecho, de manera que a la derecha de una b cualquiera de Xb (excepto la que acabamos
de agregar) hay lo mismo que había en X más una b, o sea, ninguna a, y a la derecha de la
que acabamos de agregar no hay nada. De este modo, hemos demostrado que la propiedad
es “hereditaria”, o sea, siempre que una fórmula la tenga, la trasmite a las que se pueden
formar a partir de ella por aplicación de las reglas. Esto completa la demostración de que
todas las fórmulas tienen la propiedad. Eso nos permite decir, sin ninguna clase de dudas,
que aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaababbbbbbbbbb no es una fórmula.
Ejemplo 2.5 — Lenguaje formal 3. Alfabeto: {a, b, c, d, e, f, g, h, i, X, O, V, F}
Fórmulas: Serán fórmulas cualquier letra mayúscula seguida de una letra minúscula.
Si X e Y son fórmulas, XFY es una fórmula.
Todas las fórmulas se pueden obtener por el procedimiento descrito.
Así, Oe es una fórmula, así como XaFVaFOeFVb.
Shift ⇑
SEGUNDA LECTURA
Llamemos “estrella” al símbolo F y demostremos lo siguiente: Ninguna fórmula tiene dos
estrellas consecutivas.
Para demostrar que ninguna fórmula tiene dos estrellas consecutivas, procedemos como
en el ejemplo anterior: consideramos las fórmulas más básicas (que en este caso son 27,
cada una de ellas formada por una de las tres letras mayúsculas seguida por una de las
letras minúsculas) y demostramos que ellas cumplen la propiedad de no tener dos estrellas
consecutivas.
Esto es evidente, ya que estas fórmulas no tienen siquiera una estrella.
Una vez probado esto, tendríamos que probar que la propiedad se conserva sobre la relación
de descendencia. En este caso, un par de fórmulas da origen a una fórmula descendiente. O
sea, habría que probar que si dos fórmulas, X e Y tienen la propiedad, la fórmula que con
ellas se puede formar, o sea XFY, también la tiene. Intentémoslo: Sean X e Y fórmulas del
lenguaje que no tienen estrellas consecutivas. Debemos probar que XFY tampoco tienen
estrellas consecutivas.
Aquí se nos presenta un problema: es claro que si el último símbolo de la fórmula X o
el primero de la fórmula Y es una estrella, la fórmula XFY tiene estrellas consecutivas.
¿Será que estamos intentando demostrar una propiedad que no se cumple? No, la propiedad
se cumple, pero para demostrarla, debemos demostrar que no ocurre lo que acabamos de
decir, o sea, demostrar que ninguna fórmula empieza o termina con una estrella. Y a esta
altura, ya sabemos cómo hacerlo.
Demostración de que ninguna fórmula empieza o termina con una estrella:
Ninguna de las 27 fórmulas básicas empieza o termina con una estrella, porque estas
fórmulas no tienen estrellas. Sean X e Y fórmulas que no empiezan con estrellas. Entonces
2.3 Lenguajes formales
53
la fórmula XFY no empieza con estrella, porque empieza con el mismo símbolo que X,
que hemos supuesto no es una estrella. Sean X y Y fórmulas que no terminan con estrella.
Entonces XFY no termina con estrella, porque termina con el mismo símbolo que Y, que
hemos supuesto no es estrella. Esto demuestra que ninguna fórmula del lenguaje empieza
ni termina con estrella.
Ahora podemos volver a la demostración de que ninguna fórmula tiene dos estrellas
consecutivas: Sean X e Y dos fórmulas que no tienen estrellas consecutivas. Entonces
la fórmula XFY solo puede tener estrellas consecutivas en el caso de que X termine en
estrella o Y comience con una estrella. Pero sabemos que ninguna fórmula empieza o
termina con estrella, por lo que XFY no puede tener dos estrellas consecutivas. Esto
termina la demostración.
Hemos trabajado con tres lenguajes formales, y una pregunta sumamente pertinente es: “Todo
esto está muy bien, pero, ¿qué significan esas fórmulas?”.
La respuesta es que en principio no significan nada. Estos lenguajes fueron elegidos para
explicar qué son los lenguajes formales, y algunos métodos para trabajar con ellos. Pero cuando
uno construye un lenguaje formal, normalmente lo hace para un propósito no meramente didáctico,
sino que en verdad desea atribuir algún significado a las fórmulas. Por ejemplo, el lenguaje formal
3, el último que hemos visto, puede servir para describir disposiciones en una partida de tatetí:
g
h
i
d
e
f
a
b
c
Interprete las letras minúsculas como nombres de las casillas de un tatetí. Interprete además las
letras mayúsculas como “tener una cruz marcada” para la X, “tener un círculo marcado” para la
O, y “estar sin marcar” para la V. Así, la fórmula Oe significará que la casilla central del tablero
está marcada con un círculo, y Va significará que la esquina inferior izquierda está sin marcar.
Interprete además la estrella como un “y”. Entonces, XaFXeFXi significará que la diagonal que
va de izquierda a derecha en sentido ascendente está marcada con cruces, lo que según las reglas
del juego, quiere decir que las cruces ganan. De este modo, se pueden interpretar todas las fórmulas
del lenguaje, inclusive una fórmula como OaFXa que “dice” que la esquina inferior izquierda está
marcada tanto con un círculo como con una cruz. Por supuesto, en el transcurso de una partida
normal, una fórmula así nunca representará una proposición verdadera.
Si suponemos además que la fórmula muestra con el orden en que aparecen sus componentes el
orden de las jugadas empezando con un tablero vacío, la fórmula
XgFOdFXeFOcFXhFOiFXb
representará una partida ganada por las cruces. Esto es evidente porque la fórmula contiene Xb, Xe
y Xh, lo que significa que la columna central fue ocupada por las cruces. La posición final es
Capítulo 2. Naturaleza, artificio y forma
54
X
X
O
X
X
O
O
También se puede usar el lenguaje para especificar con toda precisión una situación dada en el
tablero, y para eso usaríamos el símbolo V con el objetivo de señalar las casillas no marcadas.
Ejercicio 2.1 a) Especificar completamente, con ayuda del lenguaje formal 3 y la interpretación
hecha, la posición siguiente:
X
X
O
b) En la posición anterior, juega círculo. Muestre, valiéndose de fórmulas de nuestro lenguaje
formal para expresarse, que cruz tiene una estrategia ganadora.
Por supuesto, otras interpretaciones de este lenguaje formal son posibles. Podríamos interpretar que
a, b, c, d, e, f, g, h, i representan los números naturales del 1 al 9 en ese orden, que X representa
“cuadrado de”, que O significa “doble de”, que V significa “siguiente de” y que F significa suma.
Así, la fórmula Vd significará el siguiente de d, o sea el 5, y Vi significará 10. La fórmula
XaFObFVc
se interpretará como 12 +2.2+4, o sea como 9. Observe que bajo esta interpretación, las fórmulas
XaFObFVc, Vh, OcFVb tienen todas el mismo significado.
Ejercicio 2.2 Encuentre tres fórmulas diferentes del lenguaje formal 3 que signifiquen el
número 14 en la última interpretación dada.
2.3.1
Lenguaje y metalenguaje
Para hablar se necesita un lenguaje. Nosotros, hispanoparlantes, hablamos normalmente en
español, una lengua natural, y haciendo uso de los recursos que ella nos proporciona, hablamos de
infinidad de cosas. Si bien los poetas suelen quejarse de la poca expresividad de las palabras, suelen
decir que hay algo inefable que escapa a la posibilidad de ser expresado, las lenguas naturales son
los medios más expresivos de que disponemos. Esa expresividad permite que hablemos, como lo
venimos haciendo, de, entre otras cosas, los lenguajes formales. Todos los discursos están en un
lenguaje, y a veces el discurso versa sobre un lenguaje. Se establecen así dos posiciones diferentes
que un lenguaje puede ocupar: como objeto del discurso y como medio del discurso. Por ejemplo,
si digo:
2.3 Lenguajes formales
55
En latín no hay palabras agudas.
estoy usando el español como medio de expresión (obviamente, la oración está expresada en
español) y estoy tomando al latín como objeto del que hablo. En casos así, cuando el discurso
refiere a un lenguaje O y está expresado en un lenguaje M, se dice que el lenguaje O es el lenguaje
objeto y que el lenguaje M es el metalenguaje. Por supuesto, ningún lenguaje es lenguaje objeto o
metalenguaje de por sí, es algo relativo a ciertos discursos sobre lenguajes. En el caso anterior, el
latín era el lenguaje objeto, y el español el metalenguaje, pero en
Hispanica lingua barbara est.
el lenguaje objeto es el español y el metalenguaje el latín.
Inclusive puede suceder que el lenguaje objeto y el metalenguaje sean el mismo, como podrá
comprobar el lector abriendo una gramática española escrita en español. Esta posibilidad es una
muestra de la riqueza expresiva del español (de las lenguas naturales en general). Intente el lector
dar una interpretación de alguno de los tres lenguajes formales que hemos visto que pueda servir
para describir el propio lenguaje, y aunque no consiga demostrar que es imposible, será muy fácil
que se convenza de ello. Es más, no pueden darse las reglas de construcción de un lenguaje formal
en el propio lenguaje formal, por la obvia razón de que sería como intentar levitar tirándose del
pelo.
De este modo, se debe distinguir entre lenguaje y metalenguaje. La importancia será obvia más
adelante, pero en particular podemos remarcar un aspecto. Cuando hablamos de un lenguaje formal,
muchas veces enriquecemos el idioma español con expresiones que también simbolizamos.
Supongamos que queremos decir que dos fórmulas del lenguaje formal 3 son equivalentes
si en la última interpretación dada significan el mismo número. Entonces, Vh es equivalente a
OcFVb. Para no estar escribiendo siempre “es equivalente a” creamos un símbolo, digamos ≈.
Ahora podemos escribir
Vh≈OcFVb
Esto tiene apariencia de fórmula, pero claramente no lo es. El símbolo ≈ no pertenece al alfabeto
del lenguaje, lo hemos introducido para tener un metalenguaje más cómodo.
A partir del próximo capítulo, describiremos y estudiaremos dos lenguajes formales que son
básicos para la lógica, y lo haremos en un español enriquecido con expresiones técnicas definidas
para nuestros propósitos, a las que les atribuiremos símbolos. Será importante entonces distinguir
entre las expresiones del lenguaje y las del metalenguaje.
Relacionada con la distinción lenguaje – metalenguaje existe otra: la distinción uso – mención.
Observe las siguientes oraciones:
1. Wittgenstein era bastante excéntrico.
2. Wittgenstein es muy difícil de pronunciar correctamente.
Está claro que la primera palabra de ambas oraciones funciona en ellas de dos formas muy
distintas. En la primera refiere a un hombre, el genial Ludwig Wittgenstein, quien, entre otras
cosas, renunció a heredar una de las fortunas más grandes de Europa, amenazó con un atizador
a Popper y pasó por largos períodos de aislamiento. Pero en la segunda, esa misma palabra no
está refiriendo a un hombre, sino a una palabra, que es ella misma, y es justamente, el nombre de
Wittgenstein. Se dice que en la oración 1 la palabra en cuestión se está usando, y en la oración 2 se
está mencionando. Los medievales dirían que la palabra en cuestión está en 1 en suposición formal,
y en 2 en suposición material, y no llevarían la distinción a la forma de escribir ambas oraciones.
Capítulo 2. Naturaleza, artificio y forma
56
Nosotros sí lo hacemos. Cuando mencionamos una palabra o expresión, y no la usamos, al escribir
la encerramos entre comillas. Así, lo correcto es escribir7
“Wittgenstein” es muy difícil de pronunciar correctamente.
Es claro que usamos “Wittgenstein” para referirnos a la propia palabra que está entrecomillada. Así,
podemos escribir correctamente
“Wittgenstein” es un apellido.
¿Estará bien escrita la siguiente oración?
XaFXeFXi es una fórmula.
¿No debería ir la fórmula entre comillas, recomendación que no he seguido nunca en este
capítulo, cuando hablaba de fórmulas?
La respuesta podría ser la siguiente: Podría hacerse así, por supuesto, la fórmula se está
mencionando y no usando. Pero al ponerle comillas lo que haríamos sería indicar que no estamos
refiriendo a lo que la fórmula refiera, sino a la fórmula misma. Es decir, usaríamos la fórmula
entre comillas como un nombre de la fórmula. Y ya que las fórmulas no pertenecen (naturalmente)
a nuestro metalenguaje, que es el español, podemos optar por enriquecer este diciendo que en
el metalenguaje, las fórmulas son nombres de sí mismas. Así evitamos nombrar a las fórmulas
encerrándolas entre comillas. Cuando las escribimos directamente, en medio de un texto en español,
las estamos nombrando. Y seguiremos esa práctica, que es muy cómoda.
2.4
Lógica y lenguajes formales
Habíamos hecho una primera caracterización de la lógica como la ciencia que se ocupa de
discernir y estudiar las inferencias o los argumentos válidos en virtud de su forma. También
observamos que la enorme expresividad de las lenguas naturales tiene como contrapartida inevitable
la existencia de fenómenos que pueden entorpecer el logro de los objetivos declarados de la lógica.
Al comienzo de nuestro estudio de los lenguajes formales, vimos una cita de Frege que
ampliaremos con otra proveniente del mismo texto, el prólogo de la Conceptografía, donde después
de explicar las razones que lo llevaron a crear un lenguaje formal, apartándose del lenguaje natural
para el análisis de las inferencias, precisa, con una bella y acertada comparación, la relación entre
el lenguaje natural y el formal que acababa de crear, y establece un programa para la ciencia:
Creo poder hacer muy clara la relación de mi conceptografía con el lenguaje común si
la comparo con la que hay entre el microscopio y el ojo. Este último, por el campo de
su aplicabilidad y la movilidad con que se sabe adaptar a las más diversas situaciones,
posee gran superioridad frente al microscopio. Considerado como aparato óptico,
muestra sin duda muchas imperfecciones, las cuales pasan desapercibidas, por lo
común, solo como consecuencia de su estrecha relación con la vida mental. Pero tan
pronto como los propósitos científicos establecen mayores exigencias en la precisión
de las distinciones, el ojo resulta insuficiente. Por el contrario, el microscopio es lo
más apropiado para tales fines, aunque, por ello, no es utilizable para otros.
Así, esta conceptografía ha sido ideada como un auxiliar para determinados propósitos
científicos y no se la puede sentenciar porque no sirva para otros. Si de algún modo
7 Las
recomendaciones de la Real Academia española no son estas. Indica que cuando una palabra sea mencionada,
se la escriba con un tipo diferente al del resto del texto. Aparentemente, es la práctica corriente en lingüística. En filosofía
el uso que hemos indicado es universal, y para casos más complicados, que los hay, se utiliza una creación de Quine
llamada quasi quotation con sus marcas particulares.
2.4 Lógica y lenguajes formales
57
corresponde a estos fines, no importa que se puedan echar de menos verdades nuevas
en mi trabajo. Me consolaría, sobre todo, la conciencia de que también un desarrollo
del método hace prosperar a la ciencia. Pues Bacon consideró preferible inventar un
medio por el cual se pudiera descubrir fácilmente cualquier cosa, a descubrir algo
particular, y, por cierto, todos los grandes progresos científicos han tenido su origen
en un perfeccionamiento del método.[Fre72]
Frege dice que la ciencia de la lógica necesita de un lenguaje formal, establece una comparación
entre este y el lenguaje natural, y expresa la esperanza de que su método promueva el avance de la
ciencia. A pesar de que su libro no fue inmediatamente reconocido como la obra invalorable que es,
actualmente podemos decir que Frege es, sin dudas,uno de los más grandes lógicos de la historia,
probablemente la persona que más hizo avanzar a la lógica desde los tiempos de Aristóteles. La
senda que marcó, al inventar un lenguaje formal capaz de examinar una enorme clase de inferencias
como examina el microbiólogo sus especímenes con el microscopio, es la que ha seguido esta
ciencia hasta hoy. Tan profundo es el impacto de su obra, que podemos caracterizar a la lógica de la
siguiente manera:
La lógica es la ciencia que se ocupa de la identificación y el estudio de los argumentos válidos
mediante la utilización de lenguajes formales.
En el próximo capítulo comenzaremos el estudio de la primera de las dos lógicas que vamos a tratar
en este libro, y tendremos que empezar, obviamente, construyendo un lenguaje formal apto para
llevar adelante la identificación referida.
Capítulo 2. Naturaleza, artificio y forma
58
2.5
Ejercicios
Los ejercicios 2 a 4 figuran en [Hun73]
1. Estos símbolos pertenecen a un lenguaje formal de importancia central en la historia de la
lógica. Averigüe de qué se trata.
2. El lenguaje W se define de la siguiente forma:
Alfabeto: {4, }
Fórmulas: cualquier cadena finita de símbolos del alfabeto W que comience con 4 es una
fórmula. ¿Es W un lenguaje formal?
3. El lenguaje X se define de la siguiente forma:
Alfabeto: {a, b, c, d, e, f, g}
Fórmulas: toda cadena finita de símbolos del alfabeto de X que dé lugar a una palabra del
castellano es una fórmula. ¿Es X un lenguaje formal?
4. El lenguaje Y se define de la siguiente forma:
Alfabeto: {a, b, c, d, e, f, g}
Fórmulas: toda cadena finita de símbolos del alfabeto de Y que no dé lugar a una palabra del
castellano es una fórmula. ¿Es Y un lenguaje formal?
5. Considere un lenguaje cuyo alfabeto quede determinado así:
Alfabeto: {|, ||, |||, ||||}
Sean fórmulas aquellas cadenas finitas tales que sus símbolos contiguos difieren solo en una
barra.
a) Muestre que hay fórmulas de cualquier longitud mayor que 1.
b) Muestre que todas las fórmulas de cinco símbolos que contienen todos los símbolos del
alfabeto tienen repetido el primer o el último símbolo.
6. Suponga que: (i) se define un lenguaje con un alfabeto finito, (ii) se establece que una
cadena finita determinada es fórmula, (iii) se establece que serán fórmulas todas las cadenas
que se obtengan agregando dos símbolos diferentes (siempre los mismos) al final de una
fórmula ya disponible en cualquier orden, y (iv) todas las fórmulas pueden obtenerse por este
procedimiento a partir de la cadena finita dada.
a) Muestre que si existe una fórmula de 5 símbolos, no puede existir una fórmula de 16
símbolos.
b) Suponga que hay una fórmula de 5 símbolos. ¿Cuántas fórmulas de 6, 7, 8 y 9 símbolos
hay cuyo segmento inicial sea idéntico al de la fórmula dada?
7. Suponga que se define un lenguaje con un alfabeto finito, se establece que una cadena finita
determinada es fórmula y que serán fórmulas todas las cadenas que se obtengan agregando
dos símbolos al final de una fórmula ya disponible o las cadenas que se obtengan eliminando
4 símbolos del principio de una fórmula ya disponible (si tiene 5 o más símbolos), y que
todas las fórmulas pueden obtenerse por ese procedimiento. Suponga además que “aabbccc”
es una fórmula. ¿Podría ser “ccccmm” fórmula?
II
Lógica proposicional
3
Sintaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.1
3.2
3.3
3.4
3.5
3.6
Alfabeto
Fórmulas
El bloqueo de la ambigüedad estructural
El teorema de lectura única
Árbol de formación de una fórmula
Ejercicios
4
Semántica . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
4.9
Verdadero, falso e interpretaciones
Tautologías, contradicciones y contingencias
Tablas de verdad
Asignaciones proposicionales e interpretaciones
Modelos y contramodelos
Vuelta a la biblioteca
¿Decir lo mismo? Equivalencia
¿Será suficiente? Conjuntos adecuados de conectivos
Ejercicios
5
Conectivos lógicos y lenguaje natural 97
5.1
5.2
5.3
5.4
5.5
5.6
El conectivo ¬
El conectivo ∧
El conectivo ∨
El conectivo →
El conectivo ↔
Ejercicios
6
Consecuencia semántica . . . . . . . . . . 109
6.1
6.2
6.3
6.4
6.5
6.6
6.7
6.8
6.9
La validez en el lenguaje formal
La relación de consecuencia semántica
Conjuntos insatisfacibles y contradicciones
Conjunto vacío y tautologías
Monotonía
El condicional asociado
El teorema de deducción (versión semántica)
El “absurdo”
Ejercicios
7
Consecuencia sintáctica . . . . . . . . . . . 123
7.1
7.2
7.3
7.4
7.5
7.6
Tras las huellas de los humanos
El sistema de deducción natural para L P
Consecuencia sintáctica
Heurística
Errores frecuentes al intentar hacer derivaciones
Propiedades de la relación de consecuencia sintáctica
Aparatos deductivos
Excurso filosófico: Lógica intuicionista
Ejercicios
7.7
7.8
7.9
3. Sintaxis
A sintaxis de un lenguaje formal lo determina completamente, indicando cómo podemos
combinar los símbolos para obtener fórmulas. Por eso, para definir un lenguaje formal lo
primero que se debe establecer es cuál es el conjunto de símbolos con que contamos, y luego
debemos explicitar las reglas de combinación para la obtención de fórmulas.
L
3.1
Alfabeto
El alfabeto será el conjunto de símbolos de que dispondremos para la construcción de fórmulas,
y tanto este como las reglas de combinación deben darse teniendo en cuenta los propósitos para
los que se crea el lenguaje formal. En nuestro caso, el propósito es poder distinguir las inferencias
válidas en virtud de su forma, en tanto esa forma dependa de la función de palabras y expresiones
como “no”, “y”, “o”, “si...entonces...” y “...si y solo si”, como habíamos visto en el capítulo 1.
Debemos entonces definir el alfabeto. ¿Qué cosas queremos incluir en él? Para decidirlo,
debemos preguntarnos qué tendremos que representar con los símbolos de nuestro lenguaje formal.
Hemos visto que nos interesa poder representar proposiciones o enunciados. Ahora bien, a este
respecto se presenta una complicación. Hay ciertas proposiciones que consideraremos como más
básicas que otras, en el sentido de que no podremos, con nuestro lenguaje, representar un análisis
de ellas. Un ejemplo aclarará el punto:
Si consideramos las proposiciones
1. Llueve.
2. Llueve y truena.
es claro que 2 es más compleja que 1, ya que 2 aparece como el resultado de conectar dos
proposiciones, 1 y
3. Truena.
a través de la palabra “y”, cuya función ya hemos discutido informalmente. O sea que un análisis
de 2 nos muestra que está compuesta por proposiciones más básicas, a saber 1 y 3, y estas últimas
Capítulo 3. Sintaxis
62
proposiciones no arrojan como resultado proposiciones más simples al ser analizadas. Obsérvese
que la simple complejidad gramatical no es un indicador fiable en esta cuestión: Consideremos
4. Llueve en Montevideo.
5. Llueve a baldes en Montevideo.
¿Qué pasa si intentamos encontrar componentes más simples de estas proposiciones? Podríamos
creer que 4 es, en realidad, algo que desde el punto de vista lógico equivale a “Llueve y llueve
en Montevideo”, pero es obvio que este análisis lo que hace es decir que 4 equivale a 1 y 4
conectadas por un “y”. La aparición de 4 para explicar 4 hace que el análisis sea insatisfactorio, y
que consideremos que, desde nuestro punto de vista, 4 no es analizable. Con 5 pasa algo idéntico,
ya que si se piensa con cuidado, no podemos decir que 5 sea equivalente a “Llueve y llueve a
baldes y llueve en Montevideo” (entre otros motivos, porque podría llover a baldes en Pando,
pero mansamente en Montevideo, con lo que diríamos algo verdadero al decir la última expresión
entrecomillada, pero 5 sería falso). Es por esto que consideramos que 5, desde el punto de vista
proposicional, no admite ulteriores análisis. Aceptamos entonces que necesitaremos representar
proposiciones o enunciados que no sean analizables, es decir, los que consideraremos más básicos.
Como resulta intuitivamente evidente que hay una cantidad infinita de tales proposiciones (en
realidad, es muy fácil generar un esquema que arroje como resultado infinitas de tales proposiciones
¿podrá el lector hallar uno?), requeriremos que nuestro lenguaje tenga infinitos símbolos para
representarlas.
Estos símbolos serán llamados letras proposicionales o letras de enunciado, y tendrán todos la
misma forma: una letra “p” con un subíndice añadido. Incluiremos en nuestro alfabeto todos los
símbolos que constan de una letra “p” y un subíndice que sea un numeral natural.
Nada obsta para que se represente una proposición compleja mediante una letra proposicional.
Podemos representar 2 simplemente como p1 . Pero en muchos casos, obrar de esta manera no
nos permitirá capturar el funcionamiento lógico de lo que tengamos entre manos. Por ejemplo, si
alguien dice
Llueve y truena.
Si llueve me quedo en casa.
Por lo tanto, me quedo en casa.
La representación de “Llueve y truena” como p1 no será adecuada, porque no captura la
proposición “Llueve” que tiene un papel fundamental en el argumento. Pero si el argumento fuera
Llueve y truena.
Si llueve y truena me quedo en casa.
Por lo tanto, me quedo en casa.
al representar “Llueve y truena” como p1 no se perdería nada en cuanto a la evaluación del
argumento.
Aun en caso de que estemos trabajando una situación en la que solo aparezcan p1 , p2 y p3 ,
debemos recordar que nuestro alfabeto incluye a p4 , p5 ,. . . y en general, a cualquier letra “p”
subindizada con un número natural.
Por supuesto, esto no es suficiente. Sabemos que es posible construir proposiciones nuevas a
partir de otras proposiciones, conectándolas de maneras muy diversas en lenguaje natural, pero que
comparten la característica siguiente:
3.1 Alfabeto
63
El valor de verdad de la proposición resultante de conectar las proposiciones dadas depende de
los valores de verdad de las proposiciones constituyentes.
En nuestro ejemplo anterior, el valor de verdad de 2 depende de los valores de verdad de 1 y 3.
Es por esto que agregaremos a nuestro alfabeto símbolos que sirvan para poner de manifiesto
esas conexiones. Los símbolos que agregaremos para este cometido serán:
¬ (negador)
∧ (conjunción)
∨ (disyunción)
→ (condicional)
↔ (bicondicional)
los cuales son llamados “constantes lógicas”1 . Podría parecer que ya tenemos todos los símbolos
necesarios. Pero recordemos este enunciado, que ya consideramos cuando hablamos sobre el
lenguaje natural:
6. Juan estudia filosofía y artes marciales o tarot.
Un análisis muestra que el valor de verdad de 6 dependería del valor de verdad de
Juan estudia filosofía, que representaremos con p1 .
Juan estudia artes marciales, que representaremos con p2 .
Juan estudia tarot, que representaremos con p3 .
Aparentemente, podemos representar 6 como
7. p1 ∧ p2 ∨ p3
Pero esto es totalmente insatisfactorio, porque estamos reflejando el fenómeno de la ambigüedad
estructural en nuestro lenguaje, como mostraremos. ¿Cuáles son las condiciones de verdad de 6,
representado por 7? No hay forma de decidirlo. Podemos entender el enunciado de dos maneras:
1. El enunciado expresa que al menos una de estas dos posibilidades se da:
a) Juan estudia filosofía y artes marciales.
b) Juan estudia tarot.
2. El enunciado expresa que se cumplen estos dos hechos:
a) Juan estudia filosofía, y además
b) Juan estudia artes marciales o tarot.
Obsérvese que si alguien adhiere a la interpretación 1, dirá que el enunciado es verdadero en
el caso de que Juan solo estudie tarot, pero no filosofía ni artes marciales, y quien opte por la
interpretación 2, dirá que es falso en ese caso.
Si no deseamos que la ambigüedad estructural quede reflejada en nuestro lenguaje formal,
debemos hacer algo al respecto. Nuestra solución2 consistirá en la introducción de nuevos símbolos:
los paréntesis derechos e izquierdos, que nos permitirán distinguir entre las dos posibilidades de
arriba con expresiones así:
1 Este nombre deriva de que su comportamiento —su significado– es invariable, como se verá al estudiar la semántica
del lenguaje.
2 Hay otras soluciones, entre las cuales destaca la llamada “notación polaca”, que prescinde de los paréntesis y de
introducir otros símbolos para resolver el problema. Se genera así un lenguaje formal diferente al que presentaremos
aquí. Ármese el lector de paciencia, de mucha paciencia, si algún día debe leer un libro que utilice la notación polaca.
Capítulo 3. Sintaxis
64
Para la primera interpretación: (p1 ∧ p2 ) ∨ p3
Para la segunda: p1 ∧ (p2 ∨ p3 )
(Esto no es exacto, como se verá un poco más adelante, pero en este momento el detalle no
tiene importancia).
Hemos terminado el listado de los símbolos de nuestro alfabeto:
Alfabeto de la lógica proposicional Consta de los siguientes símbolos:
Letras proposicionales
Conectivos proposicionales
Paréntesis
p1 , p2 , p3 , ...
∧, ∨, →, ↔, ¬
(, )
3.2
Fórmulas
Para proseguir debemos responder la siguiente pregunta, y con ella entramos de lleno en los
problemas de sintaxis, o sea, en el estudio de las formas en que vamos a permitir que los símbolos
se combinen.
¿Qué distingue las cadenas de símbolos que son fórmulas de aquellas que no lo son?
Intuitivamente, es claro que una cadena como ¬p1 “debería” ser una fórmula, y una como
pq → ∧ no. Sin embargo, por más que parezca suficiente manejarse a un nivel intuitivo examinando
cada caso, eso no es satisfactorio. Por un lado, podríamos enfrentarnos a cadenas de símbolos muy
complejas, ante las que nuestra intuición no nos ayudara; y por otro, necesitamos un criterio claro y
objetivo que nos permita, en todos los casos, determinar si una cadena dada es una fórmula o no,
sin ambigüedades de tipo alguno.
Nuestro alfabeto ha sido elegido con el propósito de representar determinadas estructuras
proposicionales, a través de cadenas de símbolos cuyo conjunto será nuestro lenguaje, al que
llamaremos L P. Para construir L P, recordemos que la negación de una proposición es una
proposición, que la conjunción de dos proposiciones es una proposición, así como su disyunción,
su implicación y su doble implicación. Por eso, resulta razonable exigir lo siguiente:
1.
2.
3.
4.
5.
6.
Las letras proposicionales serán fórmulas.
Si A es una fórmula, ¬A también será una fórmula.
Si A y B son fórmulas, (A ∧ B) también será una fórmula.
Si A y B son fórmulas, (A ∨ B) también será una formula.
Si A y B son fórmulas, entonces (A → B) también será una fórmula
Si A y B son fórmulas, entonces (A ↔ B) también será una fórmula3 .
¿Por qué en 3–6 se introducen paréntesis? (Considerar qué sucedería si se fuera a aplicar la regla
4 sobre p ∧ q y r sin los paréntesis).4 . Por esto dijimos que la representación de una proposición
como p1 ∧ (p2 ∨ p3 ) no era exacta, ya que le faltan los paréntesis exteriores.
Esto es decir, básicamente, que si partimos de las letras proposicionales, y aplicamos negaciones
y conectivos binarios (cuidando la colocación de paréntesis) a lo que ya tengamos y vayamos
obteniendo, nunca obtendremos algo que no sea una fórmula. Pero en realidad, nuestra intuición es
más fuerte: nos dice que no solamente no obtendremos algo que no sea una fórmula, sino además
3 Obsérvese
que A y B no pueden pertenecer al lenguaje, sino que se usan para representar cualquier elemento del
lenguaje. Son metavariables, y, como tales, pertenecen al metalenguaje.
4 En caso de que p ∧ q fuese una fórmula. Según lo que estamos discutiendo, no lo es, pues le faltan los paréntesis
exteriores.
3.2 Fórmulas
65
que cualquier fórmula se puede obtener mediante ese procedimiento consistente en partir de letras
proposicionales e ir aplicando negaciones y conectivos binarios, ya que las proposiciones o bien
son inanalizables o bien son compuestos en los términos que venimos tratando. De esa manera,
tenemos una caracterización completa de fórmula: Fórmula es aquello que puede obtenerse a partir
de ese procedimiento, y toda fórmula se puede obtener con este procedimiento. Con esto in mente,
presentamos la siguiente
Definición 3.2.1 [Secuencia de formación en L P] Una secuencia de formación (S. F.) es una
secuencia finita en la que cada elemento cumple lo siguiente:
i O bien es una letra proposicional
ii O bien es de la forma ¬A, siendo A un elemento anterior en la propia secuencia
iii O bien es de la forma (A ∧ B) siendo A y B elementos anteriores en la propia secuencia
iv O bien es de la forma (A ∨ B) siendo A y B elementos anteriores en la propia secuencia
v O bien es de la forma (A → B) siendo A y B elementos anteriores en la propia secuencia
vi O bien es de la forma (A ↔ B) siendo A y B elementos anteriores en la propia secuencia
Por ejemplo, una secuencia de formación, en la que al lado de cada elemento se ha justificado
su inclusión, es la siguiente:
1.
2.
3.
4.
5.
6.
7.
p1 (Es letra proposicional. Definición de S. F. i)
p5 (Es letra proposicional. Definición de S. F. i)
¬p1 (Definición de S. F. ii aplicada al elemento 1)
(p1 ∧ ¬p1 ) (Definición de S. F. iii aplicada a los elementos 1 y 3)
(p5 → (p1 ∧ ¬p1 )) (Definición de S. F. v aplicada a los elementos 2 y 4)
p3 (Es letra proposicional. Definición de S. F. i)
((p5 → (p1 ∧ ¬p1 )) ∨ p3 ) (Definición de S. F. iv aplicada a los elementos 5 y 6)
La idea tras esta definición es la siguiente: de la discusión anterior, resulta claro que aquellas
cadenas que deseamos sean fórmulas son exactamente aquellas que pueden obtenerse a través de
secuencias de formación. Por lo tanto, definimos:
Definición 3.2.2 — Fórmula de L P. A es una fórmula de L P si y solo si existe una
secuencia de formación en L P de la cual A es el último elemento.
Así, podemos demostrar rigurosamente que una cadena dada es una fórmula exhibiendo una
secuencia de formación de la cual la cadena dada sea el último elemento.
Supongamos que queremos demostrar que la cadena ((p1 → (p1 ∧ p1 )) ∨ (p2 ∨ p3 )) es una
fórmula.
Ejercicio 3.1 Justificar que lo siguiente se trata de una secuencia de formación, explicitando en
cada elemento, qué ítem de la definición 3.2.1 asegura que la construcción es correcta.
1.
2.
3.
4.
5.
6.
7.
p1
(p1 ∧ p1 )
(p1 → (p1 ∧ p1 ))
p2
p3
(p2 ∨ p3 )
((p1 → (p1 ∧ p1 )) ∨ (p2 ∨ p3 ))
Capítulo 3. Sintaxis
66
Esto demuestra que la cadena dada es una fórmula del lenguaje L P.
3.3
El bloqueo de la ambigüedad estructural
Acabamos de demostrar que una cadena de símbolos, ((p1 → (p1 ∧ p1 )) ∨ (p2 ∨ p3 )), es una
fórmula, exhibiendo una secuencia de formación. Pero ¿es esta la única secuencia de formación
que la tiene como último elemento? Obviamente no. Por ejemplo, esta también es secuencia de
formación de la misma fórmula:
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
p1 (Es letra proposicional. Definición de S. F. i)
¬p1 (Definición de S. F. ii aplicada al elemento 1)
p17 (Es letra proposicional. Definición de S. F. i)
(p1 ∧ p1 ) (Definición de S. F. iii aplicada a 1)
(p1 ∨ ¬p1 ) (Definición de S. F. iv aplicada a 1 y 2)
(p1 → (p1 ∧ p1 )) (Definición de S. F. v aplicada a 1 y 4)
p2 (Es letra proposicional. Definición de S. F. i)
p3 (Es letra proposicional. Definición de S. F. i)
(p2 ∨ p3 ) (Definición de S. F. iv aplicada a 7 y 8)
(p3 → (p2 ∨ p3 )) (Definición de S. F. v aplicada a 8 y 9)
((p1 → (p1 ∧ p1 )) ∨ (p2 ∨ p3 )) (Definición de S. F. iv aplicada a 6 y 9).
Esta nueva secuencia de formación contiene elementos que en algún sentido, caen fuera de nuestro
interés. Pero hay algo bastante profundo que podemos observar aquí. Si rastreamos cómo se
construyó la fórmula en la última secuencia, vemos que el onceavo elemento, o sea nuestra fórmula,
se construyó con los elementos (p1 → (p1 ∧ p1 )) (número 6) y (p2 ∨ p3 ) (número 9). A su vez,
el elemento número 6 se construyó con los elementos p1 (número 1) y (p1 ∧ p1 ) (número 4),
mientras que el elemento número 9 se construyó con los elementos p2 (número 7) y p3 (número
8). Por su parte, el elemento número 4 fue construido a partir de p1 (número 1). No hemos
explicado cómo se construyeron los elementos numerados con el 1, el 7 y el 8 pero obviamente,
son letras proposicionales, elementos básicos que no han sido construidos a partir de otros. Los
elementos que nos parecían inútiles no aparecen en este análisis. Es más, si miramos la primera
secuencia de formación para esta fórmula, que parece ser de máxima economía –en el sentido de
que ninguna secuencia más breve será de formación para esa fórmula–, y si hacemos el mismo
trabajo, encontramos que la fórmula se ha construido usando exactamente los mismos elementos
(Pruébelo el lector).
Sin embargo, esto no tendría por qué haber sido así si no hubiéramos tomado ciertos recaudos
relacionados con la utilización de paréntesis. Veámoslo con un ejemplo de otro lenguaje formal,
que ya conocemos. Reconsideremos el Lenguaje formal 2 del capítulo anterior. Ese lenguaje tenía
como alfabeto el conjunto {a, b} y podríamos reformular su definición de fórmula así:
Una secuencia de formación (S.F) es una secuencia finita en la que cada elemento cumple lo
siguiente:
i
ii
iii
iv
O bien es a
O bien es b
O bien es de la forma aaA, siendo A un elemento anterior en la propia secuencia
O bien es de la forma Ab, siendo A un elemento anterior en la propia secuencia.
Definimos igualmente fórmula como cualquier elemento final de una secuencia de formación.
3.3 El bloqueo de la ambigüedad estructural
67
Es claro que la cadena aaab es fórmula, ya que podemos presentar esta secuencia de formación:
1. a Definición de S.F. i
2. aaa Definición de S.F. iii aplicada a 1
3. aaab Definición de S.F. iv aplicada a 2.
Pero también podemos presentar esta secuencia de formación para la misma fórmula:
1. a Definición de S.F. i
2. ab Definición de S.F. iii aplicada a 1
3. aaab Definición de S.F. iv aplicada a 2.
Observamos que en la primera secuencia de formación, aaab ha sido construida usando la cadena
aaa, y en la segunda, esta cadena no aparece, sino que lo hace ab, la cual no aparece en la primera.
Esto está íntimamente relacionado con el fenómeno que ya hemos mencionado un par de veces
y que llamamos ambigüedad estructural.
Supongamos que no hubiéramos incluido los paréntesis en nuestro lenguaje, y que hubiésemos
definido secuencia de formación así:
Secuencia finita en la que cada elemento
1.
2.
3.
4.
5.
6.
O bien es una letra proposicional
O bien es de la forma ¬A, siendo A un elemento anterior en la propia secuencia
O bien es de la forma A ∧ B siendo A y B elementos anteriores en la propia secuencia
O bien es de la forma A ∨ B siendo A y B elementos anteriores en la propia secuencia
O bien es de la forma A → B siendo A y B elementos anteriores en la propia secuencia
O bien es de la forma A ↔ B siendo A y B elementos anteriores en la propia secuencia
En este caso, la cadena p1 ∧ p2 ∨ p3 (que, según vimos, habíamos propuesto como traducción a
nuestro tentativo lenguaje formal de, por ejemplo, “Juan estudia filosofía y artes marciales o tarot”,
estructuralmente ambigua) sería una fórmula:
1.
2.
3.
4.
5.
p1
p2
p3
p1 ∧ p2
p1 ∧ p2 ∨ p3
¿Cómo es que se refleja la ambigüedad estructural en este lenguaje formal tentativo que venimos
manejando? Observe que según esta secuencia de formación, la fórmula es la disyunción de p1 ∧ p2
y p3 . Sin embargo, tenemos otra secuencia de formación para la misma fórmula:
1.
2.
3.
4.
5.
p1
p2
p3
p2 ∨ p3
p1 ∧ p2 ∨ p3
Capítulo 3. Sintaxis
68
Según esta secuencia de formación, la fórmula es algo que debería ser muy diferente: la conjunción
de p1 con p2 ∨ p3 . Debería ser diferente, pero no lo es en este lenguaje tentativo. Para evitar esto
fue que se introdujeron los paréntesis en el alfabeto del lenguaje L P. Pero, ¿cómo podemos estar
seguros de que ninguna fórmula de L P es ambigua en el sentido que venimos tratando? En el
caso particular que estudiamos, se trataba de una fórmula que podía ser leída como una conjunción
y también como una disyunción. Deberíamos demostrar un teorema que nos asegurase que en el
lenguaje L P ninguna fórmula puede ser leída de dos maneras diferentes. ¿De qué herramientas
disponemos para ello?
Shift ⇑
3.3.1
SEGUNDA LECTURA
Inducción sobre fórmulas
Para contestar esa pregunta, repasemos algunas consideraciones ya hechas en el capítulo
anterior. Habíamos visto allí que en los casos en que tenemos una especificación de las
fórmulas del lenguaje proporcionada a través de una lista o descripción de algunas fórmulas
básicas, y de reglas para la construcción de fórmulas a partir de otras, y una cláusula que
especifique que toda fórmula se puede obtener a partir de las más básicas por aplicación
sucesiva de las reglas de construcción, podíamos demostrar que todas las fórmulas del
lenguaje tienen una propiedad determinada si demostramos que todas las fórmulas básicas
tienen esa propiedad, y que cada vez que se construye una fórmula a partir de algunas que
tienen esa propiedad, la fórmula construida también la tendrá. Aplicado a nuestro lenguaje
L P, eso resulta en lo siguiente:
Supongamos que queremos demostrar que todas las fórmulas de nuestro lenguaje tienen
una propiedad P.
Si demostramos que
Todas las fórmulas que son una única letra proposicional tienen la propiedad P.
Siempre que la fórmula A tenga la propiedad P, la fórmula ¬A tendrá la propiedad
P.
Siempre que las fórmulas A y B tengan la propiedad P, la fórmula (A B) –siendo
uno cualquiera de estos símbolos: ∧, ∨, → o ↔– tendrá la propiedad P.
habremos demostrado que todas las fórmulas de L P tienen la propiedad P.
Esto es así porque, evidentemente, en esas condiciones, cualquier término de una secuencia
de formación tendrá la propiedad P. Este procedimiento se conoce como inducción sobre
fórmulas.
3.4
El teorema de lectura única
Quisiéramos demostrar que toda fórmula de L P tiene la propiedad de admitir una única
lectura. No nos conviene en este punto un abordaje demasiado directo, sino que será mejor
demostrar un par de resultados relativos a los paréntesis en las fórmulas –a fin de cuentas,
la introducción de paréntesis fue motivada por el deseo de evitar las lecturas múltiples–.
Comencemos entonces, demostrando algo muy fácil, a lo que le pondremos el humilde
mote de “Lema”.
Lema 3.4.1 — Paréntesis derechos e izquierdos. En toda fórmula del lenguaje L P
hay la misma cantidad de paréntesis derechos que de paréntesis izquierdos.
3.4 El teorema de lectura única
Demostración: Es claro que las fórmulas que son una letra proposicional tienen la misma
cantidad de paréntesis izquierdos y derechos, cero de cada uno de ellos.
Supongamos que tenemos una fórmula A con la misma cantidad de paréntesis izquierdos
y derechos. Claramente, la fórmula ¬A tiene también la misma cantidad de paréntesis
izquierdos y derechos que A, y en A estas cantidades son iguales.
Supongamos ahora que tenemos dos fórmulas A y B, en cada una de las cuales la cantidad
de paréntesis izquierdos iguala a la de paréntesis derechos. Consideramos la fórmula
(A B) siendo uno cualquiera de estos símbolos: ∧, ∨, → o ↔, y vemos que tiene la
misma cantidad de paréntesis derechos e izquierdos: Si A tenía m paréntesis derechos y m
paréntesis izquierdos, mientras B tenía n paréntesis derechos y n izquierdos, en la nueva
fórmula están los mismos símbolos que en A y B más un paréntesis derecho, uno izquierdo
y , por lo que en (A B) habrá m + n + 1 paréntesis izquierdos y la misma cantidad de
paréntesis derechos.
Demostraremos ahora otro lema que nos dirá que si partimos una fórmula en dos partes,
izquierda y derecha –ninguna de las dos vacía–, o bien la parte izquierda es una cadena que
consta solo de negadores, o bien tiene más paréntesis izquierdos que derechos.
Ejemplo 3.1 Podemos dividir la fórmula ¬¬¬((p1 ∧ p2 ) → p3 ) en una parte izquierda,
¬¬, y una derecha, ¬((p1 ∧ p2 ) → p3 ). En este caso la parte izquierda consta solo de
negadores. Otra posibilidad es que la parte izquierda sea ¬¬¬((p1 ∧ p2 ) → y la derecha
p3 ). En este caso la parte izquierda consta de dos paréntesis izquierdos y uno derecho. Lema 3.4.2 — Partes derechas e izquierdas de las fórmulas. Si en una fórmula de
más de n símbolos se considera la cadena formada por los primeros n de ellos –a la
que llamaremos “parte izquierda de la fórmula”– se tiene que o bien esa cadena consta
solamente de negadores o bien en esa cadena hay más paréntesis izquierdos que paréntesis
derechos.
Demostración: Es claro que no tenemos que probar nada sobre las letras proposicionales,
porque no pueden dividirse en parte derecha e izquierda.
Supongamos que tenemos una fórmula A tal que cada vez que se divide en parte derecha e
izquierda, o bien la parte izquierda consta solo de negadores o bien la parte izquierda tiene
más paréntesis izquierdos que derechos.
Consideremos la fórmula ¬A y dividámosla en una parte izquierda y una derecha. La
parte izquierda que hemos obtenido es o bien el negador que la encabeza o bien una parte
izquierda de A precedida de un negador. En el primer caso, es claro que la parte izquierda
tiene solo negadores. En el segundo caso, si la parte izquierda de A que consideramos solo
tiene negadores, lo mismo pasa con la parte izquierda de ¬A. Si la parte izquierda de A que
consideramos tiene más paréntesis izquierdos que derechos, lo mismo pasa con la parte
izquierda de ¬A, ya que solo difieren en un negador.
Supongamos ahora que tenemos dos fórmulas, A y B, que cumplen la propiedad que
venimos considerando: cualquiera de sus partes izquierdas consta solo de negadores o
tiene más paréntesis izquierdos que derechos. Formemos la fórmula (A B), siendo uno
cualquiera de los conectivos binarios, y dividamósla en una parte izquierda y una derecha.
Tenemos varios casos:
La parte izquierda de (A B) que consideramos es (. En este caso obviamente consta
de más paréntesis izquierdos que derechos.
La parte izquierda de (A B) que consideramos es (X siendo X una parte izquierda
de A. Tanto si X consta solo de negadores como si X tiene más paréntesis izquierdos
que derechos, (X tiene más paréntesis izquierdos que derechos.
69
Capítulo 3. Sintaxis
70
La parte izquierda de (A B) que consideramos es (A o (A . En ambos casos la
cantidad de paréntesis izquierdos supera en 1 a la cantidad de paréntesis derechos en
esa parte izquierda, ya que según el lema 3.4.1, la cantidad de paréntesis izquierdos y
derechos en A –que es una fórmula– es la misma.
La parte izquierda de (A B) que consideramos es (A X siendo X una parte izquierda
de B. Si X consta solo de negadores, por la misma razón que en el caso anterior, la
cantidad de paréntesis izquierdos supera en 1 a la de paréntesis derechos en (A X. Si
X tiene más paréntesis izquierdos que derechos, y la diferencia entre esas cantidades
es k, es claro que en (A X hay k + 1 paréntesis izquierdos más que derechos.
La parte izquierda de (A B) que consideramos es (A B. En este caso, como A y B
son fórmulas, por el lema 3.4.1, tienen la misma cantidad de paréntesis izquierdos
que derechos, de modo que en (A B la cantidad de paréntesis izquierdos supera en 1
a la de paréntesis derechos.
¿Por qué nos hemos tomado el trabajo de demostrar estos tediosos lemas? La respuesta es
que juntos dan un corolario que nos será fundamental para demostrar que hemos evitado
completamente la ambigüedad estructural: Dado que ninguna fórmula consta solo de
negadores o tiene más paréntesis izquierdos que derechos,
Corolario 3.4.3 Ninguna parte izquierda de una fórmula es una fórmula.
Estamos en condiciones de demostrar que no hay ninguna fórmula de nuestro lenguaje que
admita dos lecturas diferentes. Eso es exactamente lo que establece el
Teorema 3.4.4 — Lectura única. Toda fórmula de L P tiene una y solo una de las
siguientes formas:
1.
2.
3.
4.
5.
6.
pk (o sea, es una letra proposicional)
¬A, siendo A una única fórmula.
(A ∧ B), siendo A y B fórmulas únicas.
(A ∨ B), siendo A y B fórmulas únicas.
(A → B), siendo A y B fórmulas únicas.
(A ↔ B), siendo A y B fórmulas únicas.
Observemos, antes de demostrarlo, que nos asegura lo que su título pregona: toda fórmula
puede leerse de una manera única y determinada. Si una fórmula es de la forma 2, diremos
que su conectivo principal es una negación, y también que la fórmula es una negación. Si
es de la forma 3, diremos que su conectivo principal es una conjunción y también que la
fórmula es una conjunción; y análogamente con las formas 4–6. Así, estamos seguros, por
ejemplo, de que ninguna conjunción es también una disyunción. Procedamos ahora a la
demostración:
Demostración: Es obvio que cualquier fórmula debe tener una de las formas 1–6, ya
que todos los elementos en una secuencia de formación son de alguna de esas formas. El
problema es mostrar que ninguna fórmula tiene más de una de esas formas. Es claro además
que si una fórmula tiene la forma 1 (es una variable proposicional) no tiene ninguna de las
otras formas, y lo mismo si tiene la forma 2 (es una negación) no tiene ninguna de las otras
formas. Además, si pn =pm , obviamente n = m, y si ¬A = ¬X, obviamente A = X.
Supongamos ahora que tenemos una fórmula que podemos expresar de dos maneras en un
par de las formas 3–6, es decir, una fórmula que se puede escribir como (C D) y también
como (E F), donde y son conectivos binarios, C, D, E y F fórmulas. Mostraremos
3.5 Árbol de formación de una fórmula
71
que debe ser C = E, = y D = F:
Como las cadenas (C D) y (E F) son iguales, también son iguales las cadenas que se
obtienen al quitar los paréntesis iniciales de cada una:
C D) = E F)
Pero entonces es claro que si C y E fueran distintas, C sería parte izquierda de E o E
sería parte izquierda de C, lo que es imposible por el Corolario 3.4.3 dado que ambas son
fórmulas. Entonces E = C, y por lo tanto
D) = F)
Pero de aquí es inmediato
=
y entonces
D) = F)
y nuevamente, si D y F fuesen diferentes, una sería parte izquierda de la otra, lo que es
imposible. Por lo tanto, D = F.
3.5
Árbol de formación de una fórmula
Podemos, a partir de este resultado, idear un procedimiento que nos garantizará, dada una
fórmula, obtener una secuencia de formación para ella que sea “mínima”, es decir, en la que no se
introduzcan elementos innecesarios, a la vez que nos proporciona una comprensión perspicua de la
estructura sintáctica de la fórmula examinada. Ese procedimiento es la construcción de un árbol
de formación. Consideraremos el árbol generado por una fórmula como un diagrama construido
mediante las siguientes reglas:
1. En la raíz del árbol se coloca la fórmula en cuestión.
2. Como es una fórmula, o bien:
a) Es una letra proposicional (en cuyo caso no tiene descendientes)
b) Es de la forma ¬A, en cuyo caso tiene como descendiente a A.
c) Es de la forma (A ∧ B), (A ∨ B), (A → B), (A ↔ B), en cuyo caso tiene como descendientes a A y a B.
3. Se repite el proceso con los descendientes obtenidos, hasta que solo queden letras proposicionales en los nodos terminales del árbol.
Ejemplo 3.2 Árbol de formación de la fórmula (((p1 ∧ ¬p2 ) → p4 ) ↔ (p2 ∨ p1 ))
Capítulo 3. Sintaxis
72
(((p1 ∧ ¬p2 ) → p4 ) ↔ (p2 ∨ p1 ))
((p1 ∧ ¬p2 ) → p4 ) (p2 ∨ p1 )
(p1 ∧ ¬p2 ) p4
p2 p1
p1 ¬p2
p2
Se observa que los árboles de formación desafían la ley de la gravedad: convencionalmente, la
raíz está arriba, y los descendientes de cada nodo se colocan debajo de él. Disponiendo del árbol,
se puede construir una secuencia de formación sin elementos innecesarios, cuyos elementos serán
los nodos, comenzando por los más bajos, y teniendo siempre el cuidado de no incluir nunca un
nodo hasta tanto no se hayan incluido todos sus descendientes.
Los nodos del árbol (incluyendo la propia fórmula) se llaman subfórmulas de la fórmula dada.
Son los componentes mínimos requeridos para una secuencia de formación cuyo último elemento
sea la fórmula dada. Es claro que todas las subfórmulas de una fórmula son, a su vez, fórmulas y
que toda fórmula es subfórmula de sí misma.
Ejemplo 3.3 ¿Es (p1 → p2 ) subfórmula de (¬p1 → p2 )?
El árbol de formación de esta última fórmula es:
(¬p1 → p2 )
¬p1 p2
p1
Como en ningún nodo del árbol se encuentra (p1 → p2 ), la respuesta es negativa.
Sin embargo, sí es subfórmula de ¬(p1 → p2 ), como muestra el siguiente árbol:
¬(p1 → p2 )
(p1 → p2 )
p1 p2
3.6 Ejercicios
3.6
73
Ejercicios
1. ¿Son fórmulas de L P las siguientes cadenas? (En caso de que lo sean, demostrarlo a través
de una secuencia de formación; en caso de que no lo sean, justificarlo).
a) p385716
b) pi
c) (p ∧ q)
d) (A → B)
e) (p12 ∨ p11 )¬p4
f ) ((¬(p12 ∨ p11 ) ↔ ((¬p4 ∧ p3 ) → p5 )))
2. Presentar el árbol de formación y una secuencia de formación de las siguientes fórmulas:
a) (¬(p2 ∨ p1 ) → p3 )
b) ¬((p2 ∨ p1 ) → p3 )
c) (¬¬(p1 ∧ ¬p1 ) → (¬¬(p1 ∨ ¬p1 ))
d) (¬((((p2 ∨ p3 ) ∨ p2 ) ∨ p3 ) ∨ p2 ) ∨ p3 )
e) ¬¬(¬p1 ↔ ¬p2 )
f ) ((p1 ∧ p2 ) ∨ ¬¬¬¬(p1 → p14 ))
g) (p1 → (p1 → (p1 → (p1 → p1 ))))
3. Suponga que tiene una fórmula de L P, y que la coloca entre paréntesis (es decir, coloca un
paréntesis izquierdo precediéndola y un paréntesis derecho siguiéndola). ¿Es la cadena así
obtenida una fórmula de L P en algún caso? Justifique.
4. Escriba una fórmula que no pueda aparecer como quinto elemento de ninguna secuencia de
formación.
5. ¿Puede una fórmula constar de cinco letras proposicionales diferentes y de cinco pares de
paréntesis, además de otros símbolos que no sean letras ni paréntesis? Explique.
6. Si una fórmula tiene doce paŕes de paréntesis y cinco conjunciones, ¿Cuál es el máximo de
disyunciones que puede tener? ¿Y de negaciones?
7. ¿Cuáles son los símbolos de los que pueden aparecer repeticiones contiguas en una fórmula?
Explique.
8. ¿Cuáles símbolos no pueden aparecer contiguos en una fórmula? Explique.
9. Busque información sobre la notación polaca para la lógica proposicional. Traduzca a ella
cinco fórmulas que aparezcan en esta sección de ejercicios.
4. Semántica
E acuerdo a la caracterización de la lógica que hicimos, nuestro propósito al construir
el lenguaje formal L P que presentamos, es lograr distinguir algunas inferencias como
correctas. En nuestro marco, que una inferencia sea correcta significa que si sus premisas
son verdaderas, entonces necesariamente conclusión también debe serlo.
Esto es suficiente para mostrar que debemos considerar el problema de asignar valores de
verdad a los correlatos formales de las proposiciones, ya que necesitamos establecer un criterio
que nos permita distinguir, al menos en ciertos casos1 , aquellas inferencias en las que es imposible
que las premisas sean verdaderas y la conclusión falsa, de aquellas en las que puede darse que la
conclusión sea falsa aunque las premisas sean verdaderas. Es por esto que no basta simplemente
con “otorgar” un valor de verdad a todas las fórmulas, sino que, para nuestros propósitos, esto debe
hacerse teniendo en cuenta algunas restricciones muy fuertes.
Consideremos la siguiente inferencia de cuño platónico:
D
Si el conocimiento es sensación, entonces los cerdos tienen conocimiento.
Los cerdos no tienen conocimiento.
El conocimiento no es sensación.
Alguien podría decir que las dos premisas son verdaderas y que la conclusión es falsa. Sin
embargo, hay algo que rechazamos en esta posibilidad, ya que tenemos la fuerte intuición de que la
inferencia es correcta, es decir que, sin tomar partido sobre si las premisas son verdaderas o no,
no nos parece admisible que si las premisas fuesen verdaderas, no lo fuese la conclusión. Es más,
supongamos que alguien nos dice:
Si el conocimiento es sensación, entonces los cerdos tienen conocimiento.
Los cerdos no tienen conocimiento.
1 En
ciertos casos porque esto depende de la capacidad expresiva del lenguaje que construyamos. Habrá inferencias
correctas cuya corrección no se podrá capturar con el lenguaje de la lógica proposicional, y sí con otros lenguajes más
ricos.
Capítulo 4. Semántica
76
Ni siquiera necesitamos que nos explicite oralmente que su opinión es que el conocimiento no
es sensación. Lo suponemos, porque aceptamos que esa opinión es consecuencia lógica de lo que
ya nos ha dicho. Si luego agregara
El conocimiento es sensación.
entenderíamos que ha habido algún tipo de error. Tal vez, en un caso así, pensemos que hemos
oído mal, o que nuestro interlocutor ha pronunciado mal alguna oración, o que ha dicho las cosas
a la ligera, sin pararse a pensar en sus dichos. Si le hacemos notar que creemos que hay un error
y nuestro interlocutor se obstina en mantener que las premisas son ambas verdaderas y que la
conclusión (El conocimiento no es sensación) es falsa, no dudaríamos en decir que su razonamiento
no es correcto, que está transgrediendo, de alguna manera, la lógica.
Ahora bien; ¿qué es lo que nos impide aceptar que existe la posibilidad de que esas premisas
sean verdaderas y a la vez, esa conclusión falsa? De acuerdo a anteriores discusiones, lo que nos
compele a asegurar que bajo la condición de que las premisas sean verdaderas, la conclusión también
lo será, es el comportamiento o significado que asignamos a la construcción “Si... entonces...” y a
la palabra “no”.
Las funciones de esa construcción y de esa palabra, –ambas pertenecientes al lenguaje natural–,
son representadas en nuestro lenguaje formal mediante las conectivas → y ¬2 , y si deseamos que
esta formalización sea fructífera a la hora de representar las relaciones entre los valores de verdad
que otorgamos a diversas fórmulas –para poder distinguir algunas inferencias como correctas–, es
necesario que tengamos en cuenta esas funciones al dar los significados a nuestras fórmulas.
Las cuestiones del significado se consideran en la semántica del lenguaje, que es lo que
abordaremos a continuación. Queda claro por lo tanto que la semántica de nuestro lenguaje formal
deberá ocuparse de la correspondencia entre fórmulas y valores de verdad, y que deberá hacerlo
no de cualquier manera, sino de acuerdo al comportamiento que esperamos tengan los conectivos
lógicos.
4.1
Verdadero, falso e interpretaciones
Consideremos entonces dos objetos (no entraremos en la discusión filosófica acerca de la naturaleza de estos objetos) a los que llamaremos “verdadero” y “falso”, designaremos respectivamente
con las letras V y F, y serán llamados valores de verdad3 .
Las fórmulas “toman” valores de verdad a través de valuaciones, como indica la siguiente
Definición 4.1.1 — Valuación de L P. Una valuación de L P es una asignación de un
único valor de verdad a cada fórmula de L P.
Notación 4.1. Si A es una fórmula, y v una valuación, representaremos con v(A) el valor de verdad
que la valuación v asigna a la fórmula A.
Por supuesto, existen infinitas valuaciones; una valuación (a la que podemos llamar v) es tal
que v(A) =V para toda fórmula A; otra valuación u es tal que u(A) =F para toda fórmula A; otra
valuación w es tal que w(A) =V si A es una fórmula en la que aparece p1 y w(A) =F si A es
una fórmula en la que p1 no aparece, etc. Veremos en breve que ninguna de estas valuaciones
tiene relevancia para nuestros intereses. Consideremos nuevamente el argumento platónico. Si
2 Observe que no se representan las palabras “si”, “entonces”, “no”, sino las funciones que cumplen en los enunciados.
3 V y F no son, por supuesto, símbolos del lenguaje. Esta presentación de la semántica necesita de estos dos objetos
extralingüísticos (con respecto al lenguaje objeto).
4.1 Verdadero, falso e interpretaciones
77
representamos El conocimiento es sensación con p1 , Los cerdos tienen conocimiento con p2 , el
argumento se puede representar así:
(p1 → p2 )
¬p2
Si el conocimiento es sensación, entonces los cerdos tienen conocimiento.
Los cerdos no tienen conocimiento.
¬p1
El conocimiento no es sensación.
Hay infinitas valuaciones que asignan valor V a (p1 → p2 ) y a ¬p2 , a la vez que asignan valor
F a ¬p1 . Estas valuaciones no respetan el comportamiento de los conectores que está en la base
del funcionamiento lógico del argumento. Por lo tanto, nuestra tarea será cumplida observando
en cada caso el comportamiento de los conectivos, para fundar la semántica de nuestro lenguaje
formal solamente en aquellas valuaciones que sí respeten ese comportamiento.
Consideremos la negación. De acuerdo a discusiones previas, si una valuación asigna valor V a
una fórmula A, esperamos que asigne valor F a la fórmula ¬A, y esta condición sea recíproca. Con
respecto a la conjunción, esperamos que, si una valuación asigna valor de verdad V a las fórmulas
A y B, entonces asigne valor de verdad V a la formula (A ∧ B), y recíprocamente, si asigna valor de
verdad V a (A ∧ B), entonces asigne valor de verdad V tanto a A como a B, y hay consideraciones
similares para los restantes conectivos, que ya hemos discutido en un nivel informal.
Las valuaciones que nos interesan realmente son las que cumplen con las condiciones arriba
sugeridas, a las que llamaremos interpretaciones y esto amerita la siguiente
Definición 4.1.2 — Interpretación de L P. Una interpretación I de L P es una valuación
de L P que cumple las siguientes condiciones (para fórmulas A y B cualesquiera):
1. I(¬A) =V si y solo si I(A) =F.
2. I(A ∧ B) =V si y solo si I(A) = I(B) =V.
3. I(A ∨ B) =F si y solo si I(A) = I(B) =F.
4. I(A → B) =F si y solo si I(A) =V e I(B) =F
5. I(A ↔ B) =V si y solo si I(A) = I(B)
Para hacernos una idea concreta acerca de cómo funcionan las interpretaciones, examinemos el
siguiente argumento, presentado con su formalización adjunta:
Existe una ley moral objetiva.
Si existe una ley moral objetiva, entonces hay una fuente de la ley moral.
Si hay una fuente de la ley moral, entonces Dios existe.
p1
(p1 → p2 )
(p2 → p3 )
Dios existe.
p3
(El argumento es de C. S. Lewis, quien al exponerlo, elimina la posibilidad de otras fuentes de ley
moral diferentes de Dios).
Sin importar si consideramos las premisas verdaderas o falsas, es intuitivamente claro que si las
premisas son verdaderas, entonces la conclusión debe serlo. Intuitivamente, estamos frente a un
argumento válido. Las interpretaciones logran capturar esa intuición. Supongamos que I es una
interpretación que cumple:
I(p1 ) = I((p1 → p2 )) = I((p2 → p3 )) = V
(o sea, que asigna valor de verdad V a todas las premisas).
En ese caso, se cumple que I(p3 ) =V (o sea, I no puede, siendo una interpretación, asignar valor
de verdad F a la conclusión, dado que asignó V a las premisas, lo que indica el buen funcionamiento
de las interpretaciones para capturar la idea de corrección lógica), por lo siguiente:
Capítulo 4. Semántica
78
De I(p1 ) =V e I((p1 → p2 )) =V se infiere que
I(p2 ) = V
porque I es interpretación, y tenemos que I((p1 → p2 )) =V. Mirando como tratan las interpretaciones el condicional (Definición 4.1.2 (4)), vemos que tiene que darse una de las siguientes
posibilidades:
1. I(p1 ) = I(p2 ) =V
2. I(p1 ) = I(p2 ) =F
3. I(p1 ) =F, I(p2 ) =V
Pero 2 y 3 no pueden ser porque tenemos que I(p1 ) =V. Un razonamiento análogo muestra que
siendo
I(p2 ) =V (como acabamos de demostrar)
I((p2 → p3 )) =V
tiene que ser
I(p3 ) = V
como pretendíamos que sucediese si el sistema se comporta en la forma esperada.
Ejercicio 4.1 Argumentar, a través de interpretaciones de L P, que el argumento platónico
que concluye que el conocimiento no es sensación con el que se inicia el capítulo, es válido.
4.2
Tautologías, contradicciones y contingencias
Es en el sentido que acabamos de ver que las interpretaciones recogen nuestras intuiciones
lógicas. Es natural por tanto, que aquellas cosas que llamamos a veces “verdades lógicas”, puedan ser
vistas bajo la luz de las interpretaciones. Sin necesidad de hacer viajes interplanetarios consideramos
verdadera la siguiente proposición:
Hay vida en Urano o no hay vida en Urano
Esa proposición es traducible por la fórmula (p7 ∨ ¬p7 ). Es obvio que una interpretación I
puede asignar tanto I(p7 ) =V como I(p7 ) =F. Pero si I(p7 ) =V, como I es interpretación, será
I((p7 ∨ ¬p7 )) =V; y si I(p7 ) =F, como I es interpretación, será I(¬p7 ) =V, con lo que, recordando
nuevamente que I es interpretación, sabemos que I((p7 ∨¬p7 )) =V. Hemos concluido que cualquier
interpretación asigna valor V a la fórmula (p7 ∨ ¬p7 ).
Así como hay fórmulas que son verdaderas bajo toda interpretación, otras son falsas bajo toda
interpretación (el lector podrá probar fácilmente que la fórmula (p5 ∧ ¬p5 ) lo es), y hay otras que
son verdaderas bajo unas interpretaciones y falsas bajo otras, como cualquier letra proposicional.
Es una distinción sumamente importante y queda recogida en la siguiente
Definición 4.2.1 — Tautología, contradicción, contingencia. Una fórmula A es una
tautología si I(A) =V para toda interpretación I.
contradicción si I(A) =F para toda interpretación I.
contingencia si existen un par de interpretaciones, I y J, tales que I(A) =V y J(A) =F.
4.3 Tablas de verdad
4.3
79
Tablas de verdad
Nos enfrentamos ahora al problema de determinar si una fórmula dada es una tautología, una
contradicción o una contingencia, y en este último caso, bajo qué “condiciones” es verdadera y bajo
qué “condiciones” es falsa, o sea, cuáles interpretaciones le asignan valor V y cuáles le asignan
valor F. Consideremos la fórmula ((p1 ∧ p2 ) → p1 ). Intuitivamente parece tratarse de una tautología
(habíamos utilizado proposiciones de este tipo en nuestra discusión informal acerca del condicional
material, y habíamos dicho que debían ser siempre verdaderas). Pero ¿cómo probarlo? Lo más
natural es considerar los valores de verdad que una interpretación podría otorgar a los “elementos
mínimos” o sea, las letras proposicionales p1 y p2 , y con ellos, encontrar los valores de verdad de
cada subfórmula de la fórmula dada. Esto nos lleva al siguiente estudio por casos:
Al inicio tenemos que decidir cuántos casos consideraremos. Como el valor de verdad que la
fórmula obtendrá en una interpretación solo depende de los valores de verdad que esta asigne a las
letras proposicionales que aparezcan en la fórmula, solo debemos concentrarnos en considerar todas
las combinaciones posibles de valores de verdad para esas letras proposicionales. En nuestro caso,
en la fórmula aparecen dos letras proposicionales, p1 y p2 , lo que nos da cuatro combinaciones
posibles:
p1
V
V
F
F
p2
V
F
V
F
¿Qué sucedería si en vez de dos letras proposicionales tuviésemos tres? En ese caso, las
combinaciones posibles serían ocho:
p1
V
V
V
V
F
F
F
F
p2
V
V
F
F
V
V
F
F
p3
V
F
V
F
V
F
V
F
De acuerdo a un hecho básico de combinatoria, si tenemos n letras proposicionales, debemos
considerar 2n combinaciones posibles de sus valores de verdad. Observe el lector que el número
de combinaciones crece muy rápidamente con el de letras proposicionales. Por ejemplo, con 10
de estas se tendrían 210 = 1024 combinaciones. Una forma muy cómoda de encontrar todas esas
combinaciones es la siguiente: colocadas las letras proposicionales en un renglón, como hicimos
antes, se determina la cantidad de combinaciones que necesitamos examinar. Imaginemos que son
64 combinaciones (porque tenemos 6 letras proposicionales). Eso nos indica que utilizaremos 64
renglones bajo las letras proposicionales, y los llenaremos así: bajo la primera letra proposicional
considerada, colocaremos dos bloques: uno de 32 uves y otro de 32 efes (en general, la cantidad
de uves y efes es la mitad de la cantidad de combinaciones a considerar). Luego se va duplicando
la cantidad de bloques como se muestra a continuación. Bajo la segunda letra proposicional
considerada, irán 4 bloques: uno con 16 uves, seguido de uno de 16 efes, al que le seguirá otro de
16 uves, terminando con uno de 16 efes. Bajo la tercera letra proposicional se colocarán 8 bloques
alternados de uves y efes que constarán de 8 renglones cada uno. Bajo la cuarta letra proposicional
Capítulo 4. Semántica
80
deben ir 16 bloques alternados de uves y efes con 4 renglones cada uno. Bajo la quinta letra se
alternarán bloques de dos renglones cada uno, y bajo la última las uves y las efes se alternarán de
renglón en renglón. Es usual que se haga de modo que en el primer renglón se lean todas uves y
en el último todas efes. Si el lector observa los ejemplos dados, verá que es el procedimiento que
hemos seguido.
Con esto in mente volvamos a la fórmula que teníamos entre manos, colocando bajo sus letras
proposicionales valores de verdad que evidencien todas las combinaciones posibles de estos:
((p1
V
V
F
F
∧
p2 )
V
F
V
F
→
p1 )
V
V
F
F
Obviamente, la última columna debe repetir la primera, ya que ambas se encuentran bajo la
misma letra proposicional.
De lo estudiado en sintaxis, sabemos que la fórmula es un condicional. O sea, el segundo
conectivo que aparece en ella es el principal, por lo que será el último que se evaluará. El condicional
conecta (p1 ∧ p2 ) y p1 . Para poder evaluarlo debemos conocer los valores de verdad asignados a
(p1 ∧ p2 ), los que colocaremos bajo el conectivo ∧, y a p1 , que ya los tenemos. Recordando que
una conjunción solo es verdadera si sus dos conyuntos lo son, completamos la columna bajo el
conectivo ∧, tomando en cuenta los valores de verdad atribuidos a los conyuntos, que son p1 y p2 :
((p1
V
V
F
F
∧
V
F
F
F
p2 )
V
F
V
F
→
p1 )
V
V
F
F
Ahora solo resta evaluar los valores de verdad que se asignan a toda la fórmula, colocándolos
bajo su conectivo principal, el condicional. Para hacerlo, recordamos que un condicional es falso
solo cuando su antecedente es verdadero y su consecuente falso, y consideramos los valores
ya asignados al antecedente, (p1 ∧ p2 ), que se encuentran bajo el conectivo principal de esta
subfórmula, ∧, y su consecuente, p1 , que se encuentran en la última columna:
((p1
V
V
F
F
∧
V
F
F
F
p2 )
V
F
V
F
→
V
V
V
V
p1 )
V
V
F
F
La columna correspondiente al conectivo principal de la fórmula, compuesta únicamente de
uves, indica que se trata de una tautología. Hemos analizado todas las combinaciones posibles
de valores de verdad para p1 y p2 , y en todas ellas el valor de verdad asignado a la fórmula es
verdadero.
Para realizar tablas de verdad es necesario recordar el comportamiento semántico de los
conectivos, que presentamos ahora en forma de tabla, siendo A y B fórmulas cualesquiera:
4.4 Asignaciones proposicionales e interpretaciones
¬
F
V
A
V
F
(A
V
V
F
F
∧
V
F
F
F
B)
V
F
V
F
(A
V
V
F
F
∨
V
V
V
F
(A
V
V
F
F
B)
V
F
V
F
→
V
F
V
V
81
B)
V
F
V
F
(A
V
V
F
F
↔
V
F
F
V
B)
V
F
V
F
Consideremos ahora la fórmula ((p1 ∨ p2 ) → p1 ). Un tratamiento similar nos muestra que se
trata de una contingencia:
((p1
V
V
F
F
∨
V
V
V
F
p2 )
V
F
V
F
→
V
V
F
V
p1 )
V
V
F
F
La presencia tanto de uves como efes bajo el conectivo principal indica que se trata de una
contingencia.
Estos dos ejemplos nos han mostrado dos cosas fundamentales. La primera es un método
sistemático para clasificar fórmulas en tautologías, contradicciones, contingencias y para determinar
cuáles interpretaciones asignan V a una contingencia y cuáles le asignan F. Este método se llama
“método de tablas de verdad” y fue introducido por Wittgenstein e, independientemente, por Post.
Consiste en el cálculo sistemático y ordenado de los valores de verdad de las subfórmulas de la
fórmula en consideración bajo todas las combinaciones posibles de atribuciones de valores de
verdad a las letras proposicionales que en ella aparecen, como muestran los ejemplos dados. Es
importantísimo recordar, al aplicarlo, que se deben considerar todas las combinaciones posibles
de asignación de valores de verdad a las letras proposicionales, para lo que hemos mostrado un
procedimiento sistemático. La segunda cosa fundamental que intuimos en este ejemplo es que
una interpretación queda totalmente determinada una vez que asignamos valor de verdad a todas
las letras proposicionales. Con esto queremos decir que si sabemos que una valuación es una
interpretación y conocemos los valores de verdad que asigna a las letras proposicionales, entonces,
podemos encontrar el valor de verdad que asigna a cualquier fórmula.
Definición 4.3.1 — Asignación proposicional. Una asignación proposicional es una asigna-
ción de un único valor de verdad a cada una de las letras proposicionales.
Notación 4.2. Si pk es una letra proposicional y j una asignación proposicional, representaremos
con j(pk ) el valor de verdad que la asignación proposicional j asigna a la letra proposicional pk .
4.4
Asignaciones proposicionales e interpretaciones
Vamos a demostrar que teníamos una intuición correcta al suponer que asignando valores de
verdad a las letras proposicionales, estamos, implícitamente, asignando valores de verdad a todas
las fórmulas del lenguaje. Así, lo que vamos a demostrar es que una interpretación determina y
queda determinada por una asignación proposicional.
Teorema 4.4.1 Determinación recíproca de asignaciones e intepretaciones
Dada una interpretación I, existe una única asignación proposicional j tal que j(pk ) = I(pk )
para toda letra proposicional pk .
Dada una asignación proposicional j, existe una única interpretación I tal que j(pk ) = I(pk )
para toda letra proposicional pk .
Capítulo 4. Semántica
82
Shift ⇑
SEGUNDA LECTURA
Demostración: Es obvio que la primera parte del teorema se cumple. Una interpretación
I dada, como asigna valores de verdad a todas las fórmulas, en particular, asigna valores
de verdad únicos a cada letra proposicional. La asignación proposicional j que asigna los
mismos valores que I a cada letra proposicional es la buscada y es la única que cumple lo
pedido.
Demostrar la segunda es más complicado. Partimos de una asignación proposicional j y
debemos demostrar que existe una única interpretación I que asigna los mismos valores
de verdad que j a cada letra proposicional. Dividiremos la demostración en dos partes:
Primero demostraremos que existe una interpretación que asigna a cada letra proposicional
el mismo valor de verdad que j, y luego demostraremos que esa interpretación es única.
1. Existencia: Sea A cualquier fórmula. Según el teorema 3.4.4, de lectura única, A
tiene un conjunto único de subfórmulas, entre las que se encuentran algunas letras
proposicionales. Sea I tal que asigna el mismo valor que j a esas letras proposicionales,
y a las subfórmulas de A (de las cuales una es la propia A) los valores que les
corresponden según las reglas de las interpretaciones, calculados a partir de los
valores dados a las letras proposicionales. El procedimiento es equivalente a hacer el
árbol de formación de las fórmulas, asignar el valor de verdad a los nodos terminales,
que son letras proposicionales, según los valores que j les asigna, e ir subiendo por las
ramas respetando las constricciones de las interpretaciones hasta llegar a la fórmula
A. Es obvio que haciendo esto sobre todas las fórmulas, obtenemos una interpretación
I que asigna los mismos valores que j a todas las letras proposicionales.
2. Unicidad: Supongamos que hay dos interpretaciones I y J tales que asignan el mismo
valor de verdad a todas las letras proposicionales. Mostraremos que deben asignarle
el mismo valor de verdad a todas las fórmulas de L P. Para eso, introduciremos
una nueva forma de hablar: diremos que dos interpretaciones coinciden sobre un
conjunto de fórmulas si asignan el mismo valor de verdad a todas las fórmulas de
ese conjunto. En estos términos, queremos demostrar que si dos interpretaciones
coinciden sobre el conjunto de las letras proposicionales, coinciden sobre L P. Para
hacerlo, introduzcamos otro concepto: el grado de una fórmula. Este será la cantidad
de conectivos que tenga, y si A es una fórmula, notaremos su grado como gr(A). Así,
gr(p12 ) = 0, gr((¬p5 ↔ p104 )) = 2, etc. Obviamente, las únicas fórmulas de grado 0
son las letras proposicionales. Procedamos ahora a la demostración. Supongamos que
I y J coinciden sobre el conjunto de las letras proposicionales y no coinciden sobre un
conjunto no vacío de fórmulas y llegaremos a una contradicción así: En el conjunto
de las fórmulas sobre el que I y J no coinciden (o sea, asignan valores distintos) hay
algunas que tienen el grado mínimo. Todas las fórmulas de grado menor que ellas
reciben el mismo valor de verdad por I y por J. Sea A una de las fórmulas de grado
mínimo sobre las que I y J no coinciden. Nuevamente, según el Teorema 3.4.4, una y
solo una de las siguientes posibilidades se cumple:
a) A = pk (o sea, es una letra proposicional). Esto es imposible, porque I y J difieren
sobre A pero coinciden sobre las letras proposicionales.
b) A = ¬X, siendo X una fórmula determinada. Esto es imposible, porque como
gr(X) < gr(A), se tiene I(X) = J(X) y consecuentemente, al ser I y J interpretaciones, debe ser I(¬X) = J(¬X), o sea, I(A) = J(A).
c) A = (X Y ), siendo un elemento de {∧, ∨, →, ↔} y X e Y fórmulas determinadas. Esto es imposible, porque al ser gr(X) < gr(A) y gr(Y ) < gr(A),
se tiene I(X) = J(X) e I(Y ) = J(Y ). Como I y J son interpretaciones, debe ser
I((X Y )) = J((X Y )), o sea, I(A) = J(A).
Hemos demostrado así que ninguna de las opciones es posible, de modo que las interpreta-
4.5 Modelos y contramodelos
83
ciones I y J, si coinciden sobre todas las letras proposicionales, deben coincidir sobre todo
L P.
Esto nos permite, cuando queremos dar una interpretación, dar simplemente una asignación
proposicional. La única interpretación que coincide con la asignación proposicional dada sobre las
letras proposicionales se llama interpretación inducida por la asignación proposicional.
Notación 4.3. I j es la interpretación inducida por la asignación proposicional j.
O sea, I j cumple:
Es interpretación.
Es una extensión de j a todo el lenguaje (es decir, se comporta como j sobre las letras
proposicionales y además da valor de verdad a todas las fórmulas).
Es la única extensión de j que es a la vez una interpretación.
Ejemplo 4.1 Consideremos la asignación proposicional j que asigna valor de verdad V a p1 y F
a todas las demás letras proposicionales. ¿Qué valor de verdad asigna I j a la fórmula
(p1 ∧ (¬p31 → p1 ))?
El problema se reduce a hallar un renglón de la tabla de verdad:
(p1
V
∧
V
(¬
V
p31
F
→
V
p1 ))
V
Concluimos que le asigna valor de verdad V, y es claro que podríamos haber determinado el
valor de verdad asignado a cualquier fórmula del lenguaje por la interpretación inducida por la
asignación proposicional dada.
4.5
Modelos y contramodelos
Examinemos ahora las “condiciones” bajo las que una proposición es verdadera un poco más
en detalle. Supongamos que un político dice que la educación mejora si se dictan más horas de
clase y se crean más institutos de enseñanza. Parece claro que lo que dice no es una verdad lógica
ni una contradicción, como podemos verificar fácilmente con el método de las tablas de verdad,
una vez traducida la proposición a la fórmula ((p1 ∧ p2 ) → p3 ):
((p1
V
V
V
V
F
F
F
F
∧
V
V
F
F
F
F
F
F
p2 )
V
V
F
F
V
V
F
F
→
V
F
V
V
V
V
V
V
p3 )
V
F
V
F
V
F
V
F
Este análisis muestra que esta proposición es una contingencia. Ahora bien, ¿en qué casos lo
que dijo es verdadero? El mismo análisis muestra que:
Es falso si p1 y p2 son ambas verdaderas (es decir, si se dictan más horas de clase y además
se crean más institutos de enseñanza) y p3 es falsa (es decir, si la educación no mejora).
Todas las asignaciones proposicionales en las que p1 y p2 sean verdaderas y p3 sea falsa,
harán falsa la fórmula en su interpretación inducida.
Capítulo 4. Semántica
84
Es verdadero si p1 o p2 son falsas, y también es verdadero en cualquier caso en que p3
sea verdadera. Todas las asignaciones proposicionales que hagan p1 falsa, o p2 falsa, o p3
verdadera (o más de una condición a la vez) harán verdadera la fórmula en su interpretación
inducida.
Definición 4.5.1 — Modelos y contramodelos. Las interpretaciones que asignan el valor de
verdad V a una fórmula se llaman modelos de la fórmula, y las que le asignan el valor de verdad
F se llaman contramodelos de la fórmula. Los modelos de un conjunto de fórmulas son las
interpretaciones que son modelo de todas las fórmulas del conjunto.
Por lo tanto, todas las interpretaciones son modelos de cualquier tautología, así como son
contramodelos de cualquier contradicción.
Ejemplo 4.2 — Búsqueda de modelos y contramodelos de una fórmula. Hallemos los
modelos y contramodelos de la fórmula ((p1 → p2 ) ∧ p3 )
((p1
V
V
V
V
F
F
F
F
→
V
V
F
F
V
V
V
V
p2 )
V
V
F
F
V
V
F
F
∧
V
F
F
F
V
F
V
F
p3 )
V
F
V
F
V
F
V
F
Modelos
Contramodelos
Contramodelos
Contramodelos
Modelos
Contramodelos
Modelos
Contramodelos
Se observa que hemos encontrado tres filas que indican modelos y cinco que indican contramodelos. Sin embargo, todas las interpretaciones existentes son o bien modelos o contramodelos, no
solamente ocho de ellas. Lo que la tabla nos indica es:
(Primer renglón): Las infinitas interpretaciones inducidas por las asignaciones proposicionales
que cumplen j(p1 ) = j(p2 ) = j(p3 ) = V , sean cuales sean los valores que asignen a las
restantes letras proposicionales, son modelos de ((p1 → p2 ) ∧ p3 ).
(Quinto renglón): Las infinitas interpretaciones inducidas por las asignaciones proposicionales que cumplen j(p2 ) = j(p3 ) = V , j(p1 ) = F, sean cuales sean los valores que asignen a
las restantes letras proposicionales, son modelos de ((p1 → p2 ) ∧ p3 ).
(Séptimo renglón): Las infinitas interpretaciones inducidas por las asignaciones proposicionales que cumplen j(p1 ) = j(p2 ) = F, j(p3 ) = V , sean cuales sean los valores que asignen
a las restantes letras proposicionales, son modelos de ((p1 → p2 ) ∧ p3 ).
Todas las demás interpretaciones son contramodelos de ((p1 → p2 ) ∧ p3 ).
Con respecto a los conjuntos finitos de fórmulas, es inmediato el siguiente
Teorema 4.5.1 Una interpretación I es modelo de un conjunto finito de fórmulas {A1 , ...,An } si
y solo si es modelo de la fórmula (A1 ∧ ... ∧ An )a .
a Por
supuesto, estamos expresándonos de forma poco rigurosa, ya que no hay fórmulas con esa forma. Nos
referimos a cualquier conjunción de conjunciones de las fórmulas dadas.
La demostración queda como ejercicio para el lector.
4.5 Modelos y contramodelos
85
Ejemplo 4.3 — Búsqueda de modelos de un conjunto. Encontrar un modelo del conjunto
{(((p5 ∨ p11 ) → p11 ) ∧ p11 ), p11 , (p11 ∨ p8 ), ¬p12 }
Según el teorema anterior, podríamos hacer la tabla de verdad de la conjunción de esas cuatro
fórmulas y seleccionar las interpretaciones que sean sus modelos. Pero ese sería un procedimiento
largo y tedioso, y tenemos otra forma de hacerlo aplicando un poco de ingenio. Es claro que si una
interpretación I es modelo del conjunto, debe ser
1. I(p11 ) =V.
2. I(¬p12 ) =V, por lo que I(p12 ) =F.
No es trabajoso verificar que una interpretación que cumple 1 y 2 es modelo de todas las fórmulas
del conjunto, y que cualquier interpretación que no cumple 1 o 2 no es modelo de todas las fórmulas
del conjunto. Entonces, los modelos del conjunto dado son las I j tales que j(p11 ) =V y j(p12 ) =F.
Por supuesto, puede suceder que un conjunto de fórmulas no tenga modelos. Si alguno de los
elementos del conjunto es una contradicción, eso es inmediato, pero no es el único caso en el que
puede suceder, como se ve en el siguiente
Ejemplo 4.4 — Un conjunto que carece de modelos. El conjunto
{p1 , ¬p2 , (p1 ↔ p2 )}
no tiene modelos, como muestra el siguiente razonamiento: Si una interpretación I fuese modelo
del conjunto, debería ser
I(p1 ) =V
I((p1 ↔ p2 )) =V
Para que esas dos condiciones se cumplan, debería ser
I(p2 ) =V
pero en ese caso tendríamos
I(¬p2 ) =F
por lo que ninguna interpretación I puede asignar el valor de verdad V a las tres fórmulas del
conjunto.
Introducimos ahora un par de términos técnicos que serán muy usados en el resto del curso:
Definición 4.5.2 — Conjuntos satisfacibles e insatisfacibles. Un conjunto de fórmulas que
tiene al menos un modelo se dice satisfacible. Si no tiene modelos, se dice insatisfacible.
86
4.6
Capítulo 4. Semántica
Vuelta a la biblioteca
4.6.1
Una advertencia importante
En esta sección aplicaremos el método de las tablas de verdad para resolver los problemas de la
biblioteca, vistos en 1.6.1, a través de la búsqueda de modelos. Pero antes de hacerlo, nos conviene
introducir algunos cambios importantes en la forma de trabajar.
Hasta ahora hemos sido muy cuidadosos con el uso de nuestro lenguaje formal. Pero en la
mayoría de los contextos, tanta escrupulosidad no es algo cómodo ni esclarecedor. Por ese motivo
comenzaremos a trabajar, en ciertas circunstancias, de otra manera. La primera modificación que
vamos a hacer refiere a las letras proposicionales. El objetivo de tomarlas como una “p” subindizada
no era otro que el de poder distinguirlas de cualquier otra cosa y asegurarnos de tener una provisión
infinita de ellas. Pero en muchos contextos, estamos interesados en una proposición particular, y
lo mismo nos da si la representamos como p514 o simplemente como p. En realidad, no nos da
lo mismo, porque es más fácil escribir la “p” sola que la “p” con el subíndice. Por supuesto, si
queremos representar otra proposición diferente en el mismo contexto, no podemos usar la “p”, pero
sí podemos usar la “q”, por ejemplo. De esa manera, escribiríamos (p514 → p514 ) como (p → p),
mientras que escribiríamos (p514 → p32 ) como (p → q).
Además de esto, introduciremos una modificación en cuanto al uso de paréntesis. Estos fueron
introducidos con el fin de bloquear la ambigüedad estructural, que podría producirse al combinar
fórmulas mediante conectivos binarios. Ahora bien, si tenemos una fórmula que no presentamos
combinada con otra, ni vamos a combinar con otra, sus paréntesis externos no evitan ninguna ambigüedad ya que esta no puede producirse. Por eso, en vez de (p514 → p32 ) escribiremos, por ejemplo,
p → q; pero si queremos escribir lo que en lenguaje formal es ((p514 → p32 ) ∧ p15 ), reintroducimos
los paréntesis que ahora quedan como internos y eliminamos los externos: (p → q) ∧ r. En todo
caso, es fundamental tener clarísmo, sin ninguna clase de dudas, el correlato en lenguaje formal de
lo que estamos escribiendo.
4.6.2
La tabla de verdad en la biblioteca
Los problemas de la biblioteca que hemos planteado en el primer capítulo pueden resolverse
a través de una búsqueda de modelos realizable con el método de las tablas de verdad, como se
muestra en [Smu95b] y [Smu09], con una narrativa diferente. El método consiste en encontrar una
proposición que, dadas la condiciones del problema, deba ser verdadera y las condiciones bajo las
cuales es verdadera. Como la proposición debe ser verdadera, esas condiciones deben cumplirse. El
primer paso consiste en encontrar la forma de una proposición que, siempre que se cumplan las
condiciones de la biblioteca, y dado lo escrito en un libro, deba ser verdadera. Por lo tanto, debe
portar información sobre las reglas de la biblioteca (el hecho de que todo lo escrito por Veratius
es verdadero, todo lo escrito por Mendacius es falso, y que todos los textos han sido escritos por
uno de estos dos escritores) y sobre los datos que se dan en el problema concreto, ya que esa es la
información necesaria para deducir quién ha escrito cada libro.
Supongamos que un libro, al que llamaremos A, expresa una proposición cuyo valor de verdad
no conocemos, la que simbolizaremos con p. ¿Qué es lo que sabemos con total certeza? Obviamente,
la respuesta pasa por las reglas de la biblioteca: sabemos que p es verdadera si A fue escrito por
Veratius, y p es falsa si A fue escrito por Mendacius. Sabemos además que A fue escrito o bien por
Veratius o bien por Mendacius. Todo esto es lo mismo que decir que p es verdadera si y solo si A
fue escrito por Veratius. O sea, el valor de verdad de la proposición “A fue escrito por Veratius” y el
valor de p son el mismo: ambas son verdaderas o ambas son falsas. Entonces, tenemos lo siguiente:
4.7 ¿Decir lo mismo? Equivalencia
87
En un libro de la biblioteca llamado A se expresa la proposición p. Sea VA la proposición “A
fue escrito por Veratius”. Entonces la proposición
(L) VA ↔ p
es verdadera.
Podemos, en muchos casos, buscar los modelos de (L), que nos darán la solución al problema.
Ejemplo 4.5 En uno de los problemas habíamos encontrado dos libros, Dragones y Esfinge. En
Dragones se leía: “Dragones es obra de Mendacius y Esfinge es obra de Mendacius”. Sean VD
la proposición “Dragones fue escrito por Veratius” y VE la proposición “Esfinge fue escrito por
Veratius”. Es claro que la proposición “Dragones fue escrito por Mendacius” se simboliza como
¬VD , y la proposición “Esfinge fue escrito por Mendacius” como ¬VE . Además, la proposición
expresada en Dragones se puede simbolizar como ¬VD ∧ ¬VE . Consecuentemente, la proposición
VD ↔ (¬VD ∧ ¬VE ) debe ser verdadera. Confeccionemos su tabla de verdad:
VD
V
V
F
F
↔
F
F
V
F
(¬
F
F
V
V
VD
V
V
F
F
∧
F
F
F
V
¬
F
V
F
V
VE )
V
F
V
F
Se observa que los únicos modelos de la fórmula son las asignaciones que hacen falsa VD y
verdadera VE . La solución es, por tanto, que Dragones fue escrito por Mendacius y Esfinge por
Veratius, conclusión a la que habíamos llegado sin utilizar un procedimiento mecánico.
4.7
¿Decir lo mismo? Equivalencia
El hecho de que la semántica del lenguaje de la lógica proposicional concierna únicamente con
la asignación de valores de verdad a cada fórmula tiene consecuencias de muy largo alcance.
Una de ellas es que desde el punto de vista semántico dos fórmulas que respondan a la misma
tabla de verdad serán indistinguibles. Considere la siguiente tabla:
p
V
V
F
F
q
V
F
V
F
A
V
F
V
V
¿Qué fórmula A tiene esa tabla de verdad? La respuesta no es única. Como el lector podrá verificar,
las siguientes fórmulas podrían estar en el lugar de A:
p→q
(p ∨ p) → (q ∧ q)
¬p ∨ q
¬(p ∧ ¬q)
y por supuesto, otra infinidad de fórmulas responden a esa misma tabla. ¿Qué es lo que estamos
diciendo? Podemos reformularlo así: hay fórmulas que tienen exactamente los mismos modelos.
Cuando dos fórmulas tienen los mismos modelos diremos que son equivalentes y consideraremos
Capítulo 4. Semántica
88
como equivalentes entre sí a todas las contradicciones, o sea, las fórmulas que no tienen modelos.
Definición 4.7.1 La fórmula A es equivalente a la fórmula B si y solo si todos los modelos de
A son modelos de B y recíprocamente (por supuesto, si ni A ni B tienen modelos, esto se cumple
trivialmente).
Notación 4.4. Si A es equivalente a B, escribiremos A ≡ B.
Es trivial verificar que la equivalencia es, justamente, lo que se llama una relación de equivalencia en L P, o sea:
Toda fórmula es equivalente a sí misma: A ≡ A para toda fórmula A.
Si la fórmula A es equivalente a la fórmula B, B es equivalente a A: Si A ≡ B, entonces B ≡ A.
Si la fórmula A es equivalente a la fórmula B, y B es equivalente a la fórmula C, A es
equivalente a C: Si A ≡ B y B ≡ C, entonces A ≡ C.
Mostremos que las fórmulas p → q y (p ∨ p) → (q ∧ q) son equivalentes:
p
V
V
F
F
q
V
F
V
F
p→q
V
F
V
V
(p ∨ p)
V
V
F
F
→
V
F
V
V
(q ∧ q)
V
F
V
F
La tabla conjunta muestra que tienen los mismos modelos. La equivalencia resulta en indistinguibilidad semántica. Por ejemplo, consideremos la fórmula r → (p → q). Hagamos su tabla de
verdad para conocer su comportamiento semántico.
r
V
V
V
V
F
F
F
F
→
V
F
V
V
V
V
V
V
(p
V
V
F
F
V
V
F
F
→
V
F
V
V
V
F
V
V
q)
V
F
V
F
V
F
V
F
Es claro que (p → q) es subfórmula de la fórmula que acabamos de estudiar. Construyamos una
nueva fórmula sustituyendo en r → (p → q) la subfórmula (p → q) por la fórmula (p ∨ p) → (q ∧ q)
que, como sabemos es, equivalente a ella. Obtenemos:
r → ((p ∨ p) → (q ∧ q))
¿Cuál será su tabla de verdad, o sea, cuál será su comportamiento semántico, o dicho de otra
manera, cuáles serán sus modelos? Es claro que podríamos hacer la tabla, que será más compleja
que la anterior, pero una ligera reflexión nos muestra que no necesitamos hacerla. Esto es así
porque al ser p → q y (p ∨ p) → (q ∧ q) fórmulas que tienen los mismos modelos, presentarán
exactamente los mismos valores de verdad en los mismos lugares de la tabla, con lo que resultará
que los modelos de r → (p → q) y de r → ((p ∨ p) → (q ∧ q)) serán exactamente los mismos. Dado
que este ejemplo se puede generalizar tenemos el siguiente resultado:
4.8 ¿Será suficiente? Conjuntos adecuados de conectivos
89
Si en una fórmula sustituimos una subfórmula por una fórmula equivalente a esta, obtenemos
una fórmula equivalente a la original.
Supongamos que A y B son fórmulas equivalentes. ¿Habrá alguna fórmula del lenguaje cuyo
comportamiento semántico indique esta equivalencia? El hecho de que dos fórmulas sean equivalentes se manifiesta en la tabla de verdad conjunta como la igualdad de los valores de verdad que se
obtienen en los mismos renglones.
Recordemos que en toda interpretación la fórmula A ↔ B es verdadera si y solo si el valor de
verdad de A es igual al valor de verdad de B. Pero si A y B son equivalentes, bajo toda interpretación,
sus valores de verdad son iguales y por eso, bajo toda interpretación, la fórmula A ↔ B es verdadera.
Por lo tanto, tenemos el siguiente resultado:
A ≡ B si y solo si A ↔ B es una tautología.
La equivalencia es una noción tan potente que, por ejemplo, se encuentra en la base de algo con
lo que todo estudiante de matemática se encuentra tarde o temprano, y le provoca una fuerte noción
de extrañeza: la demostración por contrarrecíproco.
Los teoremas matemáticos son proposiciones que tienen la forma H → T , donde H se llama
“hipótesis” y T se llama “tesis”. Normalmente, para demostrarlos, se supone H y bajo esa suposición
se infiere T . Ahora, veamos lo que podemos encontrar en un excelente texto de análisis matemático
[Rud90]:
“Teorema: Si E es un subconjunto infinito de un conjunto compacto K, E tiene un
punto límite en K”.
No se preocupe el lector por el contenido, que no nos interesa. Se trata de un teorema como tantos,
en el que la hipótesis H es “E es un subconjunto infinito de un conjunto compacto K” y la tesis T
es “E tiene un punto límite en K”. A renglón seguido, como es norma en las obras matemáticas,
viene la demostración. Esperaríamos que empezara suponiendo H, y que a partir de allí infiriera T .
Sin embargo, continúa así:
“Demostración: Si ningún punto de K fuera punto límite de E, (...) [sigue algo que no
nos interesa, inferencias que llegan a:] lo que contradice la compacticidad de K.”
Y eso es la demostración. No es necesario saber matemática para darse cuenta de que el autor supuso
la negación de T , hizo inferencias y llegó a la negación de H. ¡Y llama a esto una demostración de
H → T , cuando es claro que lo que ha demostrado es ¬T → ¬H!
Lo que sucede es que las proposiciones H → T y ¬T → ¬H son equivalentes, como el lector
podrá demostrar sin dificultad alguna, haciendo una tabla conjunta. Esta equivalencia hace que en
los textos matemáticos se consideren ambas estrategias, tanto suponer H e inferir T como suponer
¬T e inferir ¬H como perfectamente legítimas a la hora de demostrar el teorema H → T . Alguien
podría decir que en realidad, están demostrando ¬T → ¬H (que se llama contrarrecíproco del
anterior, y desde el punto de vista sintáctico no es igual a él), pero en todo caso es claro que la
demostración de uno de ellos vale tanto como la demostración del otro: o bien ambos son verdaderos
o bien ambos son falsos.
4.8
¿Será suficiente? Conjuntos adecuados de conectivos
Comenzamos la sección anterior presentando una tabla de verdad y preguntándonos qué fórmula
respondería a ella. Encontramos varias fórmulas cuyo comportamiento semántico quedaba descrito
Capítulo 4. Semántica
90
por la tabla, y de hecho, hay infinitas que lo hacen, en aquel caso particular. Pero ¿no podría haber
ocurrido que ninguna fórmula tuviese ese comportamiento semántico? Más en general, ¿existe
alguna tabla tal que ninguna fórmula del lenguaje la tenga como tabla de verdad? Por ejemplo, dada
la siguiente tabla
p
V
V
V
V
F
F
F
F
q
V
V
F
F
V
V
F
F
r
V
F
V
F
V
F
V
F
A
V
F
V
F
F
F
F
V
¿Habrá una fórmula del lenguaje L P cuyos modelos y contramodelos sean los allí indicados?
Y en caso de que la respuesta sea positiva, ¿podrá el lector hallar una?
Examinemos la cuestión de la existencia. Si razonamos sobre lo que hemos hecho en todo
nuestro recorrido, nos daremos cuenta de que introdujimos un lenguaje formal que nos permitiera
representar proposiciones. Además de esa dimensión representacional de nuestro lenguaje, debimos
considerar una dimensión semántica, para poder estudiar la corrección de los argumentos. Como la
corrección de los argumentos es algo que depende de los valores de verdad de las proposiciones,
esa semántica consistió en la asignación de valores de verdad a las fórmulas del lenguaje formal
de modo que se respetara el comportamiento esperado de los conectivos. Ahora bien, en nuestro
lenguaje formal existen cinco conectivos, que de alguna manera, hemos abstraído del lenguaje
natural. Sin embargo, cabe hacerse una pregunta: ¿Serán suficientes estos conectivos para nuestros
propósitos?
Es muy fácil pensar alternativas en las que esto no hubiera sido cumplido. Por ejemplo, si
el único conectivo que hubiésemos considerado en nuestro lenguaje fuese la conjunción, sería
imposible construir una fórmula que se comportara desde el punto de vista semántico igual que
¬(p ↔ q). Esto es así porque al solo tener la conjunción, cualquier fórmula, bajo una interpretación
donde todas las letras proposicionales sean verdaderas, será verdadera, y la fórmula que acabamos
de escribir es falsa bajo una interpretación así. Es decir, imaginemos que tenemos una tabla de
verdad de esta forma:
p
V
V
F
F
q
V
F
V
F
A
F
V
V
F
Se nos pide hallar una fórmula A de nuestro lenguaje que tenga ese comportamiento semántico. Si
solo tuviésemos la conjunción, resultaría imposible. Con nuestra batería de conectivos sí es posible,
por ejemplo la fórmula ¬(p ↔ q) responde a esa tabla.
¿No podrá suceder que estemos en esa situación, es decir, que para tablas suficientemente
complejas, no existan fórmulas en nuestro lenguaje que se comporten desde el punto de vista
semántico como indica la tabla? Si así fuese, tendríamos que intentar ampliar nuestro lenguaje
agregándole conectivos.
Para nuestra tranquilidad, la respuesta a esta pregunta es: no solo tenemos los conectivos
suficientes como para hallar una fórmula que se comporte semánticamente como indique cualquier
4.8 ¿Será suficiente? Conjuntos adecuados de conectivos
91
tabla dada, sino que para eso nos sobran conectivos. Veámoslo con un ejemplo, que se puede
generalizar en forma obvia. Intentemos encontrar una fórmula que responda a la tabla con la que
abrimos esta sección:
p
V
V
V
V
F
F
F
F
q
V
V
F
F
V
V
F
F
r
V
F
V
F
V
F
V
F
A
V
F
V
F
F
F
F
V
Debemos hallar una fórmula A que sea verdadera solo si p, q y r son verdaderas (caso 1, primer
renglón); o si p y r son verdaderas y q es falsa (caso 2, tercer renglón); o si p, q, y r son falsas (caso
3, octavo renglón). Obsérvese que si se da el caso 1 o se da el caso 2 o se da el caso 3, la fórmula
será verdadera, y será falsa solo cuando no se dé ninguno de los tres casos. Supongamos entonces
que encontrásemos una fórmula que sea verdadera solo en el caso 1, es decir, sea verdadera si y solo
si tanto p como q como r sean verdaderas, a la que llamaremos C1, una fórmula que sea verdadera
solo en el caso 2, o sea, que sea verdadera si y solo si p y r son verdaderas y q falsa, a la que
llamaremos C2, y una fórmula que sea verdadera solo en el caso 3, es decir, que sea verdadera si y
solo si tanto p como q como r son falsas. Si esto fuese posible, es trivial observar que la fórmula
C1 ∨C2 ∨C3
tendrá el mismo comportamiento semántico que el que le pedimos a A, o sea, responderá a esa tabla
de verdad. Entonces, el problema se reduce a encontrar C1, C2 y C3.
Para hallar C1 debemos preguntarnos por una fórmula que solo sea verdadera solo en un caso,
a saber, cuando p, q y r son verdaderas. Es obvio, a partir del comportamiento de la conjunción,
que la fórmula p ∧ q ∧ r satisface lo pedido.
Para hallar C2 debemos preguntarnos por una fórmula que sea verdadera también en un único
caso, cuando p y r sean verdaderas y q falsa. El hecho de que sea verdadera en un único caso nos
hace pensar en la conjunción como un conectivo a utilizar, pero obviamente, debemos hacer que
esa conjunción sea verdadera cuando q sea falsa, que es lo mismo que decir que será verdadera
cuando p sea verdadera, la negación de q sea verdadera, y r sea verdadera. Por eso hallamos que la
fórmula p ∧ ¬q ∧ r se comporta como esperamos que se comporte C2.
Para hallar C3 razonamos análogamente y concluimos que la fórmula ¬p ∧ ¬q ∧ ¬r se comporta
como esperamos que lo haga C3.
Por lo tanto, la fórmula
(p ∧ q ∧ r) ∨ (p ∧ ¬q ∧ r) ∨ (¬p ∧ ¬q ∧ ¬r)
tiene la tabla de verdad, o sea el comportamiento semántico dado.
Es claro que el procedimiento se puede generalizar para tablas de cualquier cantidad de letras
proposicionales, y también es claro que solo hemos utilizado 3 conectivos. Solo queda un detalle.
Si en la tabla de verdad no apareciera ninguna fila con valor de verdad V (o sea, la fórmula buscada
fuese una contradicción) el procedimiento no sería aplicable. Pero en ese caso, la fórmula p ∧ ¬p
tiene el comportamiento semántico dado.
Capítulo 4. Semántica
92
Definición 4.8.1 — Conjunto adecuado de conectivos. Un conjunto de conectivos tal que,
dada cualquier tabla de verdad, existe una fórmula en la que solo figuran esos conectivos y su
comportamiento semántico es el indicado por la tabla, se llama conjunto adecuado de conectivos.
Acabamos de mostrar que {¬, ∨, ∧} es un conjunto adecuado de conectivos.
Ejercicio 4.2 Expresar los conectivos → y ↔ con el conjunto {¬, ∨, ∧}, es decir, hallar
metafórmulas que solo usen estos tres conectivos y tales que sus fórmulas correspondientes
tengan la tabla de verdad de las correspondientes a A → B y de A ↔ B.
En realidad, existen conjuntos adecuados de conectivos que tienen menos que tres elementos. Dado
que es posible expresar la conjunción utilizando solo la disyunción y la negación, como muestra
la siguiente equivalencia, siendo A y B fórmulas cualesquiera, que lleva el nombre del lógico De
Morgan
A ∧ B ≡ ¬(¬A ∨ ¬B)
el conjunto {¬, ∨} es adecuado (toda conjunción puede sustituirse por una expresión en la que solo
aparecen la negación y la disyunción sin alterar el comportamiento semántico).
Ejemplo 4.6 Podemos encontrar una formula equivalente a p → (q ↔ r) usando solo negación y
disyunción a través de la siguiente cadena de equivalencias:
p → (q ↔ r) ≡ ¬p ∨ (q ↔ r) ≡ ¬p ∨ ((q → r) ∧ (r → q)) ≡
≡ ¬p ∨ ((¬q ∨ r) ∧ (¬r ∨ q)) ≡ ¬p ∨ ¬(¬(¬q ∨ r) ∨ ¬(¬r ∨ q))
Encarecemos al lector verificar cada una de las equivalencias establecidas, y también demostrar
que los conjuntos {¬, ∧} y {¬, →} son adecuados.
Tal vez lo más curioso de todo sea que hay conjuntos adecuados de conectivos que tienen
un solo elemento. O sea, un conectivo que, solo, es capaz de producir fórmulas con cualquier
comportamiento semántico4 . Considere la siguiente tabla:
A
B
∨
1
V
V
F
F
V
F
V
F
V
V
V
F
∧
2
→
3
↔
4
5
6
7
V
F
F
F
V
F
V
V
V
F
F
V
F
F
F
V
F
V
V
V
F
V
F
F
8
A
9
¬A
10
B
11
¬B
12
13
14
15
16
F
V
V
F
V
V
F
F
F
F
V
V
V
F
V
F
F
V
F
V
V
V
V
V
F
F
F
F
V
V
F
V
F
F
V
F
Cuadro 4.1: Conectivos binarios posibles
En ella representamos todos los conectivos binarios posibles. Las columnas encabezadas
contienen los que conocemos y a los que les hemos dado nombre. Observe la columna 5. Allí se
representa un conectivo binario que tiene este comportamiento y al que asignaremos el símbolo ↓:
veremos en breve, el alfabeto de L P no tiene símbolos expresamente destinados a representar esos
conectivos. Para estudiar estos conjuntos adecuados los simbolizaremos, pero estaremos trabajando fuera de nuestro
lenguaje formal. Esto implica que en nuestro lenguaje, con la semántica dada, no hay conjuntos adecuados unitarios.
4 Como
4.8 ¿Será suficiente? Conjuntos adecuados de conectivos
p
V
V
F
F
q
V
F
V
F
93
p↓q
F
F
F
V
Este conectivo traduce bien la expresión “Tanto p como q son falsas” o “Ni p ni q”. Lo
llamaremos Nor (expresión inglesa que viene de que se puede expresar como la negación de la
disyunción). Pues bien, el conjunto {↓} es adecuado. Para mostrarlo, basta demostrar que podemos
expresar ¬ y ∨ solo con ↓.
La tabla de verdad de p ↓ p
p
V
F
↓
F
V
p
V
F
muestra que p ↓ p ≡ ¬p. Consideremos ahora la tabla de (p ↓ q) ↓ (p ↓ q)
(p
V
V
F
F
↓
F
F
F
V
q)
V
F
V
F
↓
V
V
V
F
(p
V
V
F
F
↓
F
F
F
V
q)
V
F
V
F
Esto muestra que p ∨ q es equivalente a (p ↓ q) ↓ (p ↓ q), y así, el conjunto {↓} es suficiente.
Hay otro conjunto unitario suficiente, el formado por el conectivo que corresponde a la columna
6 de la tabla donde se mostraban todos los conectivos binarios posibles. Se lo llama Nand, su
símbolo es | (la “barra de Scheffer”), y su tabla
p
V
V
F
F
q
V
F
V
F
p|q
F
V
V
V
Ejercicio 4.3 Encontrar alguna expresión del lenguaje natural a la que corresponda y demostrar
que {|} es adecuado.
Una pregunta pertinente es: ¿Por qué trabajamos con cinco conectivos si con uno solo tendríamos la misma capacidad expresiva? La respuesta es también obvia: El uso exclusivo de un
único conectivo como el Nor resultaría en traducciones de expresiones del lenguaje natural al
lenguaje formal muy alejadas de nuestra intuición, y sumamente largas, en general. Por ejemplo,
para expresar la fórmula p ∨ ¬q con el Nor únicamente tendríamos:
¬q ≡ q ↓ q, y
p ∨ ¬q ≡ (p ↓ ¬q) ↓ (p ↓ ¬q), por lo que finalmente
p ∨ ¬q ≡ (p ↓ (q ↓ q)) ↓ (p ↓ (q ↓ q))
Capítulo 4. Semántica
94
La fórmula que hemos obtenido es muy poco legible, no tenemos intuición alguna acerca de
su comportamiento semántico y hasta podemos tener problemas para reconocer de un vistazo su
estructura sintáctica. Es interesante el ejercicio de expresarla en español con alguna expresión
propia de esta lengua: “Ni ni p ni ni q ni q...” Hágalo el lector, si gusta. Imagine qué clase de
objeto inmanejable para seres humanos puede resultar al intentar expresar solo con este conectivo
una fórmula equivalente a otra que sea medianamente compleja en nuestro lenguaje. Por lo tanto,
restringirse a un único conectivo es una pésima opción si uno quiere trabajar dentro del sistema
–que es lo que deseamos hacer en buena parte de este curso-, pero puede ser una muy buena opción
si lo que se desea es estudiar resultados acerca del sistema. (Por ejemplo, si optásemos por hacer un
lenguaje con un único conectivo, las reglas de las interpretaciones, que con nuestro lenguaje formal
requieren de cinco incisos, solo requerirían un inciso. Por contrapartida, representar un argumento
dado en lenguaje natural en ese lenguaje de un solo conectivo sería una tarea engorrosísima, así
como la evaluación de la corrección del argumento).
Shift ⇑
SEGUNDA LECTURA
Terminaremos esta sección demostrando que los únicos conjuntos adecuados de conectivos
binarios que tienen un solo elemento son {↓} y {|}:
Teorema 4.8.1 Sea ] un conectivo binario. Si {]} es adecuado, entonces ]=↓ o ]=|.
Demostración: Consideremos la tabla de ]:
p
V
V
F
F
q
V
F
V
F
p]q
Val (V,V)
Val (V,F)
Val (F,V)
Val (F,F)
Si{]} es adecuado, es necesario que Val (V,V)=F, porque si fuese Val (V,V)=V, todas las
fórmulas que tuvieran únicamente este conectivo tomarían el valor V siempre que todas
las letras proposicionales lo tomasen, y así no se podría expresar una contradicción o una
contingencia que fuese falsa cuando sus letras proposicionales sean verdaderas con este
único conectivo. Por una razón análoga, es necesario que Val (F,F)=V. Tenemos cuatro
posibilidades para otorgar valores a Val (V,F) y Val (F,V):
1. Val (V,F) = Val (F,V) = V. En este caso, ]=↓.
2. Val (V,F) = Val (F,V) = F. En este caso, ]=|.
3. Val (V,F) = V y Val (F,V) = F. En este caso, p]q es equivalente a ¬q. Obviamente, la
negación no conforma un conjunto adecuado.
4. Val (V,F) = F y Val (F,V) = V. En este caso, p]q es equivalente a ¬p. Por la misma
razón que en el caso anterior, esta combinación de valores de verdad no es admisible.
Queda así demostrado que {↓} y {|} son los únicos conjuntos adecuados y unitarios de
conectivos binarios.
4.9 Ejercicios
4.9
95
Ejercicios
1. Muestre que si a partir de una interpretación I se construye una nueva valuación cambiando
el valor de verdad que I asigna a un conjunto finito de fórmulas y dejando igual el resto, la
nueva valuación no es interpretación.
2. Clasifique las siguientes fórmulas en tautologías, contingencias y contradicciones:
a) (p3 ∨¬p3 )
b) p15
c) (p3 →(p12 →p9 ))
d) (p3 →(p12 →p3 ))
e) (p4 →(¬¬¬(¬p8 ∧p8 ))
f ) (p4 →(¬¬¬¬(¬p8 ∧p8 ))
g) ((¬(p7 →p11 )∧¬(p11 →p7 ))
3. Presente los modelos y contramodelos de las siguientes fórmulas:
a) (((p1 ∨p2 )→p2 )∧p1 )
b) (((p1 ∨p2 )→p2 )∧p2 )
c) (((p1 ∨p2 )∧¬p2 )↔p3 )
d) ((p1 ↔p2 )↔p3 )
4. Sean C1 y C2 contradicciones, G1 y G2 contingencias, y T1 y T2 tautologías. Clasifique las
las fórmulas que se obtendrían con los esquemas siguientes en tautologías, contradicciones o
contingencias. En caso de que no haya respuesta única, indique los posibles resultados.
a) (C1 ↔ C2 )
b) (C1 →T2 )
c) (T1 ∨C1 )
d) (G1 ∨G2 )
e) (G1 → T1 )
f ) (G1 ∧G2 )
g) (T1 ∧T2 )
h) (T1 → C2 )
i) (G1 ↔ C2 )
j) (G1 → C2 )
5. Determine cuáles de los siguientes conjuntos son satisfacibles. Presente un modelo de cada
uno de los conjuntos satisfacibles.
a) {p1 , (p1 →p2 ), ¬p2 }
b) {(p1 ∨p2 ), (p1 →p3 ), (p2 →p3 )}
c) {(p1 ↔p2 ), (p2 ↔p3 )}
6. Sean los conjuntos infinitos de fórmulas:
Γ1 ={p1 , (p1 →p2 ), (p2 →p3 ), (p3 →p4 ), ..., (pn →pn+1 ), ...}
Γ2 ={(p2 →p1 ), (p3 →p2 ), (p4 →p3 ), ..., (pn+1 →pn ), ...}
Indique si es verdadero o falso lo siguiente. En todos los casos, justifique la respuesta.
a) Existe una interpretación que es modelo de Γ1 y no de Γ2 .
b) Existe una interpretación que es modelo de Γ2 y no de Γ1 .
c) Existen al menos dos modelos distintos de Γ1 .
d) Existen al menos dos modelos distintos de Γ2 .
e) Existen más de dos modelos distintos de Γ2 .
f ) Existen interpretaciones que no son modelos ni de Γ1 ni de Γ2 .
7. En este ejercicio veremos que es posible introducir las nociones semánticas sin referirse a los
96
Capítulo 4. Semántica
objetos extralingüísticos V y F. Un conjunto Γ de fórmulas se llamará conjunto T si y solo si
cumple las siguientes condiciones:
Para fórmulas X, Y cualesquiera
a) X es elemento de Γ si y solo si ¬X no es elemento de Γ.
b) (X∧Y) es elemento de Γ si y solo si tanto X como Y son elementos de Γ.
c) (X∨Y) es elemento de Γ si y solo si al menos una de entre X e Y son elementos de Γ.
d) (X→Y) es elemento de Γ si y solo si X no es elemento de Γ o Y es elemento de Γ.
e) (X↔Y) es elemento de Γ si y solo si tanto X como Y son elementos de Γ o ni X ni Y
son elementos de Γ.
Demostrar:
a) Una fórmula es tautología si y solo si es elemento de todos los conjuntos T.
b) Una fórmula es contradicción si y solo si no es elemento de ningún conjunto T.
c) Una fórmula es contingencia si y solo si hay un conjunto T al que pertenece y hay un
conjunto T al que no pertenece.
5. Conectivos lógicos y lenguaje natural
LAMAMOS “traducción” al procedimiento por el cual representamos objetos lingüísticos
pertenecientes al lenguaje natural en el lenguaje formal de la lógica proposicional. Y llamamos “interpretación” a una forma de asignar valores de verdad a todas las fórmulas del
lenguaje de la lógica proposicional de modo que sean respetadas las constricciones que provienen
del comportamiento esperado de los conectivos lógicos.
L
Sabemos además que no todas las expresiones lingüísticas pertenecientes al idioma español
son traducibles al lenguaje de la lógica proposicional, sino que este lenguaje formal está diseñado
especialmente para representar proposiciones o enunciados. La figura en la página siguiente muestra
parte del procedimiento más básico para evaluar la corrección argumental sirviéndose de la lógica.
Se parte de un texto argumental, y en él se individualizan las oraciones que fungen como
premisas y la que lo hace como conclusión. Estas oraciones deben expresar proposiciones. Se
traducen a fórmulas del lenguaje formal (en este caso a L P), y, una vez hecho esto, como veremos
en el próximo capítulo, se puede proceder a la evaluación de la corrección del argumento según las
capacidades del lenguaje que estamos manejando: si no es posible que una interpretación otorgue
el valor de verdad F a la formula que representa la conclusión a la vez que otorga el valor de verdad
V a las premisas, diremos que el argumento es válido. En caso contrario, si hay interpretaciones
bajo las cuales el valor de verdad de las formulas que representan las premisas es V y el valor de
verdad de la conclusión es F, puede pasar que nos encontremos frente a un argumento inválido, o
que nos encontremos frente a un argumento válido, pero en ese caso se tratara de uno que lo sea no
gracias a su estructura en términos de los conectivos que recoge el lenguaje proposicional, sino
gracias a alguna otra circunstancia, que tal vez pueda ser reflejada con lenguajes más ricos.
En este capítulo vamos a ocuparnos de algunos aspectos de la traducción de expresiones en
lenguaje natural (español) a fórmulas del lenguaje proposicional, ya que si bien en muchísimos
casos la traducción es directa, la riqueza del lenguaje natural puede jugarnos malas pasadas.
Examinaremos entonces algunas de las variadas formas en que en español podemos modificar
la expresión de una proposición, de manera en que quedaría bien reflejada por un conectivo en
nuestro lenguaje formal. Nada más ingenuo que traducir automáticamente cada “no” por ¬, nada
más directo para arribar a errores que solo colocar → en caso de que aparezca la construcción
Capítulo 5. Conectivos lógicos y lenguaje natural
98
“si...entonces...”, etc. Un principio rector que debe guiarnos es el siguiente:
La traducción al lenguaje formal no debe comprometerse con reflejar directamente palabras y
expresiones como “y”, “no”, “si...entonces...”, etc., que son meros indicadores, sino que debe
preservar en la semántica del lenguaje formal, las condiciones de verdad que advertimos en el
lenguaje natural.
Expresiones del
lenguaje natural
Prem 1
Prem 2
..
.
Traducción
Prem n
Conc
Oraciones que
expresan
proposiciones de
un argumento
que nos interesa
evaluar.
Fórmulas del
lenguaje formal
P1
P2
..
.
P2
C
Interpretaciones
V
F
Fragmento del
lenguaje
proposicional
que representa las
proposiciones
expresadas en
lenguaje natural.
Evaluación de la correción
argumental: ¿existe alguna
relación entre {P1 , P2 , ..., Pn }
y C que nos la asegure?
(En próximos capítulos)
5.1
El conectivo ¬
Obviamente asociamos este conectivo a la palabra “no”. Pero, según el principio que acabamos
de establecer, el hecho fundamental a tener en cuenta cuando decidamos traducir un fragmento de
lenguaje natural como ¬A, es que ese fragmento será considerado verdadero si el fragmento de
lenguaje natural que corresponda a A es considerado falso, y será considerado falso si el fragmento
de lenguaje natural correspondiente a A es considerado verdadero. Como la palabra “no” delante
de una oración cumple normalmente esa función, establecemos esa asociación. Por ejemplo, es
claro que si p es la traducción de
1. Llueve.
¬p es la correcta traducción de
No llueve.
Esto es claro porque “Llueve” es verdadero si “No llueve” es falso, y es falso si “No llueve” es
verdadero. Sin embargo, no siempre es tan evidente la relación entre una proposición y su negación.
Tal vez, si uno le pregunta a un niño pequeño cuál es la negación de
5.1 El conectivo ¬
99
2. La pared es blanca.
este responda, mostrando una frecuente confusión en estadios tempranos del desarrollo
3. La pared es negra.
Un adulto ve claramente que la negación de 2 no es 3. Pero ¿por qué? La respuesta es: 3 no es
la negación de 2 porque es posible que 2 y 3 sean ambas falsas, y como hemos dicho, en un par
formado por una proposición y su negación, es necesario que una de ellas sea verdadera y la otra
falsa. Esto es trivial, pero en algunos casos podemos estar tentados a cometer algún error similar.
En general, si X es una oración en lenguaje natural que expresa una proposición, la oración “No es
el caso que X” expresará la negación de la proposición expresada por X, aunque muy posiblemente
haya una mutación en el modo verbal, típicamente, de indicativo a subjuntivo o puede aparecer una
construcción con gerundio: la negación de 1 puede expresarse como
No es el caso que llueva.
o también como
No es el caso que esté lloviendo.
Lo mismo podemos decir de “No es cierto que X” o “No es verdad que X”, aunque es claro
que en este caso, quien profiere la oración está negando X indirectamente, es decir, afirmando
que el valor de verdad de X es F, no afirmando directamente la negación de X. Mencionaremos a
continuación algunos casos en los que conviene ser cuidadoso al considerar las negaciones.
5.1.1
La negación de proposiciones cuantificadas
La negación de
4. Todos los políticos son corruptos.
no se expresa con
Ningún político es corrupto.
Esto es así porque ambas proposiciones pueden perfectamente ser falsas (y muy probablemente
lo sean). La negación de 4 se expresa con
No todos los políticos son corruptos.
o con
Algunos políticos no son corruptos.
Del mismo modo, encarecemos al lector prestar especial atención a las formas de negar
proposiciones expresadas por oraciones que comiencen con “algunos” o “unos”. Este es un punto
importante, frecuentemente desatendido al tratar la lógica proposicional. Como los argumentos que
incluyen proposiciones de este tipo son generalmente tratados en forma más eficaz con otras lógicas,
no se suele prestar atención a este tipo de proposiciones en conexión con el aparato proposicional.
Pero es muy importante advertir desde el primer momento algunas de las múltiples formas en que
una proposición puede negarse, y las proposiciones cuantificadas son un buen campo de prueba.
Capítulo 5. Conectivos lógicos y lenguaje natural
100
5.1.2
La negación de proposiciones que expresan relaciones asimétricas
La negación de
La mesa es más ancha que la puerta.
no es
La mesa es más angosta que la puerta.
ni
La mesa es menos ancha que la puerta.
sino que se puede expresar con
La mesa no es más ancha que la puerta.
o con
La puerta es al menos tan ancha como la mesa.
En estos casos hay que observar cuidadosamente cómo se comporta la relación con respecto a
la que, según el lenguaje natural, es la inversa.
5.1.3
La negación de algunas proposiciones modalizadas que expresan creencia, posibilidad, etc.
La negación de
Juan cree que Dios existe.
no es
Juan cree que Dios no existe.
sino
Juan no cree que Dios existe.
Esto está relacionado con el hecho de que frente a un proposición p, un agente tiene al menos
tres estados doxásticos1 : creer que p, creer la negación de p, o no creer ni p ni su negación. Por
ejemplo, si p es la proposición “Dios existe”, un teísta cree que p, un ateo cree en la negación de p
y un agnóstico (o alguien que nunca ha definido su creencia al respecto) no cree ni p ni su negación.
Negar que una persona se encuentra en uno de los estados doxásticos referidos no implica que se
encuentre en otro definido, sino que se encuentra en alguno de los otros dos.
Las proposiciones que expresan que algo es obligatorio, está permitido o prohibido presentan
complicaciones particulares. Por ejemplo, la negación de
Debes dejar de fumar.
es una proposición expresada por
No es tu deber dejar de fumar.
Lo que parece la “negación natural”, o sea
1 Relativos
a la creencia u opinión.
5.2 El conectivo ∧
101
No debes dejar de fumar.
se usaría, normalmente, para expresar al receptor que debe continuar fumando. En todos los casos,
se debe recordar que en principio, algo puede estar prohibido, o ser obligatorio, o ni una cosa ni
otra. Y decir que algo es obligatorio, equivale a decir que no hacerlo está prohibido.
Finalmente, la negación de
Es necesario que Dios exista.
no es
Es necesario que Dios no exista.
sino
No es necesario que Dios exista.
O, lo que es lo mismo
Es posible que Dios no exista.
Otra vez, esto se da porque en general consideramos que algunas proposiciones son necesarias,
otras son imposibles, y otras no son lo uno ni lo otro: tanto la proposición como su negación
son posibles. Sucede que en estos casos, así como en el de las proposiciones cuantificadas, nos
encontramos frente a un algo estructuralmente idéntico: La negación de una proposición cuantificada
con “todos” puede expresarse por medio de la negación y un cuantificador que signifique “alguno”;
la negación de una proposición modalizada con “es obligatorio” puede expresarse por medio de
la negación y un operador modal que signifique “está permitido”; la negación de una proposición
modalizada con “es necesario” puede expresarse con negación y un operador modal que signifique
“es posible”.
5.2
El conectivo ∧
Este conectivo no presenta mayores dificultades. Si bien se lo relaciona con la palabra “y”, hay
ocasiones en las que la aparición de esta palabra no debe traducirse con ∧, y también hay ocasiones
en que la palabra no aparece, y lo correcto sería traducir el conectivo. Un ejemplo de lo primero es
Bolívar y San Martín se entrevistaron en Guayaquil.
Es claro que la palabra “y” no está conectando oraciones que expresan proposiciones, que toda
la oración expresa una proposición que no admite análisis porque no tiene partes que puedan ser
consideradas verdaderas o falsas. Por lo tanto, esta oración debería traducirse al lenguaje de la
lógica proposicional con una letra proposicional.
Un ejemplo de lo segundo es
Platero es pequeño, peludo, suave.
Consideraremos esta oración como verdadera solo en caso de que Platero sea pequeño, sea
peludo y además sea suave. Por eso, la proposición expresada puede expresarse también como
Platero es pequeño y Platero es peludo y Platero es suave.
Capítulo 5. Conectivos lógicos y lenguaje natural
102
Con lo que podría traducirse como p ∧ q ∧ r. Omitimos los paréntesis porque sabemos todas sus
disposiciones son equivalentes. Es importante notar que, en este caso, razones estilísticas explican
la desviación entre estructura gramatical y lógica. Hay otros casos en los que se puede sostener que
la desviación entre ambas estructuras es mucho más profunda que esto, como mostraremos más
adelante.
Otra forma común que tiene el lenguaje natural de expresar proposiciones cuya traducción
natural incluye el conectivo ∧ es mediante conjunciones adversativas, en las que no aparece la
palabra “y”. Por ejemplo
Está soleado pero tengo frío.
Una traducción correcta es (p ∧ q).
Por otra parte, a veces se utiliza la palabra “y” con una carga semántica que no resulta traducible
mediante el conectivo ∧. Este es el caso en el que la palabra “y” conecta dos proposiciones no solo
en sentido veritativo, sino que además las ordena temporalmente:
César fue apuñalado repetidas veces y murió al pie de la estatua de Pompeyo.
Esta oración indica un hecho histórico, que consideramos verdadero. Pero
César murió al pie de la estatua de Pompeyo y fue apuñalado repetidas veces.
indica más bien que el cadáver de César fue ultrajado, cosa que tenemos por falsa. Sin embargo, si
representáramos la primera como (p ∧ q), deberíamos asignarle el mismo valor de verdad que a
(q ∧ p).
5.3
El conectivo ∨
Este conectivo está asociado con la palabra “o”. Como sabemos, existen dos usos de esa
palabra: la disyunción exclusiva y la disyunción inclusiva. El segundo es el que recoge directamente
el conectivo, y para el primero no tenemos un símbolo que lo represente en nuestro lenguaje
proposicional (aunque otras presentaciones sí incluyen un símbolo cuyo comportamiento semántico
refleja adecuadamente el del uso exclusivo de “o”). Sin embargo sabemos que podemos representar
una disyunción exclusiva de la siguiente manera: ((p ∨ q) ∧ ¬(p ∧ q)).
Una confusión común surge cuando se establece una disyunción entre dos proposiciones que
por su naturaleza no pueden ser ambas verdaderas. Supongamos que un matemático establece
x es mayor que 5 o x es menor que 3.
¿Se trata de una disyunción inclusiva o exclusiva? Como no puede ser a la vez que x sea mayor
que 5 y menor que 3, en principio no habría diferencia en considerar que es un uso inclusivo
o exclusivo. Por lo tanto, consideraremos, por simplicidad, que se trata de un uso inclusivo y
reservaremos la expresión de la disyunción exclusiva solo para aquellos casos en los que ambas
proposiciones puedan ser verdaderas pero está claro que el hablante quiera excluir esa posibilidad,
como por ejemplo, si un padre le dice a una hija
Podés elegir la fiesta o el viaje.
A veces se remarca la exclusividad de la disyunción con el giro “o bien... o bien...”.
5.4 El conectivo →
5.4
103
El conectivo →
El condicional es y por mucho el conectivo que más complicaciones presenta en los procesos
de traducción al lenguaje formal. Ateniéndonos a nuestro principio corresponde traducir con un
condicional toda expresión que conecte dos proposiciones de manera tal que la expresión sea
falsa únicamente si, de las proposiciones conectadas, una determinada es verdadera y la otra
proposición es falsa y además la expresión sea verdadera en cualquier otro caso. Básicamente,
las dificultades en la traducción se deben a que por un lado, hay expresiones muy corrientes en
lenguaje natural que nos inducen a una traducción en términos de condicional, generalmente por la
aparición del giro “si... entonces...”, y por otro hay expresiones que admiten una traducción correcta
como condicional, pero sin la marca lingüística del “si... entonces...”.
Hay casos “normales”, donde figura el giro y la traducción a una fórmula condicional corresponde. Por ejemplo
Si Juan está en su casa entonces la puerta está abierta.
Pero no todos los casos de “Si...entonces...” son traducibles por el conectivo →. Un ejemplo
clásico son los contrafácticos, o sea, expresiones del tipo “si...entonces...” en subjuntivo con
“antecedente” no correspondiente a un hecho:
5. Si Hitler hubiera invadido Inglaterra, entonces Alemania hubiese ganado la guerra.
Lo primero que nos advierte en contra de usar una traducción con un condicional es la gramática:
el modo subjuntivo hace dudar de que se estén conectando proposiciones. Además, si aceptáramos
de algún modo que lo conectado son proposiciones y nos atenemos a la interpretación del conectivo
→ para entender los contrafácticos seguramente deberíamos decir que todos son verdaderos, en
cuyo caso expresiones como
6. Si Uruguay hubiese invadido a Estados Unidos, entonces tendríamos los mejores jazzistas.
serían verdaderas y este resultado sería muy chocante. Quien expresa 5 quiere decir algo por lo
menos discutible y quien expresa 6 está diciendo tonterías.
Un ejemplo clásico de la enorme diferencia entre condicionales materiales y contrafácticos, en
el sentido de que establecer un condicional material no parece dar ningún apoyo para establecer
un contrafáctico semántica y morfológicamente cercano, es el que surge al considerar estos dos
enunciados
Si Lee Harvey Oswald no mató a Kennedy, entonces algún otro lo hizo.
Si Lee Harvey Oswald no hubiera matado a Kennedy, entonces algún otro lo hubiera hecho.
El primero parece verdadero a todas luces, mientras que el segundo es extremadamente dudoso.
Las condiciones de verdad de los contrafácticos son muy discutidas, pero en cualquier caso, no
son las del condicional material. El lector interesado puede profundizar con la lectura de [Ben03],
donde se trata un sinnúmero de problemas que surgen de expresiones de este tipo y otros, también
relacionados con alguna condicionalización.
Por otra parte, hay muchas expresiones traducibles mediante un condicional en las que no
aparece el giro “si... entonces...”, de las que veremos algunas a continuación:
Capítulo 5. Conectivos lógicos y lenguaje natural
104
5.4.1
Condiciones suficientes
Un condicional traducido como (p → q), refleja que si p es verdadera lo será q, de manera que
es una forma de expresar que p es una condición suficiente para q. Por eso, si decimos
Es suficiente que estudies en los apuntes para que salves el examen.
podemos considerar que eso es equivalente a
Si estudias en los apuntes, entonces salvarás el examen.
Tenga en cuenta que a veces no aparece la expresión “entonces” y el orden se intercambia. Por
ejemplo
Se ofenderá si le dices eso.
es equivalente a
Si le dices eso, entonces se ofenderá.
O sea que es suficiente para que se ofenda, que le digas eso.
5.4.2
Condiciones necesarias
Del mismo modo, un condicional traducido como (p → q), refleja que si q es falsa lo será p, de
manera que es una forma de expresar que q es una condición necesaria para p.
Para ver un ejemplo algo complejo, consideremos la expresión en negrita junto con los versos
que la acompañan
Los sabios dicen:
“Solo los tontos se apresuran”
Pero yo no puedo evitar
enamorarme de ti2 .
Ese verso resaltado expresa que
Solo si alguien es tonto se apresura.
o sea
Es necesario que alguien sea tonto para que se apresure.
lo que puede expresarse como
Si alguien se apresura, entonces ese alguien es tonto.
Obsérvese que no se dice que si alguien es tonto, se apresura. Si lo que la frase expresa es
verdadero, es perfectamente posible que haya tontos que no se apresuren. Sin embargo la frase
expresa que el apresuramiento debe ir acompañado de tontera. Análogamente, las expresiones
clásicas de que una cosa es necesaria para otra pueden traducirse a través del condicional. Si
decimos
Es necesario estar bautizado para salvarse.
2 De la canción Can’t Help Falling in Love, interpretada, entre otros, por Elvis, Andrea Bocelli, Bruce Springsteen,
Celine Dion, Pearl Jam, y destrozada por UB40.
5.5 El conectivo ↔
105
expresamos algo que significa
Solo las personas bautizadas son salvas.
o
Si una persona es salva, entonces está bautizada.
Obsérvese entonces que el condicional (p → q) es una forma de establecer la suficiencia de
p para q y la necesidad de q para p. Sabemos que esto no debe entenderse de modo causal, sino
que se trata de una relación entre los valores de verdad de p y q: si alguien se compromete con el
condicional (p → q), se compromete con que si p es verdadero, q lo es y si q es falso, p lo es. De
aquí, derivativamente tenemos que el condicional (¬q → ¬p) es equivalente al anterior, como ya
habíamos mencionado y se puede verificar fácilmente por medio de tablas de verdad. Esto es así
porque si q es necesario para p, si es el caso que ¬q deberá ser el caso que ¬p.
5.4.3
Condicionales expresados con un “y”
El lenguaje natural presenta una riqueza de expresiones que hace inabarcable el estudio de
todas las que lógicamente funcionan como un condicional. Por ejemplo, algunas expresiones en la
que aparece la conjunción “y” deberían ser traducidas como un condicional:
Dejás la ventana abierta y te roban la casa.
Es obvio que esto expresa que si dejas la ventana abierta, entonces te robarán. La estructura es
la misma que se advierte en la siguiente frase fosilizada, que intenta condicionalizar el triunfo:
Persevera y triunfarás.
5.5
El conectivo ↔
El bicondicional se asocia principalmente con la expresión “si y solo si”, pero por lo que hemos
visto también expresa condiciones necesarias y a la vez suficientes. Por ejemplo
Don Quijote dejará las armas si y solo si es derrotado en combate singular.
es equivalente a
Para que Don Quijote deje las armas es necesario y suficiente que sea derrotado en combate
singular.
Al examinar la expresión “X si y solo si Y” se observa que el primer “si” establece que Y es
suficiente para X, y el “solo si” establece que Y es necesario para X.
Capítulo 5. Conectivos lógicos y lenguaje natural
106
5.6
Ejercicios
1. Extraiga todas las proposiciones simples desde el punto de vista de la lógica proposicional
del siguiente texto:
“Ciegas y primitivas, las termitas no son sin embargo una presa fácil para las hormigas, sus
enemigos naturales. No solo saben construir fortalezas prácticamente impenetrables; no
solamente están dotadas de temibles mandíbulas, sino que también segregan eficaces armas
químicas: toxinas, anticoagulantes, sustancias irritantes y viscosas cuya complejidad apenas
comienza a ser descubierta por los científicos”.
2.
3.
4.
5.
6.
7.
8.
Señale alguna que no se encuentre afirmada en el texto.
Represente en el lenguaje proposicional los siguientes pares de enunciados:
a) Llueve / Está soleado
b) Llueve / No es verdad que sea el caso que llueva.
c) Quiero algo / Es falso que quiera algo.
d) Quiero algo / No quiero nada.
e) Quiero algo / Nada quiero.
f ) No quiero nada / Nada quiero.
g) Debes ir / No debes dejar de ir.
h) Estudio todos los días / No estudio nunca.
i) Creo en Dios / Creo que Dios no existe.
j) Creo en Dios / No creo que Dios no exista.
Represente en el lenguaje proposicional los siguientes enunciados:
a) Laika y Dolly fueron animales famosos.
b) Laika y Dolly no se conocieron.
c) Laika viajó al espacio pero sin embargo los EE.UU. tuvieron los mayores éxitos en la
carrera espacial.
d) Este número es par o es impar.
e) (En las condiciones en que estaba en 1941) Hitler atacaría Gran Bretaña o la Unión
Soviética.
f ) Al menos uno de estos dos (se refiere a Aníbal y César) fue un genio militar.
Busque en alguna de opinión de la prensa expresiones de condicionales. Evalúe la adecuación
de presentarlos como condiciones de suficiencia o necesidad.
Considere la siguiente situación. Juan es un joven ni-ni (o sea que ni estudia, ni trabaja).
Un día su padre le dice: “Juan, esto no puede seguir así. Tenés que estudiar o trabajar”.
Represente lo dicho por el padre en el lenguaje proposicional.
Considere la siguiente situación. Juan es un joven que estudia y trabaja, pero no está haciendo
bien ninguna de las dos cosas, porque se esfuerza mucho en ambas y el tiempo no le resulta
suficiente, además de que su salud se está resintiendo. Un día su padre le dice: “Juan, esto
no puede seguir así. Tenés que estudiar o trabajar”. Represente lo dicho por el padre en el
lenguaje proposicional.
Es común oír: “Si ladra, no muerde”. Tradúzcala al lenguaje de la lógica proposicional.
¿Cómo traduciría al lenguaje proposicional lo siguiente: “Si ladra, no muerde; si muerde,
no ladra”. ¿Considera usted que para propósitos de seguridad con respecto a relaciones
canino-humanas es suficiente la advertencia dada o sería mejor (desde el punto de vista
lógico) sustituirla por la segunda? ¿Es admisible traducir la segunda forma de la misma
manera que “Ladra si y solo si no muerde”?
En un restaurant de lujo, de esos con varios mantelitos, servilletas, centros de mesa y velitas,
hay un cartel que dice: “La comida barata no es buena”. En un tugurio piojoso, de esos
5.6 Ejercicios
107
que tienen olor a baño y los vasos sucios, hay un cartel que dice: “La comida buena no es
barata”. ¿Es posible traducir lo que dicen ambos carteles por una misma fórmula del lenguaje
proposicional?
9. Según Kant, los juicios verdaderos se clasifican en dos categorías: a priori y a posteriori (o
empíricos). Podemos decir grosso modo, que un juicio es empírico cuando su validación
depende necesariamente de la experiencia, cuando alguna experiencia (pensable) –esto es,
información obtenida a través de los sentidos- podría hacernos cambiar de idea acerca de
su valor de verdad. Un juicio es a priori si no es empírico. Por ejemplo, un juicio tal como
“La pared es blanca” es empírico y uno como “Toda cosa es igual a sí misma” es a priori.
Por otro lado, los juicios también se pueden clasificar en otras dos categorías: analíticos y
sintéticos. Un juicio analítico es aquel en el cual el predicado está comprendido en el sujeto
(o podemos decir grosso modo, que para validarlo basta el mero conocimiento del significado
de las palabras empleadas al expresarlo). Un juicio sintético es uno no analítico. Por ejemplo,
“Un soltero no está casado” es analítico, mientras que “Juan es soltero” es sintético. Suponga
que dos filósofos kantianos están examinando un mismo juicio.
a) Uno concluye que el juicio es sintético y el otro que el juicio es analítico. ¿Considera
usted que uno está concluyendo la negación de lo que concluye el otro?
b) Uno concluye que el juicio es analítico y el otro que el juicio es empírico. ¿Considera
usted que uno está concluyendo la negación de lo que concluye el otro?
c) Suponga que uno concluye que el juicio es sintético, y el otro concluye que es a priori.
Un filósofo no kantiano, que no conoce el juicio que está siendo examinado, hace el
siguiente comentario: “Al menos uno de los dos tiene que estar equivocado”. ¿Qué
premisa implícita está manejando el filósofo no kantiano?
10. El siguiente fragmento se encuentra en el libro “La filosofía china” de Lin Yutang:
"(Motsé) se burló de los confucionistas, comparándolos con campanillas que solo suenan
cuando se las golpea, y no suenan cuando se las golpea".
Considere que p representa “Estas campanillas suenan” y q representa “Estas campanillas
son golpeadas”. Represente en el lenguaje de la lógica proposicional lo que dice Motsé de
los confucionistas entendiéndolos como “estas campanillas”. Explique la metáfora. (Para
hacerlo debe inferir algo que no está explícito).
11. Representamos con “p” la proposición “Todos los planetas tienen satélites” y con “q” la
proposición “Algunos astros siguen órbitas elípticas”. ¿Cuál de las siguientes representaciones
corresponde a “Si algunos planetas no tienen satélites entonces ningún astro sigue una órbita
elíptica”?
a) (¬r→¬s)
b) (¬p→¬q)
c) (¬r→¬q)
d) (¬p→¬r)
(r y s representan proposiciones de las que no se ha dado su correspondiente en lenguaje
natural. Si usted elige un condicional en el que aparece r o s como la respuesta correcta debe
decir cuál es el enunciado que está representando).
6. Consecuencia semántica
esta altura del curso ya tenemos las herramientas suficientes como para dar cuenta, al
menos parcialmente, de cómo servirá el lenguaje formal que hemos desarrollado para
nuestros propósitos al embarcarnos en el estudio de la lógica. Habíamos dicho que esta
ciencia tiene como uno de sus objetos principales la inferencia correcta, y estamos en condiciones
de clasificar científicamente –es decir, según la ciencia de la lógica– algunas inferencias como
correctas.
Todos los conceptos que necesitamos para esto han sido ya expuestos y desarrollados, y lo
único que resta es combinarlos de determinada manera que recoja la idea de corrección argumental.
A
6.1
La validez en el lenguaje formal
Para iniciar nuestro recorrido hacia una caracterización científica de los argumentos válidos
estudiemos una inferencia que consideramos correcta a nivel intuitivo:
En Hechos de los Apóstoles 5:33-39 se lee:
33 Ellos [los miembros del Sanedrín], al oír esto, se consumían de rabia y trataban de
matarlos [a los apóstoles].
34 Entonces un fariseo llamado Gamaliel, doctor de la ley, con prestigio ante todo el
pueblo, se levantó en el Sanedrín. Mandó que se hiciera salir un momento a aquellos
hombres,
35 y les dijo: “Israelitas, mirad bien lo que vais a hacer con estos hombres.
36 Porque hace algún tiempo se levantó Teudas, que pretendía ser alguien y que reunió
a su alrededor unos cuatrocientos hombres; fue muerto y todos los que le seguían se
disgregaron y quedaron en nada.
37 Después de éste, en los días del empadronamiento, se levantó Judas el Galileo, que
arrastró al pueblo en pos de sí; también éste pereció y todos los que le habían seguido
se dispersaron.
38 Os digo, pues, ahora: desentendeos de estos hombres y dejadlos. Porque si esta
idea o esta obra es de los hombres, se destruirá;
Capítulo 6. Consecuencia semántica
110
39 pero si es de Dios, no conseguiréis destruirles. No sea que os encontréis luchando
contra Dios.” Y aceptaron su parecer.
En el libro [Gen10] Harry Gensler afirma que este argumento es probablemente el más complejo
que la Biblia presenta. Consideremos la siguiente reconstrucción:
La enseñanza de los apóstoles viene de Dios o es de origen humano.
Si viene de Dios y matamos a los apóstoles, entonces estaremos luchando contra Dios.
Si es de origen humano, se destruirá por sí misma.
Si se destruye por sí misma y matamos a los apóstoles, entonces esas muertes serán innecesarias.
Si matamos a los apóstoles, entonces esas muertes serán innecesarias o estaremos luchando contra Dios.
(Observe la enorme distancia que hay entre el texto bíblico y la reconstrucción presentada1 . Sin
embargo, es una buena reconstrucción ya que captura el sentido de lo dicho y las condiciones de
verdad involucradas). Si procedemos a la traducción al lenguaje de la lógica proposicional siendo:
p
q
r
s
t
u
La enseñanza de los apóstoles viene de Dios.
La enseñanza de los apóstoles es de origen humano.
Matamos a los apóstoles.
La enseñanza de los apóstoles se destruirá por sí misma.
Estaremos luchando contra Dios.
La muerte de los apóstoles será innecesaria.
Obtenemos:
(p ∨ q)
((p ∧ r) → t)
(q → s)
((s ∧ r) → u)
(r → (u ∨ t))
¿Cómo podemos, con los elementos a nuestra disposición, mostrar que la inferencia de Gamaliel
es correcta? Habíamos dicho, a nivel intuitivo, que una inferencia es lógicamente correcta cuando no
es posible que la conclusión sea falsa si las premisas son verdaderas. Esto debería quedar reflejado
en la semántica de nuestro lenguaje formal de la siguiente manera: ninguna interpretación que
asigne V a todas las premisas puede asignar F a la conclusión o, dicho de otro modo, todo modelo
de las premisas debe ser modelo de la conclusión. Mostraremos que todo modelo del conjunto
P = {(p ∨ q), ((p ∧ r) → t), (q → s), ((s ∧ r) → u)}
es modelo de
(r → (u ∨ t))
Para hacer esto, consideraremos una interpretación que no sea modelo de (r → (u ∨ t)) y
mostremos que es imposible que esa interpretación sea modelo de todas las premisas. Es decir,
1 Todo
este argumento -como muchos otros- está erizado de complejas cuestiones filosóficas, derivadas del estatus
de proposiciones contingentes sobre el futuro. Básicamente el problema es que aceptar que una proposición como “La
enseñanza de los apóstoles se destruirá por sí misma” tiene un valor de verdad en el momento en que se la expresa, parece
obligar a un determinismo lógico, es decir, que tanto si es V como si es F entonces lo que sucederá con esa enseñanza
ya está determinado. El problema fue estudiado con mucho detalle por Aristóteles en el cap. 9 de Peri Hermeneias.
Es tema de la filosofía de la lógica y no diremos otra cosa sobre él que usaremos esas expresiones como expresando
proposiciones.
6.2 La relación de consecuencia semántica
111
mostraremos que suponer que hay una interpretación que es modelo de todas las premisas y no es
modelo de (r → (u ∨ t)) lleva a una contradicción2 . Sea I una interpretación tal que
a Es modelo de todas las premisas.
b Es contramodelo de (r → (u ∨ t)).
Por b:
1. I(r) =V
2. I(u ∨ t) =F
Como I es interpretación es necesario que (por 2)
3. I(u) = I(t) =F
Considere la premisa ((p ∧ r) → t). Según a es V, y dado que (por 3) I(t) =F, debe ser
4. I(p ∧ r) =F
Pero por 1 sabemos que I(r) =V, de modo que 4 y 1 hacen necesario que
5. I(p) =F
Considere ahora la premisa ((s ∧ r) → u). Según a es V y dado que (por 3) I(u) =F, debe ser
6. I(s ∧ r) =F
Pero por 1 sabemos que I(r) =V, de modo que 6 y 1 hacen necesario que
7. I(s) =F
Considere ahora la premisa (q → s). Según a es V y dado que (por 7) I(s) =F, debe ser
8. I(q) =F
Entonces por 8 y 5, tenemos que
10. I(p ∨ q) =F
Pero (p ∨ q) es una premisa, de modo que se contradice nuestra suposición en a de que todas
las premisas eran V bajo I, con lo que queda demostrado que ninguna interpretación que asigne F
a la conclusión asignará V a todas las premisas, o lo que es lo mismo, que si una interpretación
hace V a todas las premisas hará V también a la conclusión, o dicho de otra manera, que todos los
modelos del conjunto de las premisas son modelos de la conclusión. Y es por esto que decimos
que la inferencia es correcta y diremos que cualquier inferencia cuya traducción al lenguaje formal
cumpla eso será correcta.
Tenemos entonces la posibilidad de describir cómo se “refleja” en nuestro lenguaje formal
y su semántica la corrección argumental del lenguaje natural en tanto es tributaria de la forma
proposicional. Lo haremos a través del concepto de consecuencia semántica.
6.2
La relación de consecuencia semántica
De acuerdo a lo que acabamos de mostrar, definimos:
2 Observe
que no se está usando la palabra en el sentido técnico en que la definimos, como una fórmula que no
tiene modelos, sino en sentido coloquial. Esta es una forma de razonamiento común: suponer algo, y llegar a algo
inaceptable lógicamente, con lo que estamos obligados a rechazar lo que supusimos. Veremos con mucho más detalle
esto en próximos capítulos.
Capítulo 6. Consecuencia semántica
112
Definición 6.2.1 — Consecuencia semántica. Sea Γ un conjunto de fórmulas de L P y
A una fórmula de L P. A es consecuencia semántica de Γ si y solo si todo modelo de Γ es
también modelo de A.
Notación 6.1. Si A es consecuencia semántica de Γ, escribimos Γ |= A
Es esta una de las nociones centrales de la Lógica, y dedicaremos el resto de este capítulo a
estudiarla.
Observemos en primer lugar que en un nivel preformal decíamos que una inferencia es correcta
si su conclusión necesariamente es verdadera si sus premisas lo son. Ahora que hemos matematizado
la noción al sumergirla en un lenguaje formal, la necesidad queda reflejada al decir que toda
interpretación que asigne V a las premisas asignará V a la conclusión. En el ejemplo de la inferencia
de Gamaliel, la conclusión es consecuencia semántica del conjunto de las premisas, y eso clasifica
científicamente la inferencia como correcta desde el punto de vista lógico, o sea, podemos afirmar
que es válida.
Es claro que dado cualquier conjunto de fórmulas Γ y cualquier fórmula A, la fórmula A
es consecuencia semántica de Γ o no lo es. Nunca una fórmula es “más o menos consecuencia
semántica” de un conjunto. Esto se corresponde con la división tajante entre argumentos válidos e
inválidos, ya habíamos visto que no hay argumentos “más o menos válidos”.
Consideremos ahora algunos de los aspectos más salientes del concepto que acabamos de
definir.
6.3
Conjuntos insatisfacibles y contradicciones
Supongamos que Γ no tiene modelos, o sea que es un conjunto insatisfacible, y sea A una fórmula
cualquiera. ¿Es o no es A consecuencia semántica de Γ? No es simple responder a la pregunta de
si todos los modelos de Γ son modelos de A si es que Γ no tiene modelos. Preguntémonos qué
es necesario, en general, para que A no sea consecuencia semántica de Γ. La respuesta obvia es:
para que A no sea consecuencia semántica de Γ, debe existir una interpretación que sea modelo de
Γ y no sea modelo de A. Pero es claro que si Γ es insatisfacible esto no puede cumplirse porque
ninguna interpretación es modelo de Γ. Dado que no puede cumplirse que A no sea consecuencia
semántica de Γ, aceptamos que lo es.
Ejemplo 6.1 Sea Γ = {p, q, (p → ¬q)}. ¿Es la fórmula (r ∧ s) consecuencia semántica de Γ?
Según lo que acabamos de decir, y dado que Γ es insatisfacible (verifíquelo el lector), se tiene:
Γ |= (r ∧ s)
con lo que decimos que ninguno de los modelos de Γ es contramodelo de (r ∧ s), cosa que se
cumple trivialmente porque Γ no tiene modelos.
Hemos demostrado el
Teorema 6.3.1 Si Γ es insatisfacible, entonces Γ |= A, sea cual sea la fórmula A.
Relacionada con esto se encuentra la siguiente pregunta: Una contradicción no tiene modelos.
¿Cuáles conjuntos tienen a una contradicción como consecuencia semántica?
Sea κ una contradicción, y supongamos que Γ |= κ. Es claro que como todas las interpretaciones
son contramodelos de κ, si Γ tuviese un modelo, la relación de consecuencia semántica no podría
darse. Por eso y lo anterior tenemos:
6.4 Conjunto vacío y tautologías
113
Teorema 6.3.2 Siendo κ una contradicción, Γ |= κ si y solo si Γ es insatisfacible.
6.4
Conjunto vacío y tautologías
¿De cuáles conjuntos serán consecuencias semánticas las tautologías? La intuición nos dice que
una tautología no necesita de que otras proposiciones le ofrezcan apoyo para que la consideremos
verdadera. Examinemos la posibilidad de decir que una tautología es consecuencia semántica de
cualquier conjunto de fórmulas. Sea τ una tautología y Γ un conjunto cualquiera de fórmulas. Es
claro que Γ |= τ es algo que debemos aceptar siempre que Γ contenga al menos una fórmula, ya
que es imposible hallar contramodelos de τ y a fortiori, contramodelos de τ que sean modelos de Γ.
Pero este argumento sirve de la misma manera en el caso de que Γ sea el conjunto vacío. Diremos
entonces que una tautología es consecuencia semántica del conjunto vacío y usaremos la siguiente:
Notación 6.2. |= τ
Sin embargo queda por tratar el problema de si el conjunto vacío tiene alguna otra consecuencia
semántica aparte de las tautologías. Optamos convencionalmente por decir que cualquier interpretación satisface el conjunto vacío (ya que para que una interpretación no sea modelo de un conjunto
es necesario que exista una fórmula en el conjunto que no sea verdadera bajo esa interpretación).
Por lo tanto, ninguna contingencia o contradicción puede ser consecuencia del conjunto vacío y se
tiene
Teorema 6.4.1 La fórmula A es tautología si y solo si |= A.
6.5
Monotonía
Supongamos que Γ y A son tales que Γ |= A. Modifiquemos ahora el conjunto Γ agregándole
fórmulas. Llamemos ∆ al conjunto de las fórmulas que agregamos obteniendo un conjunto Γ’ que
será la unión de Γ y ∆. En símbolos de la teoría de conjuntos, Γ’=Γ ∪ ∆. Nos preguntamos si se
cumple Γ’|= A.
Se pueden presentar dos casos. Si Γ’ es insatisfacible, entonces, como toda fórmula es consecuencia semántica de cualquier conjunto insatisfacible, tenemos Γ’|= A.
Si Γ’ tiene modelos, entonces esos modelos tienen que asignar V a todas las fórmulas de Γ, y
por lo tanto serán también modelos de Γ. De modo que todo modelo de Γ’ es también modelo de Γ
y como Γ |= A, es también modelo de A. Hemos demostrado el
Teorema 6.5.1 — Monotonía. Si Γ |= A, entonces para todo conjunto de fórmulas ∆, Γ ∪ ∆ |= A.
Se observa que si se parte de un conjunto de fórmulas y se agregan fórmulas, todos los
modelos del conjunto así obtenido serán modelos del conjunto de partida, lo que es decir, con este
procedimiento se pueden perder modelos pero nunca ganar nuevos.
Este aspecto llamado monotonía merece una pequeña digresión.
Es sabido que desde los filósofos griegos se ha distinguido un tipo de conocimiento llamado
a veces “racional”, que podríamos decir es el que se obtiene a través de inferencias correctas a
partir de determinados supuestos (que se consideran verdaderos). Algunos estudiosos han dicho
que una de las características más salientes de ese tipo de conocimiento es que es inconmovible.
Esto quiere decir, que una vez que alguien ha adquirido un conocimiento a través de inferencias
deductivas partiendo de supuestos que tienen por verdaderos, ningún razonamiento hará que cambie
Capítulo 6. Consecuencia semántica
114
el valor de verdad que le asigna a la proposición que representa su conocimiento en tanto mantenga
esos supuestos. Y esto queda bien reflejado en lo que acabamos de decir. Supongamos que alguien
partiendo de un conjunto Γ de premisas infiere deductivamente A. En nuestro marco esto es lo
mismo que decir que ha advertido que Γ |= A. Supongamos ahora que aprende nuevos hechos, o
sea, que acepta nuevas proposiciones a cuyo conjunto llamaremos ∆. Su conocimiento de A es
inconmovible porque sea cual sea ∆, A será consecuencia semántica de Γ ∪ ∆. O sea que una vez
que se ha aceptado una proposición A por medios deductivos, la aceptación de nuevas premisas,
sean estas cuales sean, no hará cambiar la aceptación de A. Y esto puede parecer extraño pero un
poco de reflexión muestra que no lo es. La inconmovibilidad se da solamente en tanto se mantengan
todas las premisas que llevaron a A. Supongamos el caso extremo en el que lo nuevo que se acepta
es ¬A. Según lo que venimos diciendo, A continuará siendo consecuencia semántica del nuevo
conjunto. En símbolos:
i. Γ |= A
y el sujeto acepta A porque la ha deducido de las proposiciones contenidas en Γ.
Ahora el sujeto acepta ¬A a la vez que mantiene su creencia en todas las proposiciones de Γ.
Como
Γ ∪ {¬A} |= A
A sigue siendo una conclusión correctamente extraída de su (nuevo) conjunto de premisas, y si
el sujeto se apega a la regla de creer todo aquello que puede deducir a partir de sus supuestos
aceptados, debe continuar creyendo A a pesar de haber supuesto ¬A.
Esto es así porque i indica que si una interpretación es modelo de Γ entonces es modelo de
A o lo que es lo mismo, es contramodelo de ¬A. Por eso, no hay modelos de Γ ∪ {¬A}, o sea, el
nuevo conjunto es insatisfacible y por lo tanto, toda proposición es consecuencia semántica de él.
En particular Γ ∪ {¬A} |= A. En este caso, lo que tenemos es que el razonador alberga creencias
incoherentes (el conjunto de fórmulas que representa sus creencias es insatisfacible).
Por supuesto que se puede cambiar de creencias obtenidas racionalmente por medios también
racionales, es decir, se puede dejar de creer una proposición que previamente ha sido aceptada
porque se ha llegado a ella a través de inferencias deductivas correctas, pero para esto es necesario
abandonar alguna de las premisas que llevaron a su aceptación. Nunca se abandona una conclusión
obtenida lógicamente por medios puramente deductivos a causa del agregado de nuevas premisas.
Es esta una de las diferencias más importantes entre las inferencias deductivas y las no deductivas.
En una inferencia deductiva nunca se debilita el grado de apoyo que las premisas dan a la conclusión
por el agregado de nuevas premisas. En una inferencia inductiva el grado de apoyo que la conclusión
recibe de las premisas puede cambiar drásticamente con el agregado de ellas. Aníbal Corti gusta de
poner como ejemplo estas inferencias, que intuitivamente son respectivamente buena, mala, muy
buena y horrible, y esos cambios abruptos en el apoyo que las premisas dan a la conclusión se van
dando por el sucesivo agregado de una premisa3 :
Piolín es un ave.
Piolín vuela
Piolín es un ave.
Piolín vive en la Antártida
Piolín es un ave.
Piolín vive en la Antártida
Piolín no es un pingüino
Piolín vuela
Piolín vuela
Piolín es un ave.
Piolín vive en la Antártida
Piolín no es un pingüino
Piolín nació sin alas
Piolín vuela
Es decir, la inferencia inductiva es no monótona.
3 Ejemplo
presentado en la Primera Escuela de Argumentación y Lógica Informal, Montevideo, 2011.
6.6 El condicional asociado
6.6
115
El condicional asociado
¿Cómo evaluar si una proposición dada es consecuencia semántica de un conjunto dado?
Hicimos esa evaluación para la formalización del argumento de Gamaliel más arriba, pero el
método que usamos, si bien concluyente, no podemos decir que haya sido sistemático. Intentemos
desarrollar un método sistemático para el caso en que Γ sea un conjunto finito. Sea Γ = {A1 , ..., An }
y consideremos el problema de determinar si Γ |= B.
Según el Teorema 4.5.1, todo modelo del conjunto Γ es modelo de la fórmula (A1 ∧ ... ∧ An ), y
recíprocamente, todo modelo de esta fórmula es modelo de Γ. Esto permite reducir el problema de
la consecuencia semántica a la relación de valores de verdad de dos fórmulas: (A1 ∧ ... ∧ An ) y B.
Supongamos que se da la relación de consecuencia semántica. Decir que todo modelo de Γ es
modelo de B es equivalente a decir que toda interpretación que asigne V a la fórmula (A1 ∧ ... ∧ An )
también asignará V a la fórmula B, o lo que es lo mismo, que toda interpretación que asigne F a
B, asignará F a (A1 ∧ ... ∧ An ). La relación de consecuencia semántica impone restricciones a las
combinaciones de valores de verdad de esas dos fórmulas que se muestran en la siguiente tabla:
(A1 ∧ ... ∧ An )
B
Si {A1 , ..., An } |= B, tenemos
V
V
F
F
V
F
V
F
Caso permitido
Caso prohibido
Caso permitido
Caso permitido
¿Cómo distinguir el “caso prohibido” de los restantes? Es obvia la similitud de esta “metatabla”
con la tabla de verdad del condicional. Si consideramos el condicional
(A1 ∧ ... ∧ An ) → B
vemos que será falso si y solo si estamos en el “caso prohibido”, o sea si existe una interpretación
que sea modelo de Γ y no lo sea de B.
Esto nos lleva a decir que si ese condicional es verdadero bajo toda interpretación entonces
Γ |= B, y recíprocamente, si Γ |= B entonces el condicional es verdadero bajo toda interpretación.
Hemos demostrado así el
Teorema 6.6.1 — Condicional asociado. {A1 , ..., An } |= B si y solo si (A1 ∧ ... ∧ An ) → B es
una tautología.
Ese condicional se llama condicional asociado al par (Γ, B)
No es ocioso repetir que encontrar una sola interpretación que hace falso al condicional asociado
es encontrar una interpretación que hace verdadera a la conjunción que le sirve de antecedente a la
vez que hace falsa a la fórmula que le sirve de consecuente, y esto equivale a encontrar un modelo
de Γ que no es modelo de B.
Si ninguna interpretación logra eso es porque todos los modelos de Γ son modelos de B. De ahí
que surge este fortísimo resultado que nos permite reducir el problema de evaluar si una fórmula
es consecuencia semántica de un conjunto finito de fórmulas a determinar si una fórmula (el
condicional asociado) es una tautología.
En el caso en que Γ sea insatisfacible, la conjunción que sirve de antecedente al condicional
asociado será una contradicción (porque ninguna interpretación puede hacer simultáneamente
verdaderas a todas las Aes) y entonces el condicional asociado, al tener como antecedente una
contradicción será tautológico sin importar cual sea la fórmula B que le sirva de consecuente.
Capítulo 6. Consecuencia semántica
116
Esperábamos este resultado ya que habíamos afirmado que cualquier fórmula es consecuencia
semántica de un conjunto insatisfacible.
Ejemplo 6.2 Determinar si se cumple {(p1 ∨ p2 ), ¬p2 } |= (p1 ∧ (p2 → p3 ))
Evaluemos la tabla de verdad de su condicional asociado:
∨
V
V
V
V
V
V
F
F
(((p1
V
V
V
V
F
F
F
F
∧
F
F
V
V
F
F
F
F
p2 )
V
V
F
F
V
V
F
F
¬p2 )
F
F
V
V
F
F
V
V
→
V
V
V
V
V
V
V
V
(p1
V
V
V
V
F
F
F
F
∧
V
F
V
V
F
F
F
F
(p2
V
V
F
F
V
V
F
F
→
V
F
V
V
V
F
V
V
p3 )))
V
F
V
F
V
F
V
F
Observe que hemos dispuesto una única columna bajo ¬p2 colocando en ella los valores de
verdad asignados al compuesto, en vez de utilizar dos columnas, una para la letra proposicional
y otra para el conectivo unario que la afecta. Es la práctica usual, que simplifica en algo la
presentación.
El resultado es, por supuesto, que dado que el condicional asociado es tautológico, hay relación
de consecuencia semántica.
Ejemplo 6.3 Es trivial observar que {p1 } 2 (p1 ∧ p2 ) ya que el condicional asociado
(p1 → (p1 ∧ p2 ))
no es tautológico, como el lector comprobará fácilmente.
Ejemplo 6.4 Determinar si se cumple {(p1 ∧ p2 ), (p1 →(p4 ∨ p3 ))}|=(p4 ∨ p3 )
Construyamos el condicional asociado al par que tenemos entre manos:
((p1 ∧ p2 ) ∧ (p1 → (p4 ∨ p3 ))) → (p4 ∨ p3 )
Debemos investigar si es una tautología. Podríamos hacerlo desarrollando la tabla de verdad,
lo que sería muy trabajoso ya que en este caso sería una tabla con 16 líneas. ¿Qué procedimiento
alternativo tenemos para saber si ese condicional es o no tautológico? Recordemos el inicio de
este trabajo, cuando analizamos el argumento de Gamaliel. En esa ocasión supusimos que una
interpretación hacía V a las premisas y F a la conclusión. De ahí obteníamos una contradicción.
Análogamente ahora podemos buscar una interpretación que haga F el consecuente y V el antecedente. Si la encontramos, el condicional asociado no es tautológico y si arribamos a una contradicción
a partir de la suposición de que existe, el condicional asociado es tautológico.
Desarrollaremos el procedimiento en mucho mayor detalle que el necesario, para que se
comprenda su funcionamiento.
(((p1
1
2
3
4
5
∧
p2 )
∧
(p1
→
(p4
∨
p3 )))
→
F
(p4
V
p3 ))
F
V
V
∨
V
V
F
F
F
F
F
X
Explicación: En cada fila se va desarrollando un paso del razonamiento hecho en el orden en
que fue realizado.
6.7 El teorema de deducción (versión semántica)
117
1. Suponemos que el condicional asociado es F.
2. Si el condicional asociado es falso, su antecedente es V y su consecuente es F, lo que se
marca bajo cada uno de los conectivos principales.
3. Al ser falsa la disyunción del consecuente, p4 y p3 son falsas, y al ser verdadera la conjunción
del antecedente, las fórmulas (p1 ∧ p2 ) y (p1 →(p4 ∨ p3 )) son verdaderas, lo que se marca
bajo sus conectivos principales.
4. Al ser verdadera (p1 ∧ p2 ), tanto p1 como p2 son verdaderas. Además, en la fila 3 habíamos
deducido que p4 y p3 son falsas, por lo que (p4 ∨ p3 ) es falsa.
5. El condicional (p1 →(p4 ∨ p3 )) es verdadero (fila 3) y su consecuente es falso (fila 4).
Entonces su antecedente p1 es falso. Pero p1 es verdadero (fila 4). Contradicción.
Ninguna interpretación hace que antecedente del condicional asociado sea verdadero y a la
vez su consecuente falso, o sea que el condicional asociado es tautológico y hay relación de
consecuencia semántica.
6.7
El teorema de deducción (versión semántica)
El teorema de deducción es un muy importante resultado que expresa algo que puede parecer
una perogrullada, pero tiene consecuencias de muy largo alcance.
Antes de enunciarlo, expliquemos una notación que simplificará las cosas. En vez de Γ∪{A}
escribamos Γ, A lo que resulta más cómodo.
Supongamos que se cumple
i. Γ, A |= B
o sea, B es consecuencia semántica del conjunto formado por las fórmulas de Γ y la fórmula A. El
teorema de deducción afirma que en esas circunstancias se cumple
ii. Γ |= (A → B)
y recíprocamente, que si cumple ii se cumple i.
Observe el lector que si en el enunciado se sustituyera → por ∧, ∨ o ↔ no obtendríamos algo
que se cumple en todos los casos.
¿Qué es lo que nos dice el teorema de deducción acerca de la validez argumental?
Por un lado, que dado un argumento válido tal que una de cuyas premisas es A y su conclusión
es B, también será válido el argumento que tiene las mismas premisas excepto A y como conclusión
el condicional A → B. O sea, a partir de cualquier argumento válido que tenga al menos una premisa,
podemos obtener otro argumento válido que tiene una premisa menos. Obsérvese que si se trata
de un argumento con una cantidad finita de premisas, la repetición del procedimiento nos lleva a
concluir algo a partir del conjunto vacío, o sea, terminamos en una forma tautológica.
Por otro lado, que dado un argumento válido con conclusión en forma de condicional, también
será válido el argumento que se obtenga agregando el antecedente de la conclusión a las premisas,
y dejando como nueva conclusión el consecuente.
O sea, este resultado, considerado desde el punto de vista de la corrección argumental, nos dice
que la corrección lógica de ciertos argumentos asegura la corrección de otros, relacionados con
el primero en forma precisa, y recíprocamente. De manera que ciertos argumentos son tales que
o bien son todos válidos o bien son todos inválidos, no pueden ser unos válidos y otros inválidos.
Pasemos al enunciado preciso y la demostración:
Teorema 6.7.1 — Deducción (versión semántica). Para todo conjunto de fórmulas Γ y para
cualesquiera fórmulas A y B:
Γ, A |= B si y solo si Γ |= (A → B).
118
Capítulo 6. Consecuencia semántica
Demostración: Trabajaremos con los contrarrecíprocos: Demostraremos que si no se cumple
Γ |= (A → B), entonces no se cumple Γ, A |= B; y que si no se cumple Γ, A |= B, entonces no se
cumple Γ |= (A → B).
Supongamos Γ 2 (A → B)4 . En este caso tendríamos un modelo de Γ que sería contramodelo
de (A → B), o sea, que sería modelo de A y contramodelo de B. Pero si existe un modelo de Γ que
es además modelo de A y contramodelo de B, entonces Γ, A 2 B.
Recíprocamente, supongamos que Γ, A 2 B. En ese caso tendríamos un modelo de Γ y de A
que es contramodelo de B. Pero esa interpretación sería modelo de Γ y contramodelo de (A → B),
por lo que Γ 2 (A → B).
Introduzcamos un nuevo concepto, el de implicación.
Definición 6.7.1 — Implicación. Una fórmula A implica una fórmula B si y solo si todos los
modelos de A son modelos de B, o sea, si y solo si {A} |= B.
A partir del teorema de deducción, es evidente el siguiente
Corolario 6.7.2 A implica B si y solo si A → B es una tautología.
6.8
El “absurdo”
Se trata de un teorema que justifica un tipo de razonamiento muy común. Su enunciado es
Teorema 6.8.1 — El “absurdo”. Para todo conjunto Γ y toda fórmula A, Γ |= A si y solo si
Γ, ¬A es insatisfacible.
Frecuentemente se razona de esta manera: se acepta un conjunto de proposiciones que se
consideran establecidas Γ, al que se le adjunta la negación de una proposición A. Si se encuentra
que el nuevo conjunto que se obtiene es insatisfacible se rechaza la negación que se había adjuntado
y se acepta la proposición A. Esa aceptación se debe a que A es consecuencia de un conjunto de
proposiciones que se consideran establecidas.
Demostración: Si Γ |= A todo modelo de Γ es modelo de A y por lo tanto, todo modelo de Γ es
contramodelo de ¬A. Se concluye que Γ, ¬A no tiene modelos, o sea, es insatisfacible.
Por otro lado, si Γ, ¬A es insatisfacible, todo modelo de Γ es contramodelo de ¬A, y por lo
tanto, todo modelo de Γ es modelo de A, o sea Γ |= A.
4 Por supuesto, el símbolo 2 se utiliza para significar que la fórmula que le sigue no es consecuencia semántica del
conjunto que le precede.
6.9 Ejercicios
6.9
119
Ejercicios
1. Evalúe si es correcto lo que se afirma en cada caso. Si no es correcto, encuentre un modelo
del conjunto dado que sea contramodelo de la fórmula dada.
a) {((p1 ∧ p2 ) → p2 ), p3 } |= (¬p2 → ¬(p1 ∧ p2 ))
b) {p1 } |= (p1 ∨ (¬¬p2 → (p4 ↔ p1 ))
c) {((p2 → p4 ) → p3 )} |= (¬p3 → ¬(p2 → p4 ))
d) {((p1 ↔ p2 ) ∧ (p2 ↔ p1 )), p3 , (p4 ∨ p4 )} |= p1
e) {¬(p1 → p2 ), ¬p1 } |= (p3 ∧ p1 )
f ) {(p1 ∨ (p1 → p2 )), ¬(p1 → p2 )} |= p1
2. Mostrar que cualquier consecuencia semántica de un conjunto de tautologías es una tautología.
3.
4.
5.
6.
7.
8.
Comentario: El filósofo David Stove afirma que los filósofos tienen un comprensible interés
en generar argumentos que cumplan las siguientes tres características:
a) Tengan premisas absolutamente ciertas.
b) Sean totalmente correctos desde el punto de vista lógico.
c) Tengan conclusiones interesantes.
Desde el punto de vista proposicional, es obvio que las proposiciones que mejor cumplen
(i) son las tautologías y las que mejor cumplen (iii) son las contingencias –proposiciones
que expresan algo que podría haber sido de otra manera-. Por lo tanto, se trata de un
ideal inalcanzable. Stove dice haber identificado importantes argumentos en la historia de la
filosofía que adolecen de algo análogo a tener premisas tautológicas y conclusión contingente:
sin más análisis, se puede afirmar que no son válidos.
Sea Γ un conjunto de fórmulas y sea Cons(Γ) el conjunto de las fórmulas que son consecuencia semántica de Γ.
a) Demuestre que Cons(Γ) es infinito sin importar cuál sea Γ.
b) Sea A una fórmula que pertenece a Cons(Γ). Demuestre que la fórmula (X→A) pertenece a Cons(Γ) sin importar cuál sea X. ¿Se puede decir lo mismo de (A→X)?
c) Sea A una fórmula que pertenece a Cons(Γ) y sea B una fórmula que pertenece a
Cons({A}). Demostrar que, siendo X cualquier fórmula se cumple Γ ∪ {¬B} |=X.
Demuestre que Cons(Cons(Γ)) = Cons(Γ).
Sean A, B y C fórmulas tal que C es consecuencia semántica del conjunto {A, B}. Demostrar
que (A→(B→C)) es una tautología.
Sea Γ un conjunto de fórmulas tal que:
a) Todas las tautologías pertenecen a Γ.
b) Para cualesquiera dos fórmulas A y B, si A y (A→B) pertenecen a Γ, entonces B
pertenece a Γ.
a) Mostrar que si A y B pertenecen a Γ, entonces (A∧B) pertenece a Γ.
b) Mostrar que si A y ¬A pertenecen a Γ, entonces toda fórmula del lenguaje Λ pertenece
a Γ.
a) Sean A1 , A2 ,...,An , ϕ, ψ, χ, ξ fórmulas cualesquiera tales que se cumple:
{A1 , A2 , ..., An } |= ϕ Demostrar que:
(χ → ((A1 ∧ A2 ∧ ... ∧ An ∧ ψ) → (ϕ ∨ ξ ))) es tautología.
b) En la siguiente “fórmula” se consideran todas las letras proposicionales indizadas entre
1 y n. Demostrar que:
[(p1 ∨ ¬p1 ) → ((¬p1 ∧ p2 ∧ ... ∧ pn ∧ (p4 → p3 )) → (¬(p1 ∨ ¬p2 ) ∨ (p4 → p3 ))]
es tautología.
Sea A un conjunto de fórmulas, ϕ y ψ fórmulas tales que:
A, ϕ |= ψ
120
Capítulo 6. Consecuencia semántica
A, ψ |= ϕ
A |= ((ϕ ∧ ¬ψ) ∧ (ψ ∧ ¬ϕ))
Demuestre que A es insatisfacible.
9. Sea Γ un conjunto satisfacible que cumple que, dada cualquier fórmula X del lenguaje, o
bien Γ|=X o bien Γ|=¬X. Defina ahora una valuación v de modo que v(X)=V si y solo si
Γ|=X. Demuestre que v es una interpretación. Suponga ahora que se define una valuación u
de modo que u(X)=V si y solo si Γ|=¬X. ¿Es u una interpretación?
10. Traduzca los siguientes argumentos al lenguaje de la lógica proposicional y evalúe su
corrección a través de la la evaluación de la relación de consecuencia semántica entre el
conjunto de premisas y la conclusión.
a) Si la ética depende de la voluntad de Dios, entonces las cosas buenas son buenas porque
Dios las quiere. Las cosas buenas no son buenas porque Dios las quiera. La ética no
depende de la voluntad de Dios.
b) Si Dios existe en el entendimiento y no en la realidad, es concebible un ser mayor
que Dios. Es falso que se puede concebir un ser mayor que Dios. Dios existe en el
entendimiento. Dios existe en la realidad.
c) Si la existencia es una perfección y Dios, por definición, tiene todas las perfecciones, entonces Dios por definición, debe existir. Dios por definición tiene todas las perfecciones.
La existencia es una perfección. Por definición, Dios debe existir.
d) Si tenemos conocimiento, entonces o algunas cosas son conocidas sin prueba o podemos
probar toda premisa mediante premisas previas, y así sucesivamente. No podemos
probar toda premisa mediante premisas previas y así sucesivamente pero tenemos
conocimiento. Algunas cosas son conocidas sin prueba.
e) Si wu shu entonces miao o wu-wei. Pero no wu-wei. Además, si chung, entonces no
miao. Y chung. Por lo tanto, no wu shu.
11. Traduzca los siguientes argumentos al lenguaje de la lógica proposicional y evalúe su
corrección a través de la la evaluación de la relación de consecuencia semántica entre
el conjunto de premisas y la conclusión. En el caso de que su estudio no corrobore la
validez del argumento, indique si considera que se trata de un argumento inválido o de
un argumento válido cuya validez no queda capturada por su estructura en términos de
conectivos proposicionales.
a) Laika es una perra. Laika tiene dos orejas. Por lo tanto, existe una perra que tiene dos
orejas.
b) Laika es una perra. Laika tiene dos orejas. Por lo tanto, todos los perros tienen dos
orejas.
c) Todas las hormigas son insectos. Si todas las hormigas son insectos y todos los insectos
tienen seis patas, entonces todas las hormigas tienen seis patas. Es falso que existan
insectos que no tienen seis patas. Por lo tanto, todas las hormigas tienen seis patas.
d) Todas las hormigas son insectos. Si todas las hormigas son insectos y todos los insectos
tienen seis patas, entonces todas las hormigas tienen seis patas. Es falso que existan
insectos que no tienen seis patas. Por lo tanto, ninguna hormiga tiene cinco patas.
e) Todos los hombres son mortales. Sócrates es hombre. Sócrates es mortal.
f ) Todos los hombres son mortales. Sócrates es hombre. Si todos los hombres son mortales
y Sócrates pertenece a la especie Homo sapiens, entonces Sócrates no es inmortal.
g) Si Dios creó algo, entonces Dios creó todo. Dios creó todo. Por lo tanto, Dios creó algo.
[Este argumento fue presentado por Carlos Oller en el coloquio sobre Vaz Ferreira,
Montevideo, 2011 en el marco de una ponencia en la que analizaba la capacidad de la
lógica formal para decidir absolutamente sobre la invalidez de un argumento, inspirado
en Oliver: “Formal Fallacies and other invalid arguments”, Mind, octubre de 1967.]
6.9 Ejercicios
121
h) Si el cielo es azul, entonces la atmósfera tiene varios kilómetros de altura o está cargada
de partículas. Para que el cielo sea azul es necesario y suficiente que la atmósfera se
comporte como un prisma ajustado a esa longitud de onda. La atmósfera está cargada
de partículas y la dirección del campo magnético terrestre no es Este-Oeste. Si la
atmósfera se comporta como un prisma ajustado a esa longitud de onda, entonces el
campo magnético terrestre está en dirección Este-Oeste. Por todo esto, concluimos que
la atmósfera tiene varios kilómetros de altura.
i) Si el cielo es azul, entonces la atmósfera tiene varios kilómetros de altura o está cargada
de partículas. Para que el cielo sea azul es necesario y suficiente que la atmósfera se
comporte como un prisma ajustado a esa longitud de onda. La atmósfera está cargada
de partículas y la dirección del campo magnético terrestre no es Este-Oeste. Si la
atmósfera se comporta como un prisma ajustado a esa longitud de onda, entonces el
campo magnético terrestre está en dirección Este-Oeste. Por todo esto, concluimos que
Venus presenta fases.
j) Si el cielo es azul, entonces la atmósfera tiene varios kilómetros de altura o está cargada
de partículas. Para que el cielo sea azul es necesario y suficiente que la atmósfera se
comporte como un prisma ajustado a esa longitud de onda. La atmósfera está cargada
de partículas y la dirección del campo magnético terrestre no es Este-Oeste. Si la
atmósfera se comporta como un prisma ajustado a esa longitud de onda, entonces el
campo magnético terrestre está en dirección Este-Oeste. Por todo esto, concluimos que
la atmósfera no tiene varios kilómetros de altura.
k) Si el cielo es azul, entonces la atmósfera tiene varios kilómetros de altura o está cargada
de partículas. Para que el cielo sea azul es necesario y suficiente que la atmósfera se
comporte como un prisma ajustado a esa longitud de onda. La atmósfera está cargada
de partículas y la dirección del campo magnético terrestre no es Este-Oeste. Si la
atmósfera se comporta como un prisma ajustado a esa longitud de onda, entonces el
campo magnético terrestre no está en dirección Este-Oeste. Por todo esto, concluimos
que la atmósfera tiene varios kilómetros de altura.
12. En el artículo “El caso Galileo” de Owen Gingerich, se presentan estos dos argumentos:
i Si el sistema planetario es heliocéntrico, Venus muestra fases. El sistema planetario es
heliocéntrico. Por consiguiente, Venus muestra fases.
ii Si el sistema planetario es heliocéntrico, Venus muestra fases. Venus muestra fases. Por
consiguiente, el sistema planetario es heliocéntrico.
Gingerich afirma que Galileo basó su defensa del heliocentrismo, entre otros elementos, en
el argumento (ii). Traduzca ambos argumentos al lenguaje de la lógica proposicional, evalúe
la corrección argumental. ¿Le merece algún comentario el resultado obtenido?
7. Consecuencia sintáctica
L introducir la importantísima noción de consecuencia semántica hemos podido utilizar
el lenguaje formal L P para clasificar algunas inferencias como válidas. Sin embargo, hay
una brecha importante entre nuestra práctica deductiva más o menos cotidiana cuando nos
enfrentamos a un conjunto de premisas y buscamos una conclusión, o cuando queremos evaluar
una inferencia, y lo que hacemos al evaluar si existe la relación de consecuencia semántica sobre
el lenguaje formal. Esta diferencia se debe principalmente a que al intentar deducir, no solemos
pensar en términos de modelos, ni tampoco evaluamos sistemáticamente todas las posibilidades, un
procedimiento que parece ser lo que hacen en el fondo las tablas de verdad.
A
7.1
7.1.1
Tras las huellas de los humanos
Pensar como la gente
Consideremos un ejemplo concreto. Recordemos uno de los problemas de la biblioteca ya
resuelto:
En el primer folio de Dragones se lee: “Dragones es obra de Mendacius y Esfinge es obra
de Mendacius”. ¿Quiénes son los autores de estas obras?
El lector puede referirse a la subsección 4.6.2 donde hallará la obtención de la solución por
medio de tablas de verdad, o puede probar que el problema queda bien resuelto al establecer que
Dragones es obra de Mendacius y Esfinge de Veratius a través de la verificación de que se tiene
(utilizando la notación introducida en el mismo lugar anteriormente referido)
{VD ↔ (¬VD ∧ ¬VE )} |= (¬VD ∧VE )
Pero es claro que estas formas de resolver o verificar la solución del problema se encuentran
muy alejadas de lo que haría cualquiera que se enfrentase por primera vez a él. En esa situación,
seguramente la mayoría de la gente razonaría en forma parecida a la que se mostró en 1.6.1.
Examinaremos con detalle ese razonamiento “natural”, dividiéndolo en pasos que justificaremos.
Capítulo 7. Consecuencia sintáctica
124
La siguiente tabla esquematiza ese trabajo inferencial. Recordemos que, debido a las reglas de
la biblioteca, la condición de no haber sido escrito por Veratius es equivalente a la de haber sido
escrito por Mendacius.
Paso
1
2
3
4
5
6
Contenido
Justificación
Aceptamos que Dragones fue escrito
por Veratius si y solo si Dragones y Esfinge no fueron escritos por Veratius.
Suponemos que Dragones fue escrito
por Veratius.
Por las reglas de la bilioteca y lo dicho
en Dragones.
Aceptamos, bajo el supuesto hecho, que
Dragones y Esfinge no fueron escritos
por Veratius.
Aceptamos, bajo el supuesto, que Dragones no fue escrito por Veratius.
Aceptamos, bajo el supuesto, que Dragones fue escrito por Veratius y que Dragones no fue escrito por Veratius.
Rechazamos el supuesto de 2, o sea,
aceptamos que Dragones no fue escrito
por Veratius.
7
Suponemos que Esfinge no fue escrito
por Veratius.
8
Aceptamos, bajo el supuesto de 7, que
Dragones no fue escrito por Veratius y
Esfinge no fue escrito por Veratius.
Aceptamos, bajo el supuesto de 7, que
Dragones fue escrito por Veratius.
Aceptamos, bajo el supuesto de 7, que
Dragones fue escrito por Veratius y que
Dragones no fue escrito por Veratius.
Rechazamos el supuesto de 7, o sea,
aceptamos que Esfinge fue escrito por
Veratius.
9
10
11
12
Aceptamos que Dragones no fue escrito
por Veratius y Esfinge fue escrito por
Veratius.
Esperamos llegar a una contradicción
bajo ese supuesto, lo que nos obligaría
a rechazarlo.
Por 1 y 2.
Por 3.
Por 2 y 4.
Porque las contradicciones no son aceptables, y por tanto no podemos aceptar
la contradicción de 5. Pero aceptar el
supuesto de 2 nos obligaría a ello.
Esperamos llegar a una contradicción
bajo ese supuesto, lo que nos obligaría
a rechazarlo.
Por 6 y 7.
Por 1 y 8.
Por 9 y 6.
Porque las contradicciones no son aceptables, y por tanto no podemos aceptar
la contradicción de 10. Pero aceptar el
supuesto de 7 nos obligaría a ello.
Por 6 y 11.
Habrá observado el lector que al justificar los pasos inferenciales no aparecen referencias
explícitas a conceptos semánticos -con excepción de la contradicción- sino que se apela siempre
a la posibilidad de aceptar determinadas proposiciones en ciertas circunstancias, por razones
concernientes a la función que cumplen en la inferencia (premisas y supuestos) o por haber
7.1 Tras las huellas de los humanos
125
aceptado ya otras proposiciones con determinadas características sintácticas, como por ejemplo,
en el paso 9, aceptamos un una proposición porque es uno de los conyuntos de una conjunción ya
aceptada. Además, el razonamiento tomó la forma de una secuencia de proposiciones que iban
siendo tomadas como sabidas, aceptadas porque ya habíamos aceptado otras, o supuestas. Nuestro
objetivo ahora será la obtención de un conjunto de reglas que nos permitan construir secuencias
inferenciales, de tal modo que esas reglas dependan únicamente de la forma de las fórmulas en la
secuencia, o sea, serán reglas puramente sintácticas. Por supuesto, nuestro objetivo será además que
las reglas sean tales que al generar una secuencia a partir de un conjunto de fórmulas, obtengamos
siempre como último elemento de la secuencia una fórmula que sea consecuencia semántica de las
que utilizamos como base para construir la secuencia.
Dicho en forma más clara: queremos generar un procedimiento que nos permita evaluar la
validez, pero que solo dependa de consideraciones sintácticas.
Hay varias formas de lograr eso, pero en este curso elegiremos una que fue creada especialmente
para “copiar” el razonamiento humano.
Ahora valorará el lector la propiedad de la metáfora del microscopio empleada por Frege en el
pasaje citado en la sección 2.4. Examinaremos con sumo detalle el razonamiento hecho, “rastreando”
paso a paso el procedimiento inferencial y observando muy cuidadosamente cada avance. Nuestra
inferencia se verá como una secuencia de fórmulas, que terminará en la que representa la conclusión,
o sea la solución del problema. Intentaremos explicar cómo justificaríamos cada paso a partir de
consideraciones puramente sintácticas. No está de más advertir que para hacer eso debemos dar
reglas que nos permitan la construcción de secuencias inferenciales. Esas reglas, si bien deben
ser sintácticas, deberán tener un respaldo semántico, en el sentido de que deseamos evitar a toda
costa la posibilidad de que ellas nos permitan partir de algunas fórmulas y arribar a otra que no sea
consecuencia de ellas.
Comencemos entonces ese examen de la inferencia presentada:
Las reglas de la biblioteca nos obligan a aceptar que Dragones fue escrito por Veratius si y solo
si él mismo y Esfinge fueron escritos por Mendacius. Esa proposición, que simbolizamos como
VD ↔ (¬VD ∧ ¬VE ) (recordemos que en la biblioteca todos los libros fueron escritos por Veratius o
por Mendacius, es imposible que algún algún libro sea obra de los dos y que representábamos la
proposición “X fue escrito por Veratius” como VX 1 ) es la base de nuestros razonamientos.
Paso 1: Aceptamos VD ↔ (¬VD ∧ ¬VE )
Esta aceptación no es más que la de las bases para comenzar a razonar: allí se contienen de
algún modo las reglas de la biblioteca (en el bicondicional) y los datos aportados por Dragones (en
el miembro derecho del mismo bicondicional). O sea, esta es la premisa de nuestro argumento. Por
ahora, nuestro desarrollo se ve muy modesto, y lo podemos presentar así:
1
Fórmula
Justificación
VD ↔ (¬VD ∧ ¬VE )
Premisa
Observaciones
¿Estamos justificados siempre en aceptar una premisa? La respuesta es: por supuesto. En todo
punto de una secuencia inferencial puede agregarse una premisa. Quien toma una premisa para
desarrollar una inferencia no necesariamente se está comprometiendo con su verdad. Simplemente
está intentando extraer las consecuencias que de ella (y otras, quizá) se siguen. Por supuesto, al
enfrentarse a una inferencia concreta uno debe tomar únicamente las premisas dadas, porque de otro
modo estaría extrayendo consecuencias de proposiciones arbitrarias. Pero en principio, podemos
establecer esta regla:
1 El lector se habrá percatado de que para no complicar la notación, tomamos la inicial del nombre de X al subindizar.
Capítulo 7. Consecuencia sintáctica
126
En una secuencia inferencial siempre se puede introducir cualquiera de las premisas de la
inferencia. Para justificar esa inclusión, basta apelar a su calidad de premisa.
Paso 2: Suponemos que Dragones fue escrito por Veratius, o sea, suponemos VD .
Esto puede parecer arbitrario, pero es necesario notar lo siguiente: al suponer que Dragones
fue escrito por Veratius, no estamos comprometiéndonos con que así sea, ni tampoco con que
“Dragones fue escrito por Veratius” se siga de lo que hemos aceptado hasta ahora. La suposición
es una “apuesta” que hacemos con la esperanza de que nos permita avanzar en la inferencia. Es
importantísimo notar que a partir de ahora debemos tener cuidado al distinguir cuáles proposiciones
de las que infiramos se dan bajo la condición de que Dragones haya sido escrito por Veratius y cuáles
son independientes de ella. El punto es que inferir que bajo la condición de que Dragones haya
sido escrito por Veratius se cumple una proposición p, puede llevarnos a inferir justificadamente
algo en forma independiente de esa suposición, pero seguramente dependiente de lo que sea p.
¿Y cuáles proposiciones se pueden introducir como supuestos? En esto hay total libertad. Lo que
sucede es que podemos hacer supuestos que no nos lleven a ningún lado. Es muy obvio que si en el
razonamiento hubiéramos supuesto la proposición “Llueve”, difícilmente estaríamos haciendo algo
que nos ayudara a encontrar la solución. Tenemos una nueva regla:
En una secuencia inferencial siempre se puede introducir cualquier proposición, justificándola
como supuesto.
Por ahora, tenemos:
1
2
Fórmula
Justificación
VD ↔ (¬VD ∧ ¬VE )
VD
Premisa
Supuesto
Observaciones
Paso 3: Utilizando el bicondicional del paso 1 y que hemos supuesto su miembro izquierdo
en el paso 2, inferimos su miembro derecho, o sea, inferimos que Dragones no fue escrito
por Veratius y Esfinge no fue escrito por Veratius, o sea ¬VD ∧ ¬VE .
¿Qué puede justificar esto? Una justificación puede ser dada considerando modelos. Es muy fácil
ver que se cumple {VD ↔ (¬VD ∧ ¬VE ), VD } |= (¬VD ∧ ¬VE ). Pero podemos pensar en términos
puramente sintácticos (por más que estemos apoyados en esa consideración semántica), extrayendo
una regla puramente sintáctica que servirá universalmente en las deducciones, y que podemos
expresar así:
Si en una secuencia inferencial se tiene un bicondicional y uno de sus miembros, se puede
agregar el otro miembro a la secuencia.
Esto en realidad nos da dos reglas, que llamaremos Regla E↔ i y Regla E↔ d y representaremos
así:
Regla E↔ i
A↔B
B
Regla E↔ d
A↔B
A
A
B
7.1 Tras las huellas de los humanos
127
Estas representaciones deben entenderse del siguiente modo: siempre que en una secuencia inferencial se disponga de las fórmulas de la forma que se indican sobre la línea horizontal (sin importar
el orden en que aparecen o si hay fórmulas en el medio), se puede agregar a la secuencia la fórmula
que queda indicada bajo la línea. Son reglas puramente sintácticas. La que acabamos de enunciar
nos basta como justificación, aunque en el caso de la inferencia que tenemos entre manos, se debe
recordar que lo que agregamos lo hacemos bajo el supuesto que introdujimos en el paso 2.
La secuencia tiene ahora este aspecto:
1
2
3
Fórmula
Justificación
Observaciones
VD ↔ (¬VD ∧ ¬VE )
VD
¬VD ∧ ¬VE
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Bajo el supuesto de 2.
Paso 4: La conjunción del paso 3 nos permite inferir cualquiera de sus conyuntos, y en este
caso inferimos ¬VD .
Nuevamente, consideraciones sobre modelos permiten justificar ese paso inferencial. Y nuevamente, lo que surge es una regla puramente sintáctica, a saber:
Si en una secuencia inferencial se tiene una conjunción, se puede agregar cualquiera de los
conyuntos a la secuencia.
Esto también se desdobla en dos reglas, que llamaremos E∧ i y E∧ d:
Regla E∧ i
A∧B
Regla E∧ d
A∧B
A
B
La aplicación de la regla justifica el paso, y seguimos trabajando bajo el supuesto introducido:
1
2
3
4
Fórmula
Justificación
Observaciones
VD ↔ (¬VD ∧ ¬VE )
VD
¬VD ∧ ¬VE
¬VD
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Regla E∧ i aplicada a 3
Bajo el supuesto de 2.
Bajo el supuesto de 2.
Paso 5: Utilizando el supuesto del paso 2 y lo inferido en el paso 4, inferimos la conjunción
de ambas proposiciones, en este caso VD ∧ ¬VD .
Parece de Perogrullo decir que se puede inferir la conjunción de proposiciones aceptadas o
supuestas, ya que el respaldo semántico a esto es obvio. Así extraemos la regla sintáctica:
En una secuencia inferencial, se puede agregar la conjunción de dos miembros previos.
que llamaremos I∧ y representaremos así:
Capítulo 7. Consecuencia sintáctica
128
Regla I∧
A
B
A∧B
Nuestra secuencia va tomando este aspecto:
1
2
3
4
5
Fórmula
Justificación
Observaciones
VD ↔ (¬VD ∧ ¬VE )
VD
¬VD ∧ ¬VE
¬VD
VD ∧ ¬VD
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Regla E∧ i aplicada a 3
Regla I∧ aplicada a 2 y 4
Bajo el supuesto de 2.
Bajo el supuesto de 2.
Contradicción bajo el supuesto de 2.
Paso 6: A partir de la subsecuencia que empieza en 2 (el supuesto VD ) y termina en 5 (una
contradicción) inferimos la negación del supuesto, o sea ¬VD .
La justificación de este paso es delicada. El apoyo semántico que tiene, sin embargo es simple:
Si el supuesto hecho fuese verdadero (en el marco dado por las otras proposiciones aceptadas),
entonces también lo sería la contradicción, porque hemos llegado a ella a través de reglas que
fueron elegidas de modo que mantienen la consecuencia semántica. Por lo tanto, dado que las
contradicciones no pueden ser verdaderas, el supuesto hecho tampoco puede serlo y debe ser
verdadera su negación, que es lo que afirmamos.
Debemos observar algunos puntos:
A diferencia de los otros pasos que hemos dado, este no se justifica por una o dos líneas
anteriores, ni por la inclusión en la secuencia de una nueva proposición como premisa o
supuesto. Se justifica por la existencia de una subsecuencia que comienza con el supuesto y
termina en una contradicción.
Recordemos que estamos buscando criterios sintácticos (esto es, únicamente basados en la
morfología de las fórmulas) que nos permitan hacer la deducción. Pero “contradicción” es un
concepto semántico, según lo hemos definido: recordará el lector que una contradicción es
una fórmula que no tiene modelos. Debemos, por tanto, establecer un criterio sintáctico de
reconocimiento de contradicciones que nos permita realizar pasos inferenciales como el que
estamos comentando.
No podemos aceptar que cualquier contradicción –en sentido semántico– sea lo que consideremos una contradicción en sentido sintáctico, porque las contradicciones no tienen una forma
característica o única. Por eso, elegiremos una de esas formas, una de las más simples, para dar la
siguiente
Definición 7.1.1 — Contradicción (en sentido sintáctico). Una contradicción en sentido
sintáctico es una fórmula de la forma B ∧ ¬B.
Esto nos lleva a postular la siguiente regla sintáctica:
En una secuencia inferencial, luego de una subsecuencia que comienza con una fórmula
introducida como supuesto y termina con una fórmula de la forma B ∧ ¬B, se puede agregar la
7.1 Tras las huellas de los humanos
129
negación del supuesto que da inicio a la subsecuencia.
Esta regla será llamada I¬ , y la representaremos así:
Regla I¬
[A]
..
.
B ∧ ¬B
¬A
Algunas precisiones sobre esta representación:
Los paréntesis rectos que rodean la “A” están ahí para indicar que se trata de un supuesto.
Los puntos verticales indican la parte de la subsecuencia que queda entre el supuesto y la
contradicción. Esta puede ser cualquiera, no hay restricciones a lo que allí se puede encontrar
excepto, por supuesto, que debe tratarse de una subsecuencia formada respetando las reglas
que estamos descubriendo y comentando.
La justificación del paso en que se agrega la negación del supuesto debe referir a la regla I¬ y a
la subsecuencia que comienza en el supuesto y termina en la contradicción. Si tenemos las líneas
numeradas, esto es muy fácil.
La secuencia quedará así, luego de aplicar este último paso:
1
2
3
4
5
6
Fórmula
Justificación
Observaciones
VD ↔ (¬VD ∧ ¬VE )
VD
¬VD ∧ ¬VE
¬VD
VD ∧ ¬VD
¬VD
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Regla E∧ i aplicada a 3
Regla I∧ aplicada a 2 y 4
Regla I¬ aplicada a 2-5
Bajo el supuesto de 2.
Bajo el supuesto de 2.
Contradicción bajo el supuesto de 2.
No depende del supuesto de 2.
Habíamos dicho que esta regla presenta muchas sutilezas, y por ello, antes de proseguir con el
siguiente paso, debemos detenernos a hacer algunas consideraciones.
La primera de ellas, que tal vez el lector ya se estará preguntando, es acerca de las consecuencias de limitar la definición de contradicción sintáctica a fórmulas de la forma B ∧ ¬B. Un
cuestionamiento legítimo es el siguiente: Si se hace un supuesto, y se encuentra una subsecuencia
iniciada en él y terminada en una fórmula que es contradicción en sentido semántico pero no en
sentido sintáctico, ¿podemos agregar a la cadena la negación del supuesto?
La respuesta es “No”, y la razón para ello ya ha sido dada: si así hiciéramos, el criterio sería
semántico, no sintáctico.
Se podría pensar entonces en ir agregando reglas de modo que cada vez que se identifique una
forma que sea la de una contradicción semántica, se cree una nueva regla que sea como la que
tenemos, solo que aparezca la forma contradictoria identificada en lugar de B ∧ ¬B. Por ejemplo, se
podría agregar una regla así:
[A]
..
.
B ↔ ¬B
¬A
Capítulo 7. Consecuencia sintáctica
130
Se podría hacer eso, pero el resultado sería una proliferación de reglas que no vemos como
deseable. En realidad, nos quedaremos con esta regla que solo considera la forma B ∧ ¬B y
volveremos más adelante sobre el punto de las “reglas” que nos parezcan adecuadas pero no
introducimos.
Bajo esta piedra se esconde un enorme cangrejo: para que nuestro sistema funcione como deseamos, es necesario lo siguiente (para capturar la forma de razonamiento que estamos discutiendo):
Las reglas deben ser tales que a partir de una contradicción en sentido semántico cualquiera se
debe poder construir una secuencia que finalice en una contradicción en sentido sintáctico.
Esto es así porque nuestro razonamiento era del tipo:
[A]
..
.
κ
¬A
siendo κ una contradicción en sentido semántico. Por lo tanto, para que nuestro sistema de reglas
funcione adecuadamente es necesario que siempre podamos obtener una secuencia de este tipo:
κ
..
.
B ∧ ¬B
de modo que tengamos algo así, recogiendo el razonamiento que nos permite llegar a la negación
de un supuesto bajo el que se produce una contradicción en sentido semántico:
n
[A]
..
.
Supuesto
κ
..
.
m
B ∧ ¬B
¬A
Regla I¬ n-m
Esto que acabamos de exigir es una propiedad que debe tener nuestro sistema si queremos que
funcione adecuadamente. Hacia el final del curso veremos que este aspecto está garantizado.
La segunda consideración que debemos hacer concierne a los pasos de la subsecuencia que va
desde el supuesto hasta la contradicción. ¿Podemos seguir usándolos para obtener nuevas cosas?
Si el lector reflexiona un poco, se percatará de que todos esos pasos estaban afectados por el
supuesto, y este no es una premisa, o sea, no es algo que podemos tomar como dado para hacer el
razonamiento. Sin embargo, la negación del supuesto no depende de este. Por lo tanto, para seguir
razonando con independencia del supuesto, debemos prescindir de él y de todo lo que obtuvimos
afectado por él. Y es lo que haremos. Diremos que la aplicación de la regla I¬ cancela el supuesto
que utiliza, y con eso queremos decir que no podemos seguir usando ese supuesto ni lo obtenido en
los pasos afectados por este. De ese modo, una mejor representación de la secuencia que estamos
generando sería:
7.1 Tras las huellas de los humanos
1
2
3
4
5
6
131
Fórmula
Justificación
Observaciones
VD ↔ (¬VD ∧ ¬VE )
VD
¬VD ∧ ¬VE
¬VD
VD ∧ ¬VD
¬VD
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Regla E∧ i aplicada a 3
Regla I∧ aplicada a 2 y 4
Regla I¬ aplicada a 2-5
Bajo el supuesto de 2.
Bajo el supuesto de 2.
Contradicción bajo supuesto de 2.
No depende del supuesto de 2.
Hemos tachado lo que no podemos usar de aquí en más. De hecho, si quisiéramos saber qué
otras cosas se infieren bajo el supuesto VD , nada nos impide volver a introducirlo posteriormente en
la secuencia.
Paso 7: Supongamos que Esfinge no fue escrito por Veratius, o sea, supongamos ¬VE .
En el paso anterior inferimos que Dragones no fue escrito por Veratius. Es natural, por tanto,
que guiemos la inferencia hacia la autoría de Esfinge. La de Dragones quedó establecida haciendo
un supuesto, por lo que, siguiendo el excelente consejo
Si con caldito va sanando
caldito seguile dando.2
intentaremos determinarla a través de la misma estrategia, o sea, haciendo un supuesto esperando
generar una contradicción. Esta vez será ¬VE . La secuencia inferencial queda así:
1
2
3
4
5
6
7
Fórmula
Justificación
VD ↔ (¬VD ∧ ¬VE )
VD
¬VD ∧ ¬VE
¬VD
VD ∧ ¬VD
¬VD
¬VE
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Regla E∧ i aplicada a 3
Regla I∧ aplicada a 2 y 4
Regla I¬ aplicada a 2-5
Supuesto
Observaciones
Bajo el supuesto de 2.
Bajo el supuesto de 2.
Contradicción bajo supuesto de 2.
No depende del supuesto de 2.
Paso 8: De lo inferido en el paso 6 y lo supuesto en el 7, inferimos la conjunción de ambos,
¬VD ∧ ¬VE .
Por supuesto, la justificación es la regla I∧ y la secuencia queda así:
2 El refrán, que obviamente significa que las estrategias o procedimientos exitosos se deben repetir, fue escuchado
por el autor innumerables veces jugando al ajedrez con gente de edad provecta, que ya no se encuentra entre nosotros. Al
hacer una búsqueda en Google se encuentra que ese inmenso repositorio de información no lo recupera, aunque sí dos
variantes, una mexicana “Si con atolito va sanando, atolito vámosle dando.”, y otra de la que no registra la procedencia,
“Si con caldo de gallina va sanando, caldo de gallina váyanle dando”.
Capítulo 7. Consecuencia sintáctica
132
1
2
3
4
5
6
7
8
Fórmula
Justificación
Observaciones
VD ↔ (¬VD ∧ ¬VE )
VD
¬VD ∧ ¬VE
¬VD
VD ∧ ¬VD
¬VD
¬VE
¬VD ∧ ¬VE
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Regla E∧ i aplicada a 3
Regla I∧ aplicada a 2 y 4
Regla I¬ aplicada a 2-5
Supuesto
Regla I∧ aplicada a 6 y 7
Bajo el supuesto de 2.
Bajo el supuesto de 2.
Contradicción bajo supuesto de 2.
No depende del supuesto de 2.
Bajo el supuesto de 7.
Paso 9: De lo inferido en el paso 8 y el bicondicional de la premisa, inferimos VD .
Esta vez la justificación es, como el lector ya habrá previsto, la regla E↔ i. La secuencia toma
este aspecto:
1
2
3
4
5
6
7
8
9
Fórmula
Justificación
VD ↔ (¬VD ∧ ¬VE )
VD
¬VD ∧ ¬VE
¬VD
VD ∧ ¬VD
¬VD
¬VE
¬VD ∧ ¬VE
VD
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Regla E∧ i aplicada a 3
Regla I∧ aplicada a 2 y 4
Regla I¬ aplicada a 2-5
Supuesto
Regla I∧ aplicada a 6 y 7
Regla E↔ i aplicada a 1 y 8
Observaciones
Bajo el supuesto de 2.
Bajo el supuesto de 2.
Contradicción bajo supuesto de 2.
No depende del supuesto de 2.
Bajo el supuesto de 7.
Bajo el supuesto de 7.
Paso 10: De lo inferido en el paso 9 y en el 6, inferimos VD ∧ ¬VD .
La justificación es la regla I∧ aplicada a los elementos que se encuentran en sexto y noveno
lugar. Es natural hacer esta inferencia porque era lo que buscábamos al hacer el supuesto del paso
7: llegar a una contradicción en sentido sintáctico que nos permita deshacernos del supuesto. El
aspecto de la secuencia es:
1
2
3
4
5
6
7
8
9
10
Fórmula
Justificación
VD ↔ (¬VD ∧ ¬VE )
VD
¬VD ∧ ¬VE
¬VD
VD ∧ ¬VD
¬VD
¬VE
¬VD ∧ ¬VE
VD
VD ∧ ¬VD
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Regla E∧ i aplicada a 3
Regla I∧ aplicada a 2 y 4
Regla I¬ aplicada a 2-5
Supuesto
Regla I∧ aplicada a 6 y 7
Regla E↔ i aplicada a 1 y 8
Regla I∧ aplicada a 9 y 6
Observaciones
Bajo el supuesto de 2.
Bajo el supuesto de 2.
Contradicción bajo supuesto de 2.
No depende del supuesto de 2.
Bajo el supuesto de 7.
Bajo el supuesto de 7.
Contradicción bajo el supuesto de 7.
7.1 Tras las huellas de los humanos
133
Paso 11: De lo subsecuencia que comienza con el supuesto del paso 7 y termina en la
contradicción del paso 10 inferimos la negación del supuesto, o sea ¬¬VE .
La justificación, a esta altura, no requiere mayores comentarios: es la regla I¬ aplicada a la
subsecuencia que va del paso 7 al 10. Pero hay algo a lo que es importante prestar mucha atención.
Si estamos muy imbuidos del aspecto representacional de los signos que utilizamos, puede ser que
caigamos en la tentación de razonar así en este paso:
“He logrado inferir la negación del supuesto ¬VE , o sea, la negación de la negación
de que Esfinge fue escrita por Veratius. La negación de ’Esfinge no fue escrita por
Veratius’ es ’Esfinge fue escrita por Veratius’, o sea, lo que debo agregar a la secuencia
es VE ”.
Esto es un error para nuestros propósitos, y la razón es que se trata de una forma netamente
semántica de razonar, que viola la regla sintáctica que nos hemos impuesto. Si hacemos un
supuesto y llegamos a una contradicción, lo único que la regla I¬ nos permite hacer es agregar a la
secuencia el supuesto precedido por ¬. Ninguna otra cosa.
Recordemos además, que la utilización de la regla cancela el supuesto, por lo que la secuencia
queda así:
1
2
3
4
5
6
7
8
9
10
11
Fórmula
Justificación
Observaciones
VD ↔ (¬VD ∧ ¬VE )
VD
¬VD ∧ ¬VE
¬VD
VD ∧ ¬VD
¬VD
¬VE
¬VD ∧ ¬VE
VD
VD ∧ ¬VD
¬¬VE
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Regla E∧ i aplicada a 3
Regla I∧ aplicada a 2 y 4
Regla I¬ aplicada a 2-5
Supuesto
Regla I∧ aplicada a 6 y 7
Regla E↔ i aplicada a 1 y 8
Regla I∧ aplicada a 9 y 6
Regla I¬ aplicada a 7-10
Bajo el supuesto de 2.
Bajo el supuesto de 2.
Contradicción bajo supuesto de 2.
No depende del supuesto de 2.
Bajo el supuesto de 7.
Bajo el supuesto de 7.
Contradicción bajo el supuesto de 7.
No depende del supuesto de 7.
Paso 12: De ¬¬VE , inferida en el paso anterior, inferimos VE .
La justificación semántica es obvia: el valor de verdad de la negación de la negación de una
proposición es el mismo que el de la proposición doblemente negada, por lo que de la primera
podemos inferir la segunda. Entonces
Si un elemento de una secuencia inferencial es la negación de la negación de una fórmula, se
puede agregar esa fórmula a la secuencia.
Esto requiere una nueva regla sintáctica que llamaremos E¬ y representaremos de este modo:
Regla E¬
¬¬A
A
Capítulo 7. Consecuencia sintáctica
134
Veamos cómo queda la secuencia luego de este paso:
1
2
3
4
5
6
7
8
9
10
11
12
Fórmula
Justificación
Observaciones
VD ↔ (¬VD ∧ ¬VE )
VD
¬VD ∧ ¬VE
¬VD
VD ∧ ¬VD
¬VD
¬VE
¬VD ∧ ¬VE
VD
VD ∧ ¬VD
¬¬VE
VE
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Regla E∧ i aplicada a 3
Regla I∧ aplicada a 2 y 4
Regla I¬ aplicada a 2-5
Supuesto
Regla I∧ aplicada a 6 y 7
Regla E↔ i aplicada a 1 y 8
Regla I∧ aplicada a 9 y 6
Regla I¬ aplicada a 7-10
Regla E¬ aplicada a 11
Bajo el supuesto de 2.
Bajo el supuesto de 2.
Contradicción bajo supuesto de 2.
No depende del supuesto de 2.
Bajo el supuesto de 7.
Bajo el supuesto de 7.
Contradicción bajo el supuesto de 7.
No depende del supuesto de 7.
Paso 13: De ¬VD , inferida en el paso 6, y VE , inferida en el paso anterior, inferimos la
conjunción de ambas, (¬VD ∧VE ).
Por supuesto, la justificación es la regla I∧ aplicada a 6 y 12. Y con esto hemos terminado
nuestro breve razonamiento. La secuencia inferencial es esta:
1
2
3
4
5
6
7
8
9
10
11
12
13
Fórmula
Justificación
Observaciones
VD ↔ (¬VD ∧ ¬VE )
VD
¬VD ∧ ¬VE
¬VD
VD ∧ ¬VD
¬VD
¬VE
¬VD ∧ ¬VE
VD
VD ∧ ¬VD
¬¬VE
VE
¬VD ∧VE
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Regla E∧ i aplicada a 3
Regla I∧ aplicada a 2 y 4
Regla I¬ aplicada a 2-5
Supuesto
Regla I∧ aplicada a 6 y 7
Regla E↔ i aplicada a 1 y 8
Regla I∧ aplicada a 9 y 6
Regla I¬ aplicada a 7-10
Regla E¬ aplicada a 11
Regla I∧ aplicada a 6 y 12
Bajo el supuesto de 2.
Bajo el supuesto de 2.
Contradicción bajo supuesto de 2.
No depende del supuesto de 2.
Bajo el supuesto de 7.
Bajo el supuesto de 7.
Contradicción bajo el supuesto de 7.
No depende del supuesto de 7.
¡Fin!
Observe el lector que la cantidad de elementos en la secuencia aumentó con respecto a la cantidad
de pasos que habíamos considerado al expresar el razonamiento en lenguaje natural. Es un claro
efecto amplificador del microscopio de Frege.
7.1.2
¿Qué nos falta?
Repasemos las reglas que hemos extraído a partir de reflexionar sobre nuestro modo de pensar
para llegar a la solución del problema anterior. Son las siguientes:
Regla E↔ i
A↔B
B
Regla E↔ d
A↔B
A
A
B
7.1 Tras las huellas de los humanos
135
Regla E∧ i
A∧B
Regla E∧ d
A∧B
Regla I∧
A
A
B
B
A∧B
Regla E¬
¬¬A
Regla I¬
[A]
A
..
.
B ∧ ¬B
¬A
Estas fueron todas las reglas que consideramos necesarias al resolver el problema. Refieren
al bicondicional, a la conjunción y a la negación. Es muy claro que hay una insuficiencia aquí,
desearíamos tener reglas concernientes a todos los conectivos, y no tenemos nada relativo al
condicional ni a la disyunción. Pero además, en lo que tenemos hasta ahora, hay una evidente
asimetría. Observe el lector los nombres de las reglas. Todos empiezan con la letra “E” o con la
letra “I” que se subindiza con el conectivo correspondiente.
Las reglas cuyo nombre comienza con “E” presentan, en su esquema, el conectivo sobre la barra
y no bajo ella. La “E” se elije para nombrarlas porque esas reglas se llaman reglas de eliminación.
Así, la regla E¬ se llama “Regla de eliminación de la negación". Esas reglas pretenden mostrar lo
que se puede inferir a partir de una proposición que tiene el conectivo referido como principal. La
“i” de E∧ i quiere decir “izquierda” (porque se elimina la conjunción quedándose con el conyunto
izquierdo). La interpretación en los demás nombres de las reglas es similar, siendo obviamente
“d” un recordatorio de “derecha” (en general, al justificar pasos, no distinguiremos entre derecha e
izquierda. El contexto hará obvio cuál de ambas “versiones” de la regla se usó).
Por su parte, las reglas cuyo nombre comienza con “I” se llaman reglas de introducción. En su
esquema, el conectivo referido aparece bajo la barra y no sobre ella. Estas reglas pretenden mostrar
a partir de qué, en cuáles condiciones se puede inferir una proposición que tenga ese conectivo
como principal.
De lo dicho surge que deberíamos buscar reglas que serán llamadas E→ , I→ , E∨ , I∨ y I↔ .
Hagámoslo a partir de otro de los problemas de la biblioteca. Comencemos con el condicional,
para lo cual volveremos a un muy discutido acertijo:
En el primer folio de Hades se lee: “Si Hades es obra de Veratius entonces Infierno es obra
de Veratius”. ¿Quiénes son los autores de estas obras?
Planteemos el razonamiento que hicimos nuevamente, valiéndonos del lenguaje natural.
Paso
Contenido
Justificación
1
Aceptamos que Hades fue escrito por Por las reglas de la biblioteca y lo dicho
Veratius si y solo si, si Hades fue escri- en el primer folio de Hades.
to por Veratius, entonces Infierno fue
escrito por Veratius.
Capítulo 7. Consecuencia sintáctica
136
2
Suponemos que Hades fue escrito por
Veratius.
3
Aceptamos, bajo el supuesto hecho, que
si Hades fue escrito por Veratius, entonces Infierno fue escrito por Veratius.
Aceptamos, bajo el supuesto, que Infierno fue escrito por Veratius.
Aceptamos que si Hades fue escrito por
Veratius, Infierno fue escrito por Veratius.
4
5
6
Esperamos llegar, bajo ese supuesto, a
que Infierno fue escrito por Veratius o a
que Infierno no fue escrito por Veratius.
En el primer caso, aceptaríamos “Si Hades fue escrito por Veratius, Infierno
también” y en el segundo aceptaríamos
la negación de lo entrecomillado.
Por 1 y 2.
Por 2 y 4.
Porque mostramos que bajo el supuesto
de que Hades fue escrito por Veratius,
se sigue que infierno también lo fue, en
la sucesión que va del paso 2 al 4.
Por 1 y 5.
Aceptamos que Hades fue escrito por
Veratius.
Aceptamos que Infierno fue escrito por Por 5 y 6.
Veratius.
Aceptamos que Hades fue escrito por Por 6 y 7.
Veratius e Infierno fue escrito por Veratius.
7
8
Fácilmente podemos empezar a hacer la secuencia correspondiente:
1
2
3
Fórmula
Justificación
Observaciones
VH ↔ (VH → VI )
VH
VH → VI
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Bajo el supuesto de 2.
En este momento es claro cómo continuar, a partir de las líneas 2 y 3. En una de ellas se
encuentra un condicional; en la otra, el antecedente de ese condicional. Consideraciones semánticas
obvias nos permiten sostener esta regla:
En una secuencia inferencial en la que figuran un condicional y el antecedente de ese condicional
se puede agregar el consecuente de ese condicional.
Esa regla es, por supuesto, E→ , y la representaremos así:
Regla E→
A
A→B
B
7.1 Tras las huellas de los humanos
137
La secuencia queda, aplicando esta regla (también llamada modus ponens3 ):
1
2
3
4
Fórmula
Justificación
Observaciones
VH ↔ (VH → VI )
VH
VH → VI
VI
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Regla E→ aplicada a 2 y 3
Bajo el supuesto de 2.
Bajo el supuesto de 2.
Ahora consideremos un problema absolutamente general, que nos servirá para dar el siguiente
paso. Recordemos que si suponemos A y bajo ese supuesto llegamos a inferir una contradicción,
entonces podemos inferir la negación de A. Eso es lo que recoge la regla I¬ . Pero consideremos el
caso más general, en el cual, a partir de un supuesto A, llegamos a inferir B. ¿Qué se puede inferir
de allí?
Una ligera reflexión indica que desde el punto de vista semántico, estamos afirmando que
siendo A verdadero, B también lo será. Es muy claro que el conectivo que establece esa relación
entre A y B es el condicional. Por lo tanto, podemos extraer la siguiente regla:
En una secuencia inferencial, luego de una subsecuencia que comienza con una fórmula introducida como supuesto y termina con una fórmula cualquiera B, se puede agregar el condicional
cuyo antecedente es el supuesto que da inicio a la subsecuencia y su consecuente es la fórmula
B.
Esta regla es I→ y la representamos así:
Regla I→
[A]
..
.
B
A→B
Por consideraciones idénticas a las hechas al presentar la regla I¬ , esta regla también cancela el
supuesto que utiliza, y al usarla para justificar un paso, debe referirse a la subsecuencia utilizada.
La secuencia inferencial queda así:
1
2
3
4
5
Fórmula
Justificación
Observaciones
VH ↔ (VH → VI )
VH
VH → VI
VI
VH → VI
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Regla E→ aplicada a 2 y 3
Regla I→ 2-4
Bajo el supuesto de 2.
Bajo el supuesto de 2.
No depende del supuesto de 2.
A partir de aquí, podemos completar la secuencia inferencial sin utilizar ninguna regla desconocida por nosotros:
3 Modo de afirmar, en latín. Hay gente lo suficientemente pedante como para llamarla modus ponendo ponens (modo
de afirmar afirmando), pero es muy escasa.
Capítulo 7. Consecuencia sintáctica
138
1
2
3
4
5
6
7
8
Fórmula
Justificación
Observaciones
VH ↔ (VH → VI )
VH
VH → VI
VI
VH → VI
VH
VI
VH ∧VI
Premisa
Supuesto
Regla E↔ d aplicada a 1 y 2
Regla E→ aplicada a 2 y 3
Regla I→ 2-4
Regla E↔ i aplicada a 1 y 5
Regla E→ i aplicada a 5 y 6
Regla I∧ aplicada a 6 y 7
Bajo el supuesto de 2.
Bajo el supuesto de 2.
No depende del supuesto de 2.
Al razonar sobre este problema hemos establecido dos de las reglas que nos faltaban, las
que conciernen al condicional. Las usaremos para hallar la regla que nos falta concerniente al
bicondicional, I↔ . Como la regla recibirá una justificación semántica, estamos en condiciones de
apoyarnos en la noción de equivalencia para hallarla.
Sabemos que
A ↔ B ≡ (A → B) ∧ (B → A)
Pues bien, ¿bajo qué condiciones se puede introducir en una secuencia inferencial
(A → B) ∧ (B → A)?
La respuesta es muy simple, recordando la regla I∧ , deberíamos tener una secuencia así:
..
.
m
..
.
Proposición
..
.
Justificación
..
.
A→B
..
.
..
.
n
..
.
B→A
..
.
r
(A → B) ∧ (B → A)
..
.
Regla I∧ m, n
Por lo tanto, podemos establecer la regla I↔ (aunque sabemos cómo introducir los condicionales,
no seguiremos el análisis más allá):
En una secuencia inferencial, si dos elementos son condicionales recíprocos, se puede agregar el
bicondicional cuyos miembros son el antecedente y el consecuente de uno de esos condicionales.
Su representación es:
Regla I↔
A→B
B→A
A↔B
Solo nos resta encontrar las reglas de eliminación e introducción de la disyunción.
El problema de la biblioteca basado en ese conectivo presenta ciertas complejidades, de modo
que nuestro plan no será plantearlo y extraer las reglas buscadas a partir de su resolución, como
hemos hecho hasta ahora. En lugar de eso, plantearemos una situación mucho más simple de la
cual extraeremos las reglas. El lector será invitado más adelante a presentar una secuencia que lleve
a la solución del problema de la biblioteca cuya clave es la disyunción.
Consideremos las siguientes proposiciones:
7.1 Tras las huellas de los humanos
139
Llueve.
Si llueve o truena, entonces el gato no quiere salir o el perro se asusta. (Esta proposición
debe entenderse como un condicional.)
Si el gato no quiere salir, se esconde.
Si el perro se asusta, debo atender a los animales.
Si el gato se esconde, debo atender a los animales.
Queremos justificar que la proposición Debo atender a los animales se deduce de las que hemos
dado. Como otras veces, hagamos un razonamiento en lenguaje natural, en el que comenzaremos
poniendo al principio todas las premisas:
Paso
1
2
3
4
5
6
7
8
9
10
11
12
Contenido
Aceptamos que llueve.
Aceptamos que si llueve o truena, entonces o bien el gato no quiere salir o
bien el perro se asusta.
Aceptamos que si el gato no quiere salir,
se esconde.
Aceptamos que si el perro se asusta, debo atender a los animales.
Aceptamos que si el gato se esconde,
debo atender a los animales.
Aceptamos que llueve o truena.
Aceptamos que el gato no quiere salir o
el perro se asusta.
Suponemos que el gato no quiere salir.
Justificación
Es premisa.
Es premisa.
Es premisa.
Es premisa.
Es premisa.
Por 1.
Por 2 y 6.
Suponemos uno de los disyuntos de 7.
La estrategia se basa en que si de él extraemos una consecuencia, y esa misma
consecuencia se extrae de suponer el
otro disyunto, esa consecuencia es de la
disyunción.
Por 3 y 8.
Aceptamos que el gato se esconde (bajo
supuesto de 8).
Aceptamos que debo atender a los ani- Por 5 y 9.
males (bajo supuesto de 8).
Suponemos que el perro se asusta.
Suponemos el otro disyunto, pero no
bajo el anterior supuesto sino en forma
independiente, es decir debemos llegar
a lo mismo que nos permitió inferir el
supuesto anterior sin utilizarlo, y así habremos extraído una consecuencia de la
disyunción de 7.
Aceptamos que debo atender a los ani- Por 11 y 4.
males (bajo el supuesto de 11).
Capítulo 7. Consecuencia sintáctica
140
13
Aceptamos que debo atender a los ani- Porque habíamos establecido que el gamales.
to no quiere salir o el perro se asusta (en
7). De que el gato no quiere salir surge
que debo atender a los animales (8-10)
y de que el perro se asusta surge que
debo tender a los animales (11-12). Por
lo tanto, debo atender a los animales.
Tratemos ahora de construir una secuencia inferencial valiéndonos de los elementos que nos
da la lógica proposicional, aunque no usaremos el lenguaje formal para favorecer la legibilidad.
Como en el caso de los acertijos de la biblioteca, utilizaremos letras que funcionarán como letras
proposicionales. Las elegiremos de modo que nos ayuden a recordar su dimensión representacional.
Sea entonces:
l: Llueve.
t: Truena.
g: El gato no quiere salir.
p: El perro se asusta.
e: El gato se esconde.
a: Debo atender a los animales.
Comencemos a construir la secuencia inferencial en el lenguaje semiformalizado que nos hemos
permitido:
1
2
3
4
5
Fórmula
Justificación
l
(l ∨ t) → (g ∨ p)
g→e
p→a
e→a
Premisa
Premisa
Premisa
Premisa
Premisa
Observaciones
El siguiente paso consiste en inferir l ∨ t a partir de l. Es muy claro que la semántica respalda
que
A una secuencia inferencial, se le puede agregar la disyunción de uno de sus elementos con
una fórmula cualquiera.
La regla que estamos encontrando es I∨ , cuya representación se desdobla en dos:
La secuencia inferencial queda:
Regla I∨ i
A
Regla I∨ d
A
B∨A
A∨B
7.1 Tras las huellas de los humanos
1
2
3
4
5
6
141
Fórmula
Justificación
Observaciones
l
(l ∨ t) → (g ∨ p)
g→e
p→a
e→a
l ∨t
Premisa
Premisa
Premisa
Premisa
Premisa
Regla I∨ d aplicada a 1
El siguiente paso no requiere comentarios:
1
2
3
4
5
6
7
Fórmula
Justificación
Observaciones
l
(l ∨ t) → (g ∨ p)
g→e
p→a
e→a
l ∨t
g∨ p
Premisa
Premisa
Premisa
Premisa
Premisa
Regla I∨ d, 1
Regla E→ 2, 6
Hemos inferido una disyunción. Comienza el trabajo de eliminarla. Lo primero que debemos
hacer es suponer uno de sus disyuntos. Lo hacemos hasta obtener, bajo ese supuesto, la fórmula
buscada, que en este caso es a.
1
2
3
4
5
6
7
8
9
10
Fórmula
Justificación
Observaciones
l
(l ∨ t) → (g ∨ p)
g→e
p→a
e→a
l ∨t
g∨ p
[g]
e
a
Premisa
Premisa
Premisa
Premisa
Premisa
Regla I∨ d, 1
Regla E→ 2, 6
Supuesto
Regla E→ 3, 8
ReglaE→ 5, 9
Bajo el supuesto de 8.
Bajo el supuesto de 8.
Hemos conseguido inferir a suponiendo el primer disyunto de 7. Si logramos lo mismo a partir
de suponer el segundo disyunto, estaremos habilitados a inferir a. El supuesto de 8 ya no se puede
seguir usando para llevar adelante esta estrategia inferencial. Pero aun no concluimos nada, de modo
que tacharemos lo que no podemos seguir usando a la vez que remarcaremos lo que necesitaremos
para efectuar la inferencia final: que teníamos una disyunción, supusimos uno de sus disyuntos e
inferimos a
Capítulo 7. Consecuencia sintáctica
142
1
2
3
4
5
6
7
8
9
10
Fórmula
Justificación
Observaciones
l
(l ∨ t) → (g ∨ p)
g→e
p→a
e→a
l ∨t
g∨ p
[g]
e
a
Premisa
Premisa
Premisa
Premisa
Premisa
Regla I∨ d, 1
Regla E→ 2, 6
Supuesto
Regla E→ 3, 8
ReglaE→ 5, 9
Disyunción a eliminar.
Uno de los disyuntos.
Bajo el supuesto de 8.
Bajo el supuesto de 8 (fórmula buscada).
Procedemos suponiendo el otro disyunto, hasta inferir a
1
2
3
4
5
6
7
8
9
10
11
12
Fórmula
Justificación
Observaciones
l
(l ∨ t) → (g ∨ p)
g→e
p→a
e→a
l ∨t
g∨ p
[g]
e
a
[p]
a
Premisa
Premisa
Premisa
Premisa
Premisa
Regla I∨ d, 1
Regla E→ 2, 6
Supuesto
Regla E→ 3, 8
ReglaE→ 5, 9
Supuesto
Regla E→ 4,11
Disyunción a eliminar.
Uno de los disyuntos.
Bajo el supuesto de 8.
Bajo el supuesto de 8 (fórmula buscada).
El disyunto restante.
Bajo el supuesto de 11 (fórmula buscada).
Y el último paso de la secuencia inferencial es deducir a. ¿Qué regla lo permite?
Si en una secuencia inferencial un elemento es una disyunción y hay dos subsecuencias
posteriores a ella tales que:
Una de las dos subsecuencias se inicia con uno de los disyuntos y la otra subsecuencia se
inicia con el otro disyunto.
No se solapan ni se justifican elementos en cualquiera de ellas por elementos en la otra.
La fórmula final de ambas es la misma.
entonces se puede agregar a la cadena la fórmula final de ambas.
El respaldo semántico se puede ver de varias maneras, pero preferimos que el lector lo vea
a través recordar que una subsecuencia comenzada en un supuesto y terminada en una fórmula
cualquiera permite aplicar la regla I→ , que ya estaba justificada semánticamente, y de considerar
que se cumple
{A ∨ B, A → C, B → C} |= C
La regla es E∨ , y la representamos así:
7.2 El sistema de deducción natural para L P
143
Regla E∨
A∨B
[A]
..
.
C
[B]
..
.
C
C
Al aplicarla se debe cancelar los supuestos que usa. La justificación debe referir a la disyunción
eliminada y a las dos subsecuencias utilizadas. La secuencia inferencial queda, finalmente:
1
2
3
4
5
6
7
8
9
10
11
12
13
Fórmula
Justificación
l
(l ∨ t) → (g ∨ p)
g→e
p→a
e→a
l ∨t
g∨ p
[g]
e
a
[p]
a
a
Premisa
Premisa
Premisa
Premisa
Premisa
Regla I∨ d, 1
Regla E→ 2, 6
Supuesto
Regla E→ 3, 8
ReglaE→ 5, 9
Supuesto
Regla E→ 4,11
Regla E∨ ,7, 8-10, 11-12
Observaciones
Disyunción a eliminar.
Uno de los disyuntos.
Bajo el supuesto de 8.
Bajo el supuesto de 8 (fórmula buscada).
El disyunto restante.
Bajo el supuesto de 11 (fórmula buscada).
De este modo hemos terminado de presentar un conjunto de reglas con las que esperamos poder
dar cuenta de las deducciones en el marco de la lógica proposicional.
7.2
El sistema de deducción natural para L P
En la extensa sección anterior presentamos un conjunto de reglas sintácticas que, en general,
nos permiten obtener fórmulas a partir de conjuntos de fórmulas.
En la próxima página vemos sus representaciones reunidas.
Estas reglas pertenecen a un aparato o sistema deductivo llamado deducción natural, o mejor
dicho, configuran un sistema de deducción natural (hay diferentes sistemas, no en todos las reglas
son las mismas). Su nombre proviene de que es “natural” en el sentido de que las reglas pretenden
hacer mímesis de los pasos que uno puede reconocer en multitud de razonamientos en diferentes
situaciones4 .
4 Por
extraño que parezca, los sistemas de deducción natural aparecieron relativamente tarde en la historia de la
lógica. Fueron desarrollados en forma independiente por Gentzen y Jaśkowski en 1934. Hasta ese momento, los sistemas
deductivos de que se disponía se apartaban mucho de la dinámica de los razonamientos comunes, y esta fue la motivación
para desarrollar los de deducción natural. En palabras de Gentzen: “Mi punto de partida fue el siguiente: La formalización
de la deducción lógica, especialmente como ha sido desarrollada por Frege, Russell y Hilbert, está bastante alejada de las
formas de deducción que se utilizan en la práctica demostrativa matemática. Esto tiene considerables ventajas formales.
Por contraste, intenté ante todo establecer un sistema formal que se acercase lo más posible a los razonamientos que
efectivamente se hacen...” [Gen69]
Capítulo 7. Consecuencia sintáctica
144
Reglas del sistema de deducción natural para L P
Regla E↔ i
A↔B
B
Regla E↔ d
A↔B
A
Regla I↔
A→B
B→A
A
B
A↔B
Regla E∧ i
A∧B
Regla E∧ d
A∧B
Regla I∧
A
A
B
B
A∧B
Regla E¬
¬¬A
Regla I¬
[A]
A
..
.
B ∧ ¬B
¬A
Regla E→
A→B
A
Regla I→
[A]
..
.
B
B
A→B
Regla E∨
A∨B
Regla I∨ d
A
Regla I∨ i
A
[A]
..
.
B∨A
A∨B
C
[B]
..
.
C
C
El sistema se aplica, aunque no lo hemos hecho aun, sobre el lenguaje formal L P sin
modificaciones, excepto las notacionales, y permite, dado un conjunto de fórmulas, obtener otras
fórmulas. Esto ya lo hemos hecho, a partir de las fórmulas que hemos introducido en las secuencias
como premisas, hemos obtenido otras fórmulas. El procedimiento es construir la secuencia a
partir de las fórmulas dadas introduciéndolas como premisas, y considerar la fórmula final de la
7.2 El sistema de deducción natural para L P
145
secuencia como obtenida a partir de las fórmulas dadas. Esto es la contrapartida formal de nuestras
deducciones, como veremos.
Las presentaciones de las secuencias se harán en un formato estandarizado, que se llama
diagramas de Fitch5 . Para explicar la forma de disponer la información en los diagramas de Fitch,
traeremos a cuento la primera secuencia que construimos en la subsección 7.1.1, en la que partiendo
de la fórmula VD ↔ (¬VD ∧ ¬VE ) llegábamos a (¬VD ∧ VE ). Presentada en diagrama de Fitch y
poniendo, para ser más formal, p1 por VD y p2 por VE , quedaría:
1
(p1 ↔ (¬p1 ∧ ¬p2 ))
2
p1
3
(¬p1 ∧ ¬p2 )
E↔ d, 1, 2
4
¬p1
E∧ i, 3
5
(p1 ∧ ¬p1 )
I∧ , 2, 4
6
¬p1
I¬ , 2–5
7
¬p2
8
(¬p1 ∧ ¬p2 )
I∧ , 6, 7
9
p1
E↔ i, 1, 8
10
(p1 ∧ ¬p1 )
I∧ , 9, 6
11
¬¬p2
I¬ , 7–10
12
p2
E¬ , 11
13
(¬p1 ∧ p2 )
I∧ , 6, 12
Como vemos, los diagramas de Fitch tienen estas características:
A su izquierda tienen una barra vertical que va de principio a fin. Las fórmulas contiguas a
esta barra no dependen de supuestos, las que tienen dos barras a su izquierda están bajo un
supuesto, las que tienen tres están bajo dos supuestos, etc.
Se colocan las premisas al principio de la secuencia, y quedan todas sobre una misma barra
horizontal. No es necesario indicar que se trata de premisas, ya que su posición en la parte
superior sobre la primera barra horizontal, y contiguas a la barra de la extrema izquierda así
lo indica.
Cada supuesto aparece indentado6 y con una barra vertical que se extiende de modo de
quedar a la altura de las fórmulas obtenidas bajo ese supuesto. Por eso, tampoco es necesario
indicar que se trata de un supuesto ni escribir que tal fórmula se ha agregado a la secuencia
bajo ese supuesto.
Las únicas justificaciones requeridas son las de fórmulas obtenidas por aplicación de las
reglas, ya que el aspecto gráfico indica el resto.
Ejemplo 7.1 — Supuesto bajo otro supuesto. El lector solo debe verificar que la secuencia
siguiente está correctamente construida. Se trata de probar que tomando como premisa la fórmula
5 Por
el lógico Fredric Brenton Fitch, quien lo inventó y es famoso por la llamada paradoja de la cognoscibilidad.
busque el lector esta palabra en los diccionarios de la RAE, no la encontrará. Es un anglicismo. La academia
recomienda “con sangrado” (refiere a la sangría, el desplazamiento del texto a la derecha), pero aparte de ser una
recomendación desagradable, en este contexto, “indentado” es de uso común.
6 No
Capítulo 7. Consecuencia sintáctica
146
(p1 → p2 ) se obtiene la fórmula ((p2 → p3 ) → (p1 → p3 )):
1
2
(p1 → p2 )
p2 → p3
3
p1
4
p2
E→ , 1, 3
5
p3
E→ , 2, 4
6
(p1 → p3 )
I→ , 3–5
7
((p2 → p3 ) → (p1 → p3 ))
I→ , 2–6
Se ve claramente que la única premisa se encuentra en la línea 1 (debido a que es la única
fórmula que se encuentra sobre la primera barra horizontal y contigua a la barra de la extrema
izquierda), que el primer supuesto está en la línea 2 (es lo que se encuentra sobre una barra
horizontal que no es la que indica las premisas) y abre una subderivación que de él depende y se
extiende hasta la 6 (porque la barra vertical que empieza en 2 llega hasta la línea 6, indicando que
todas esas fórmulas están bajo el supuesto), que el segundo supuesto está en la línea 3 y abre una
subderivación dependiente de él que se extiende hasta la 5, y que la fórmula final no se encuentra
bajo supuesto alguno, es decir, todos los supuestos han sido cancelados.
Vamos a proponer estas sucesiones de fórmulas como correlato formal de las deducciones. Para
ello, debemos precisar cuáles sucesiones de fórmulas tienen las características necesarias para ese
propósito.
Intuitivamente, es claro que si partimos de un conjunto de proposiciones, a las que tomamos
como premisas, y hacemos una deducción, o sea, vamos generando una sucesión de proposiciones
hasta llegar a una conclusión, esa sucesión debe cumplir condiciones bastante estrictas. Es decir,
cada una de las proposiciones que la constituye debe tener alguna relación con el conjunto de
partida o con el resto de las proposiciones de la secuencia. En principio, podemos distinguir tres
clases de proposiciones en la secuencia, según lo que hemos examinado:
Las que pertenecen al conjunto (o sea, las premisas).
Los supuestos.
Las que son el resultado de aplicar alguna de las reglas a proposiciones o subsecuencias de
proposiciones anteriores en la misma secuencia.
y esto agota todas las posibilidades, en una deducción no pueden aparecer proposiciones que no
caigan bajo alguna de estas categorías.
El problema que enfrentamos es que desde un punto de vista intuitivo es muy claro que una
secuencia con supuestos abiertos (no cancelados) no puede ser una deducción a partir del conjunto
dado. Si en una secuencia no se cancela un supuesto, la proposición final es dependiente de ese
supuesto, que en principio puede ser arbitrario.
Por lo tanto, tenemos que distinguir las sucesiones que no tienen supuestos abiertos de aquellas
que sí los tienen. Consideremos las reglas que cancelan supuestos. Son I¬ , I→ y E∨ . Exigen, para
ser aplicadas, la existencia de una o dos subsecuencias previas comenzadas con un supuesto. La
aplicación de la regla cancela los supuestos que inician esas subsecuencias, y lo que esto quiere decir
es que ninguna proposición externa a esas subsecuencias –con la única excepción de la que cancela
el supuesto– es justificada por aplicación de una regla sobre fórmulas internas a las subsecuencias.
7.3 Consecuencia sintáctica
147
Diremos, por tanto, que un supuesto está cancelado si posteriormente aparece en la secuencia una
fórmula α que surge de la aplicación de una de esas tres reglas sobre una subsecuencia que él inicia,
y si ninguna fórmula exterior a la subsecuencia por él iniciada sobre la que se aplica la regla para
producir esa fórmula α se justifica aplicando reglas a fórmulas de la subsecuencia.
Podemos ahora dar una definición fundamental:
Definición 7.2.1 — Derivación. Sean Γ un conjunto de fórmulas y A una fórmula. Una derivación de A a partir de Γ es una sucesión de fórmulas en la que cada fórmula:
O bien pertenece a Γ
O bien es un supuesto cancelado
O bien es el resultado de aplicar alguna de las reglas a fórmulas o subsecuencias anteriores
en la sucesión
y además la última fórmula es A.
Se debe observar que las justificaciones no son parte de las las derivaciones. Pero para nosotros
es muy importante disponer de ellas, porque nos permiten hacer un control de que una sucesión de
fórmulas es efectivamente una derivación.
Nuestro último ejemplo es, por tanto, una derivación de ((p2 → p3 ) → (p1 → p3 )) a partir de
{(p1 → p2 )}
7.3
Consecuencia sintáctica
Habíamos visto que la relación de consecuencia semántica nos daba un modo de capturar
formalmente la noción de consecuencia lógica. A esta altura del curso estamos en condiciones de
presentar otro modo de capturar formalmente esa noción: la consecuencia sintáctica.
La primera noción, la de consecuencia semántica, hace énfasis en que toda interpretación que
haga verdaderas las premisas, hará verdadera la conclusión. El concepto de verdad le es intrínseco.
La segunda noción prescinde del concepto de verdad, que pertenece a la semántica. Su énfasis
se encuentra en la idea de que si se parte de ciertas premisas y se siguen determinadas reglas que
conciernen a la forma sintáctica de las fórmulas con las que se opera, se habrá capturado la idea
intuitiva de corrección lógica.
La definición de consecuencia sintáctica es la siguiente:
Definición 7.3.1 — Consecuencia sintáctica. Sea Γ un conjunto de fórmulas de L P y A
una fórmula de L P. A es consecuencia sintáctica de Γ si y solo si existe una derivación de A a
partir de Γ.
Notación 7.1. Si A es consecuencia sintáctica de Γ, escribimos Γ ` A
Por supuesto que esto hace surgir inmediatamente preguntas acerca de las relaciones entre
consecuencia semántica y consecuencia sintáctica, pero esas preguntas (que plantearemos en su
momento) deberán esperar.
Ahora haremos algunas consideraciones importantes acerca de las derivaciones.
7.3.1
Acerca de las derivaciones
Salvando una aparente inconsistencia
El lector atento habrá observado que cuando definimos derivación no impusimos ninguna
restricción a los lugares de la secuencia donde pueden hallarse las premisas. Sin embargo, al
presentar los diagramas de Fitch, exigimos que comenzaran con las premisas.
La consecuencia de esto es que los diagramas de Fitch no pueden mostrar toda derivación, sino
solo aquellas que comienzan con sus premisas. Pero esto carece de importancia, porque nuestro
interés central pasa por el establecimiento de la consecuencia sintáctica. Es claro que un diagrama
Capítulo 7. Consecuencia sintáctica
148
de Fitch correctamente construido muestra una derivación. Y también se cumple, como el lector
advertirá a través de una reflexión ligera, que dada cualquier derivación D de A a partir de Γ se
puede obtener otra derivación D 0 , de la misma fórmula a partir del mismo conjunto, que sí es
representable mediante un diagrama de Fitch. Basta para ello remover todas las premisas de donde
se encuentren en D y colocarlas en el bloque inicial, generando así D 0 .
El conjunto Γ
El conjunto a partir del cual se va a hacer una derivación puede ser cualquiera.
Supongamos que Γ es infinito. Es claro Γ ` A si y solo si para algún subconjunto finito Γ0 de Γ
se tiene Γ0 ` A, lo que es debido a que las derivaciones son secuencias finitas de fórmulas.
Γ puede ser el conjunto vacío. En ese caso, obviamente que la derivación no puede comenzar
con una premisa, porque no las hay, ni tampoco con una fórmula que surja de la aplicación de
reglas a fórmulas anteriores de la sucesión, porque tampoco hay, de modo que es necesario que la
derivación comience con un supuesto.
Mostremos que existe una derivación de cualquier fórmula de la forma ¬(A ∧ ¬A), donde A es
cualquier fórmula de L P. Para lograrlo, utilizaremos un diagrama de Fitch, sobre el que haremos
algunas observaciones:
1
(A ∧ ¬A)
2
A
E∧ i, 1
3
¬A
E∧ d, 1
4
(A ∧ ¬A)
I∧ , 2, 4
5
¬(A ∧ ¬A)
I¬ , 1–4
La primera observación es que este diagrama no presenta una derivación, sino un esquema de
derivación. A es una metavariable (o sea, una variable del metalenguaje que ranguea sobre objetos
del lenguaje L P). Sustituyendo A por cualquier fórmula obtenemos una derivación.
La segunda observación es que se evidencia que tales derivaciones no tienen premisas porque
la fórmula que se encuentra sobre la primera barra horizontal tiene dos barras verticales (y no solo
una) a la izquierda.
Es obvio que si A es consecuencia sintáctica del conjunto vacío, será consecuencia sintáctica de
todo conjunto. Al igual que hicimos con la consecuencia semántica, utilizaremos la
Notación 7.2. Consecuencia sintáctica del conjunto vacío
`A
y definimos:
Definición 7.3.2 — Teorema. A es un teorema si y solo si ` A
Reglas derivadas
Se podría pensar que sería conveniente agregar al sistema reglas diferentes a las que hemos
admitido que no ofrecen dudas acerca de su adecuación para nuestros propósitos. Si se observa la
última derivación presentada, vemos que en la línea 4 obtuvimos lo que teníamos en la 1. Eso podría
llevarnos a considerar que tal vez sea conveniente agregar una regla que podríamos esquematizar
así:
Regla Repetición
A
A
7.4 Heurística
149
cuya conveniencia se hace evidente en un caso como el que acabamos de ver (en la última
derivación nos ahorraría dos líneas) y cuya inocuidad es del todo evidente. A nivel intuitivo dice
que lo que está en una secuencia deductiva puede repetirse o volverse a tomar, y su apoyo semántico
es trivial.
Se podría plantear infinidad de “candidatos” a reglas, pero esto llevaría a una proliferación
insostenible. Por esto, tomaremos una solución salomónica: no admitiremos esas reglas como reglas
de nuestro sistema, pero nos permitiremos usarlas en la práctica siempre que hayamos demostrado
que lo que con ellas se logra se puede lograr prescindiendo de ellas. Veámoslo con un ejemplo, el
de la regla de repetición. Antes de usarla, debemos demostrar que sin hacer uso de ella, siempre
podemos “repetir” una fórmula en una derivación.
En nuestro caso la demostración consiste en una secuencia que respete las reglas originales y
partiendo de una fórmula, termine en la misma fórmula. Aquí se presenta una:
1
A
2
¬A
3
(A ∧ ¬A)
I∧ , 1, 2
4
¬¬A
I¬ , 1–3
5
A
E¬ , 4
Esto justifica que se pueda repetir una fórmula siempre en una derivación, ya que el procedimiento es totalmente general. Podemos, por tanto, aceptar esta regla como regla “derivada”, es decir,
que se justifica con las reglas del sistema. Usando esa regla, la demostración de que ¬(A ∧ ¬A) es
un teorema se reduce a:
1
(A ∧ ¬A)
2
(A ∧ ¬A)
3
¬(A ∧ ¬A)
Repetición, 1
I¬ , 1–2
Obviamente, en toda derivación es posible agregar una fórmula que sea un teorema (con
independencia de lo que se haya hecho en la derivación, se podría en cualquier punto comenzar la
derivación del teorema a partir del conjunto vacío). Por eso, aceptaremos como regla derivada la
introducción de teoremas:
Regla Teorema
τ
siendo τ un teorema.
En los ejercicios veremos varios ejemplos de reglas que suelen considerarse derivadas.
7.4
Heurística
Dado un conjunto Γ y una fórmula A tales que se cumple que Γ ` A, no siempre es fácil
encontrar una derivación que así lo demuestre7 .
7 Hay trampa en esta afirmación. Lo fácil o difícil depende, muchas veces, de las herramientas de que se dispone
para acometer la tarea. Veremos sobre el final del curso que en L P existe un procedimiento mecánico para encontrar
Capítulo 7. Consecuencia sintáctica
150
Veamos algunos ejemplos con el fin de ir captando ciertas estrategias que ayudan a guiarse en
la maraña de posibilidades que nos ofrecen las reglas:
Ejemplo 7.2 Para toda fórmula A, (A ∨ ¬A) es un teorema.
Cuando vamos a probar que algo es un teorema, la única posibilidad es comenzar con un
supuesto. Alguna regla deberá cerrar ese supuesto. Una ligera reflexión nos muestra que lo más
fructífero es comenzar suponiendo la negación de lo que queremos demostrar es teorema, y eso
marca nuestra estrategia: intentaremos llegar a una contradicción. Por lo tanto:
1
¬(A ∨ ¬A)
La única fórmula que tenemos es una negación. Un repaso por todas las reglas nos muestra
que no podemos aplicar ninguna, excepto I∨ , pero no parece tener ningún sentido obtener una
disyunción con lo que ya tenemos. Parece necesario utilizar otro supuesto. Claramente no vamos
a suponer algo que no tenga nada que ver con lo que ya tenemos. ¿Qué sucede si suponemos A?
Quizá lleguemos a una contradicción así. (El lector puede intentar en este punto continuar por sí
mismo la derivación). Probémoslo:
1
¬(A ∨ ¬A)
2
A
Ahora podemos aplicar muchas reglas, pero recordemos que estamos bajo supuestos, y por
ello es una buena idea intentar llegar a contradicciones. ¿Podremos construir en el siguiente paso
una fórmula que en conjunción con alguna de las que tenemos sea una contradicción? Claramente
podemos llegar a la fórmula (A ∨ ¬A), y de allí seguir hasta extraer las consecuencias de la
contradicción inferida:
1
¬(A ∨ ¬A)
2
A
3
(A ∨ ¬A)
I∨ , 2
4
((A ∨ ¬A) ∧ ¬(A ∨ ¬A))
I∧ , 3, 1
5
¬A
I¬ , 2–4
En este punto hemos demostrado que bajo nuestro supuesto inicial se deriva ¬A. No es lo
que queríamos, nuestro plan era llegar a una contradicción. Es claro que no podemos cerrar el
supuesto inicial ahora porque lo haríamos introduciendo un condicional que no nos serviría para
nada. ¿Habrá que desistir de este camino e intentar otro?
De ninguna manera. Si recordamos que Si con caldito va sanando, caldito seguile dando, nos
daremos cuenta de que podemos repetir la estrategia de construir una fórmula que en conjunción
con alguna de las que tenemos (que son la que acabamos de obtener y el supuesto abierto) dé la
la derivación en caso de que la haya y para afirmar que no existe la derivación en caso de que no se dé la relación de
consecuencia sintáctica. Pero ese procedimiento traiciona el objetivo original de la deducción natural: reflejar de algún
modo los procesos corrientes de razonamiento.
7.4 Heurística
151
contradicción buscada. Una vez visto esto, el resto de la derivación es fácil:
1
¬(A ∨ ¬A)
2
A
3
(A ∨ ¬A)
I∨ , 2
4
((A ∨ ¬A) ∧ ¬(A ∨ ¬A))
I∧ , 3, 1
5
¬A
I¬ , 2–4
6
(A ∨ ¬A)
I∨ , 5
7
((A ∨ ¬A) ∧ ¬(A ∨ ¬A))
I∧ , 6, 1
8
¬¬(A ∨ ¬A)
I¬ , 1–7
9
(A ∨ ¬A)
E¬ , 8
¿Qué aprendimos en este ejemplo? Principalmente, que los supuestos son “armas” muy poderosas. Pero debemos usarlas con extremo cuidado, porque una vez que abrimos un supuesto, estamos
obligados a cerrarlo alguna vez. Por eso, uno debe hacer un supuesto con una idea de hacia dónde
quiere dirigir la derivación. En este caso hemos visto la posibilidad de introducir supuestos con la
idea de obtener contradicciones, lo que da como resultado la negación de la fórmula supuesta. En
cada caso se debe evaluar si eso es útil o no.
Ejemplo 7.3 Mostrar que {(p1 → p2 ), (p2 → p3 )} ` (p1 → (p2 ∧ p3 ))
Observemos la fórmula final. Siempre debemos empezar por eso, ya que nos fija la meta.
Normalmente, uno debe pensar en la derivación a realizar en grandes bloques, con ideas borrosas
que se van precisando al avanzar. Una de las primeras preguntas que debemos hacernos, en ese
intento de delinear bloques, es ¿Es razonable esperar que la fórmula final se construya en el último
paso por medio de la regla de introducción del conectivo correspondiente? En nuestro caso, la
pregunta es si podemos esperar razonablemente obtener esto:
1
(p1 → p2 )
2
..
.
(p2 → p3 )
..
.
n
(p1 → (p2 ∧ p3 ))
I→
¿Qué es necesario para esto? Claramente, lo necesario es tener el antecedente del condicional
final como supuesto y llegar al consecuente en una subderivación bajo ese supuesto:
Capítulo 7. Consecuencia sintáctica
152
1
(p1 → p2 )
2
(p2 → p3 )
3
..
.
p1
..
.
n−1
(p2 ∧ p3 )
(p1 → (p2 ∧ p3 ))
n
I→ , 3–(n − 1)
Obsérvese que el problema se ha reducido a obtener (p2 ∧ p3 ), con todas las premisas y además
bajo el supuesto p1 . Y si con caldito va sanando, caldito seguile dando, corresponde, en primer
lugar, preguntarnos si podemos obtener esa conjunción por la regla de introducción. Para aplicarla
deberíamos tener ambos conyuntos, de modo que deberíamos llegar a algo así:
1
(p1 → p2 )
2
(p2 → p3 )
3
..
.
p1
..
.
k
..
.
p2
..
.
n−2
p3
n−1
(p2 ∧ p3 )
n
(p1 → (p2 ∧ p3 ))
I∧ , (k), (n − 2)
I→ , 3–n − 1
Si el lector piensa con cuidado, verá que las letras proposicionales que necesitamos surgen de
aplicar eliminación sobre las premisas:
1
(p1 → p2 )
2
(p2 → p3 )
3
p1
4
p2
E→ , 1, 3
5
p3
E→ , 2, 4
6
(p2 ∧ p3 )
I∧ , 4, 5
7
(p1 → (p2 ∧ p3 ))
I→ , 3–6
7.4 Heurística
153
¿Qué hemos aprendido en este ejemplo? Principalmente, la importancia de considerar a la
fórmula a la que debemos arribar como guía a través de las reglas de introducción. Eso nos obliga
a pensar “hacia atrás”, analíticamente. También se nos hizo aparente algo que no debe sernos
indiferente: sobre el final de nuestro razonamiento encontramos que sobre las premisas aplicamos
reglas de eliminación. Profundizaremos esto en el siguiente
Ejemplo 7.4 Debemos mostrar que {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 )} ` (p3 ∨ p4 )
En este caso la fórmula a la que queremos llegar es una disyunción. Razonamos, como en el
ejemplo anterior, que quizá podamos obtenerla por la regla de introducción. Pero eso nos obligaría
a obtener, libres de supuestos, o bien p3 o bien p4 . Y examinando las premisas, no se ve cómo
lograr eso (es muy fácil obtener p3 bajo el supuesto de p1 , o p4 bajo el supuesto de p2 , pero esto no
nos sirve a causa de la dependencia de supuestos). Por lo tanto, volvamos nuestra atención a las
premisas y consideremos la posibilidad de avanzar desde ellas, obteniendo consecuencias a través
de las reglas de eliminación. Si nos planteamos eliminar la disyunción en la primera premisa, con
la idea de que esa eliminación nos lleve a la fórmula buscada, estaríamos pensando en algo así:
1
(p1 ∨ p2 )
2
(p1 → p3 )
3
(¬p2 ∨ p4 )
4
..
.
p1
..
.
j
(p3 ∨ p4 )
k
..
.
p2
..
.
l
(p3 ∨ p4 )
l +1
(p3 ∨ p4 )
E∨ , 1, 4– j, k–l
Concentrémonos en la primera subderivación. Es necesario llegar a la misma disyunción que
nos planteamos al principio, pero ahora bajo el supuesto de p1 . Bajo esa condición es muy fácil
lograrla por introducción, ya que podemos obtener p3 en forma inmediata:
1
(p1 ∨ p2 )
2
(p1 → p3 )
3
(¬p2 ∨ p4 )
4
p1
5
p3
E→ , 2, 4
6
(p3 ∨ p4 )
I∨ , 5
Capítulo 7. Consecuencia sintáctica
154
7
..
.
p2
..
.
l
(p3 ∨ p4 )
l +1
(p3 ∨ p4 )
E∨ , 1, 4–6, 7–l
Ahora nos enfrentamos a un problema más complicado, obtener nuevamente la misma disyunción pero bajo el supuesto p2 . No parece haber nada tan directo como lo que recién usamos para
completar la primera subderivación, y para empeorar las cosas (o para mejorarlas, ya que no nos
deja demasiadas opciones), p2 solo aparece en la tercera premisa, ¡que también es una disyunción!
Entonces, como no parece razonable obtener ahora (p3 ∨ p4 ) a través de una regla de introducción,
intentaremos aplicar eliminación a la tercera premisa. Eso nos lleva a plantear algo así:
1
(p1 ∨ p2 )
2
(p1 → p3 )
3
(¬p2 ∨ p4 )
4
p1
5
p3
E→ , 2, 4
6
(p3 ∨ p4 )
I∨ , 5
7
p2
8
..
.
¬p2
..
.
j
(p3 ∨ p4 )
j+1
..
.
p4
..
.
l
(p3 ∨ p4 )
l +1
l +2
(p3 ∨ p4 )
(p3 ∨ p4 )
E∨ , 3, 8– j, j + 1–l
E∨ , 1, 4–6, 7–l + 1
Se observa que la segunda subderivación que buscamos en realidad ya está hecha, no hay que
agregar nada, solo justificar, porque podemos pasar del supuesto al final con una sola aplicación de
I∨ :
1
(p1 ∨ p2 )
2
(p1 → p3 )
3
(¬p2 ∨ p4 )
7.4 Heurística
155
4
p1
5
p3
E→ , 2, 4
6
(p3 ∨ p4 )
I∨ , 5
7
p2
8
..
.
¬p2
..
.
j
(p3 ∨ p4 )
j+1
p4
j+2
(p3 ∨ p4 )
(p3 ∨ p4 )
j+3
(p3 ∨ p4 )
j+4
I∨ , j + 1
E∨ , 3, 8– j, j + 1– j + 2
E∨ , 1, 4–6, 7– j + 3
Resta completar una subderivación. En ella se observa algo interesante: podemos obtener
inmediatamente una contradicción, (p2 ∧ ¬p2 ). ¿Será posible obtener, a partir de ella, la disyunción
que buscamos? Aquí conviene recordar algo que hemos dicho varias veces: las reglas, si bien
son sintácticas, fueron escogidas de modo que preserven la consecuencia semántica. Por eso,
siempre podemos apoyarnos en razonamientos semánticos para guiarnos en la maraña de reglas.
Una contradicción tiene como consecuencia semántica cualquier fórmula. ¿Valdrá también que a
partir de una contradicción se podrá derivar cualquier fórmula? La respuesta es sí, y lo vamos a ver
en general:
Teorema 7.4.1 Sean A y B fórmulas cualesquiera. Entonces {(A ∧ ¬A)} ` B
Demostración:
1
(A ∧ ¬A)
2
¬B
3
(A ∧ ¬A)
Repetición, 1
4
¬¬B
I¬ , 2–3
5
B
E¬ , 4
Esto nos permite aceptar una importantísima regla derivada, llamada ex contradictione quodlique abreviaremos como ECQ y podemos representar así:
bet8 ,
Regla ECQ
(A ∧ ¬A)
B
Y volviendo a nuestra derivación, podemos terminarla construyendo la contradicción y usando
ECQ para obtener la disyunción que deseábamos:
8 "De
una contradicción se sigue lo que se desee".
Capítulo 7. Consecuencia sintáctica
156
1
(p1 ∨ p2 )
2
(p1 → p3 )
3
(¬p2 ∨ p4 )
4
p1
5
p3
E→ , 2, 4
6
(p3 ∨ p4 )
I∨ , 5
7
p2
8
¬p2
9
(p2 ∧ ¬p2 )
I∧ , 7, 8
10
(p3 ∨ p4 )
ECQ, 9
11
p4
12
(p3 ∨ p4 )
13
14
(p3 ∨ p4 )
(p3 ∨ p4 )
I∨ , 11
E∨ , 3, 8–10, 11–12
E∨ , 1, 4–6, 7–13
En este ejemplo hemos aprendido a guiarnos por los puntos de partida (premisas o supuestos
abiertos) considerando las reglas de eliminación y hemos recordado que la semántica ofrece
invalorables puntos de apoyo para guiarse en las derivaciones. El próximo ejemplo profundizará en
este aspecto:
Ejemplo 7.5 Demostrar: {(p1 ↔ p2 )} ` ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))
Nuevamente, la fórmula buscada es una disyunción, y eso desalienta inmediatamente la idea
de lograrla por introducción en este caso, a través de un razonamiento semántico, que nos indica
que ni (p1 ∧ p2 ) ni (¬p1 ∧ ¬p2 ) (las fórmulas que permitirían introducir la disyunción final) son
consecuencias semánticas de {(p1 ↔ p2 )}, de modo que no podemos esperar derivarlas libres de
supuestos.
Otra forma de enfrentar el problema sería suponer la negación de la fórmula buscada, esperando
derivar una contradicción. Pero en nuestro caso (imagine el lector cómo quedaría planteado el inicio
de la derivación) esto no parece simplificar ni acercarnos la solución.
Por tanto, debemos pensar en aplicar reglas de eliminación sobre la premisa, seguidas de
introducción de condicionales. Eso es fácil y obtenemos:
7.4 Heurística
157
1
(p1 ↔ p2 )
2
p1
3
p2
E↔ , 1, 2
4
(p1 → p2 )
I→ , 2–3
5
p2
6
p1 )
E↔ , 1, 5
7
..
.
(p2 → p1 )
..
.
I→ , 5–6
n
((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))
Y parece que nos encontramos en una situación desesperada. Intentar llegar a la fórmula final
por introducción sigue siendo igualmente inapropiado, y las reglas de eliminación aplicadas a los
condicionales obtenidos no parecen poder darnos nada nuevo. Aquí debe venir en nuestro apoyo la
semántica. Podemos razonar así:
La premisa y los condicionales obtenidos expresan que si p1 es verdadera, p2 lo
es, y recíprocamente. Debo mostrar la disyunción según la cual o bien ambas son
verdaderas o bien ambas son falsas, que es lo que la fórmula buscada expresa.
Ahora bien, solo hay dos posibilidades:
p1 es verdadera. En este caso, claramente p2 es verdadera, y por lo tanto ambas
lo son. Tenemos el primer disyunto de la disyunción y por tanto, la disyunción.
p1 es falsa. En ese caso, como si p2 es verdadera, p1 también lo es, debe ser
p2 falsa. Tenemos que ambas son falsas, el segundo disyunto, y por lo tanto, la
disyunción.
¿Cómo nos puede servir este razonamiento para construir la derivación buscada? Observemos
que parte de decir que hay solo dos posibilidades respecto al valor de verdad de p1 . ¿Hay alguna
fórmula que exprese eso? Sí, claramente la fórmula (p1 ∨ ¬p1 ) lo hace. Luego el razonamiento
continúa extrayendo las consecuencias de cada una de las posibilidades, lo que viene a ser una
eliminación de la disyunción.
Para arrancar la contrapartida formal de ese razonamiento tendríamos que poder incluir en
nuestra derivación, libre de supuestos, la fórmula (p1 ∨ ¬p1 ). ¿Y lo podemos hacer? La respuesta
es que sí, lo podemos hacer gracias a que esa fórmula es un teorema, y esto ha sido demostrado
páginas atrás. O sea, podemos utilizar la regla Teorema para introducir esa fórmula en la derivación:
Capítulo 7. Consecuencia sintáctica
158
1
(p1 ↔ p2 )
2
p1
3
p2
E↔ , 1, 2
4
(p1 → p2 )
I→ , 2–3
5
p2
6
p1 )
E↔ , 1, 5
7
(p2 → p1 )
I→ , 5–6
8
..
.
(p1 ∨ ¬p1 )
..
.
Teorema
n
((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))
Ahora nos planteamos eliminar la disyunción de 8 para llegar a la fórmula buscada:
1
(p1 ↔ p2 )
2
p1
3
p2
E↔ , 1, 2
4
(p1 → p2 )
I→ , 2–3
5
p2
6
p1 )
E↔ , 1, 5
7
(p2 → p1 )
I→ , 5–6
8
(p1 ∨ ¬p1 )
Teorema
9
..
.
p1
..
.
k
((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))
k+1
..
.
¬p1
..
.
l
((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))
l +1
((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))
E∨ , 8, 9–k, k + 1–l
Completar la primera de las subderivaciones restantes es fácil:
7.4 Heurística
159
1
(p1 ↔ p2 )
2
p1
3
p2
E↔ , 1, 2
4
(p1 → p2 )
I→ , 2–3
5
p2
6
p1 )
E↔ , 1, 5
7
(p2 → p1 )
I→ , 5–6
8
(p1 ∨ ¬p1 )
Teorema
9
p1
10
p2
E↔ , 1, 9
11
(p1 ∧ p2 )
I∧ , 9, 10
12
((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))
I∨ , 11
13
..
.
¬p1
..
.
l
((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))
l +1
((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))
E∨ , 8, 9–12, 13–l
Para completar la subderivación restante, recordemos lo que habíamos pensando en términos
semánticos al considerar la segunda posibilidad: “En ese caso, como si p2 es verdadera, p1 también
lo es, debe ser p2 falsa.” O sea, estamos diciendo que bajo ese supuesto tendríamos ¬p2 . Para
establecerlo en la derivación, podemos probar hacer el supuesto p2 . Si llegamos a una contradicción,
inferimos ¬p2 por introducción de la negación, y podemos construir la conjunción (¬p1 ∧ ¬p2 )
y a partir de allí la disyunción buscada, ya que la última fórmula escrita es uno de sus disyuntos.
Siguiendo ese plan, la derivación termina así:
1
(p1 ↔ p2 )
2
p1
3
p2
E↔ , 1, 2
4
(p1 → p2 )
I→ , 2–3
5
p2
6
p1 )
E↔ , 1, 5
7
(p2 → p1 )
I→ , 5–6
Capítulo 7. Consecuencia sintáctica
160
8
(p1 ∨ ¬p1 )
9
p1
10
p2
E↔ , 1, 9
11
(p1 ∧ p2 )
I∧ , 9, 10
12
((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))
I∨ , 11
13
¬p1
Teorema
14
p2
15
p1
E↔ , 1, 14
16
p1 ∧ ¬p1
I∧ , 15, 13
17
¬p2
I¬ , 14–16
18
¬p1 ∧ ¬p2
I∧ , 13, 17
19
((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))
I∨ , 18
20
((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 ))
E∨ , 8, 9–12, 13–19
Este ejemplo debería ser muy instructivo. En primer lugar, muestra que el razonamiento
semántico es una guía insustituible al intentar encontrar derivaciones. En segundo lugar, habrá
observado el lector que podríamos haber hecho la derivación sin hacer lo que estuvimos haciendo
hasta la línea 7. Eso no nos sirvió para nada. Se prefirió hacerlo así en vez de mostrar una marcha
directa al objetivo porque si bien se puede generar mecánicamente una derivación de lo buscado, a
esta altura lo que se debe incentivar es la práctica y el dominio de los sanos principios que hemos
expuesto como heurística adecuada para enfrentarse a estas tareas:
Los supuestos deben introducirse con un objetivo definido in mente, generan el compromiso
de cerrarlos.
Las premisas sugieren la aplicación de reglas de eliminación, la fórmula buscada de una regla
de introducción.
En muchos casos, pensar cómo se demostraría algo estructuralmente igual a lo pedido
razonando en términos semánticos ilumina la construcción de una derivación. Esto es así
porque el sistema ha sido construido para reflejar de algún modo el razonamiento común.
Luego de estudiar estos ejemplos, seguramente el lector está preparado verificar la corrección
de la solución ofrecida al problema de la biblioteca que quedó pendiente a través del siguiente:
Ejercicio 7.1 Demostrar: {VF ↔ (¬VF ∨ ¬VG )} ` (VF ∧ ¬VG )
7.5
7.5.1
Errores frecuentes al intentar hacer derivaciones
Creer en la magia
Las reglas no dan recetas mágicas para obtener lo que se desea. Un error muy frecuente es
razonar de esta manera:
Necesito la disyunción A ∨ B ¿Qué problema hay? Agrego a mi derivación A ∨ B y lo
justifico por introducción de la disyunción.
7.5 Errores frecuentes al intentar hacer derivaciones
161
Este es un disparate común, las reglas no permiten, invocando su nombre, cual si fueran conjuros
mágicos, agregar lo que uno quiera a la secuencia. Cada una de ellas tiene condiciones estrictas
de aplicación. En el hipotético caso anterior, el paso solo es correcto si en la secuencia aparecen
previamente A o B. Un buen antídoto es recordar siempre lo necesario para justificar la aplicación de
una regla, y si no podemos justificarla, es que no la podemos aplicar. Recordamos aquí lo necesario
para justificar la aplicación cada regla:
Regla Justificación
E¬
I¬
E∧
I∧
E∨
I∨
E→
I→
E↔
I↔
7.5.2
Línea con la fórmula obtenida doblemente negada
Una subderivación comenzada con la fórmula
obtenida sin negar y terminada en contradicción
Línea con una conjunción de la cual uno de
los conyuntos es lo obtenido
Dos líneas, cada una con un conyunto de la
conjunción obtenida
Una línea con una disyunción y dos subderivaciones, una comenzada con uno de los conyuntos y la otra con el otro, y terminadas ambas
en la fórmula obtenida.
Una línea con uno de los disyuntos de la disyunción obtenida.
Dos líneas, en una de las cuales hay un condicional cuyo antecedente está en la otra línea y
su consecuente es la fórmula obtenida.
Una subderivación comenzada con el antecedente y finalizada con el consecuente del condicional obtenido.
Dos líneas, en una de las cuales hay un bicondicional y en la otra uno de sus miembros,
siendo el otro miembro la fórmula obtenida.
Dos líneas, en las cuales figuran condicionales
recíprocos, siendo el antecedente y consecuente de uno de ellos los miembros del bicondicional obtenido.
Invocar fórmulas bajo supuestos cerrados
La existencia de supuestos en una derivación tiene como resultado que no podemos invocar
toda fórmula anterior en la aplicación de una regla. Por eso, cuando comenzamos el estudio de la
consecuencia sintáctica, antes de introducir los diagramas de Fitch, tachábamos las líneas que no
nos eran accesibles.
Consideremos una derivación ya realizada:
Capítulo 7. Consecuencia sintáctica
162
1
(p1 ∨ p2 )
2
(p1 → p3 )
3
(¬p2 ∨ p4 )
4
p1
5
p3
E→ , 2, 4
6
(p3 ∨ p4 )
I∨ , 5
7
p2
8
¬p2
9
(p2 ∧ ¬p2 )
I∧ , 7, 8
10
(p3 ∨ p4 )
ECQ, 9
11
p4
12
(p3 ∨ p4 )
13
14
(p3 ∨ p4 )
(p3 ∨ p4 )
I∨ , 11
E∨ , 3, 8–10, 11–12
E∨ , 1, 4–6, 7–13
En ella, desde cualquier línea se puede invocar las fórmulas que aparecen en 1, 2 y 3, ya que
ellas son las premisas. No repetiremos que esto es así. Hasta la línea 6, se pueden invocar todas
las anteriores. Pero como se indica gráficamente, allí termina la acción de un supuesto y las líneas
4, 5, 6 ya no pueden ser invocadas en adelante, excepto para cerrar el supuesto bajo el que están.
Obsérvese la línea 10. Desde ella se pueden invocar (aparte de las premisas) solo la 7, la 8 y la 9.
En la 13 solo se pueden invocar las premisas y la línea 7 como fórmulas, pero es posible invocar
subderivaciones que se encuentran bajo el supuesto de 7.
Examinemos más cuidadosamente la derivación. Se observa que cada vez que agregamos un
supuesto, hacemos algo análogo a introducir una premisa. Evidentemente el supuesto no es una
premisa, pero lo que obtenemos bajo él, es consecuencia sintáctica de las premisas y del supuesto.
Mirando la derivación vemos:
1. Línea 5: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p1 } ` p3
2. Línea 6: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p1 } ` (p3 ∨ p4 )
3. Línea 9: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p2 , ¬p2 } ` (p2 ∧ ¬p2 )
4. Línea 10: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p2 , ¬p2 } ` (p3 ∨ p4 )
5. Línea 12: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p2 , p4 } ` (p3 ∨ p4 )
6. Línea 13: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p2 } ` (p3 ∨ p4 )
7. Línea 14: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 )} ` (p3 ∨ p4 )
Por eso en general si utilizamos una fórmula obtenida bajo un supuesto ya cerrado, estamos
agregando ese supuesto al conjunto del cual extraemos la consecuencia sintáctica, y eso nos lleva
inevitablemente a un error. La forma de evitarlo es simple, cuidando la construcción correcta de los
7.6 Propiedades de la relación de consecuencia sintáctica
163
diagramas y observando que solo se pueden utilizar fórmulas por cuya izquierda pasen exactamente
las mismas líneas verticales que las que pasan por el lugar donde nos encontramos. Esto vale para
la invocación de líneas y no de subderivaciones.
7.5.3
No cerrar supuestos
De lo dicho anteriormente, es claro que si uno presenta un diagrama de Fitch sin todos los
supuestos cerrados, la última fórmula será, en el mejor de los casos, consecuencia sintáctica de
las premisas y de los supuestos que hayan quedado abiertos. Por lo tanto, la última fórmula de un
diagrama de Fitch debe tener siempre una única línea vertical a su izquierda, igual que las premisas.
7.5.4
Abusar del conocimiento semántico
A veces sabemos que dos fórmulas son equivalentes o que una implica la otra, y queremos usar
eso para simplificar la derivación. Por ejemplo, supongamos que queremos demostrar {p1 } ` ¬¬p1
Podemos estar tentados de presentar
1
p1
2
¬¬p1
Me pareció que podía, 1
Eso es un error, la derivación, por supuesto, debió ser
1
p1
2
¬p1
3
(p1 ∧ ¬p1 )
4
¬¬p1
I∧ , 1, 2
I¬ , 2–3
La primera “derivación” equivale a utilizar una regla de este tipo:
Regla ¬¬
A
¬¬A
En general, para utilizar este tipo de reglas que no están en nuestro sistema, debemos acordarlo
explícitamente, y sobre todo, debemos tener demostrado que esa regla que queremos usar es
prescindible, o sea, que sin ella podemos obtener lo mismo en nuestro sistema, aunque a través de
derivaciones más largas. Veremos más sobre reglas derivadas en los ejercicios.
7.6
Propiedades de la relación de consecuencia sintáctica
Corresponde ahora que examinemos las propiedades de la relación que hemos definido. Al
hacerlo, iremos ofreciendo las definiciones necesarias:
Definición 7.6.1 — Conjuntos consistentes, conjuntos inconsistentes. Sea Γ un conjunto
de fórmulas. Γ es inconsistente si existe una fórmula A tal que Γ ` (A ∧ ¬A), y es consistente en
caso contrario.
O sea, un conjunto es inconsistente si de él se puede derivar una contradicción, y es consistente
si no se puede.
Capítulo 7. Consecuencia sintáctica
164
7.6.1
Consecuencias de conjuntos inconsistentes
Supongamos que Γ es inconsistente. Es muy fácil demostrar que Γ ` B para toda fórmula B:
0
..
.
Γ
..
.
n
(A ∧ ¬A)
n+1
B
ECQ, n
Hemos modificado la presentación del diagrama de Fitch en forma obvia: Ponemos Γ donde
irían las premisas, y queda numerado con 0 (esto no se debe al deseo del autor, sino al del realizador
del paquete de LATEX utilizado para hacer diagramas de Fitch, Peter Selinger). Bajo él, lo que se
puede obtener según la información que se posee. Queda demostrado el
Teorema 7.6.1 Si Γ es inconsistente, entonces Γ ` B, sea cual sea la fórmula B.
7.6.2
Monotonía
Supongamos que Γ y A son tales que Γ ` A. Modifiquemos ahora el conjunto Γ agregándole
fórmulas. Llamemos ∆ al conjunto de las fórmulas que agregamos obteniendo un conjunto Γ’ que
será la unión de Γ y ∆. En símbolos de la teoría de conjuntos, Γ’=Γ ∪ ∆. Nos preguntamos si se
cumple Γ’` A.
La respuesta afirmativa es inmediata. Como existe una derivación de A a partir de Γ, podemos
construir siempre una derivación de A a partir de Γ’=Γ ∪ ∆, simplemente usando como premisas los
elementos de Γ e ignorando los de ∆. Y si Γ fuere vacío, A es un teorema y no necesitamos premisa
alguna para derivarlo.
Queda demostrado el
Teorema 7.6.2 Si Γ ` A, entonces para todo conjunto de fórmulas ∆, Γ ∪ ∆ ` A.
Se concluye también el siguiente
Corolario 7.6.3 Si τ es un teorema, entonces Γ ` τ para todo conjunto Γ.
7.6.3
El teorema de deducción (versión sintáctica)
El teorema de deducción en su versión sintáctica tiene la misma forma que en la versión
semántica, pero se refiere a la consecuencia correspondiente (usamos la misma notación que al
enunciar la versión semántica):
Teorema 7.6.4 Para todo conjunto de fórmulas Γ y para cualesquiera fórmulas A y B:
Γ, A ` B si y solo si Γ ` (A → B).
Demostración: Supongamos que se cumple Γ, A ` B. Entonces existe una derivación que podemos
presentar así:
7.6 Propiedades de la relación de consecuencia sintáctica
0
Γ
n
..
.
A
..
.
m
B
165
Entonces lo siguiente también es una derivación:
0
Γ
n
..
.
A
..
.
m
B
m+1
(A → B)
I→ , n–m
Esta segunda derivación tiene las mismas fórmulas que la primera entre A y B, y muestra que
Γ ` (A → B).
Supongamos ahora que se cumple Γ ` (A → B). Entonces existe una derivación que corresponde
al diagrama:
0
..
.
Γ
..
.
k
A→B
A partir de ella, podemos construir la siguiente derivación:
0
Γ
n
..
.
A
..
.
k+1
A→B
k+2
B
E→ , n, k + 1
Las fórmulas que van en lugar de los puntos suspensivos de ambos diagramas son las mismas,
que se extraen exclusivamente de Γ. Esta derivación muestra que Γ, A ` B.
7.6.4
El “absurdo”
Su enunciado es
Capítulo 7. Consecuencia sintáctica
166
Teorema 7.6.5 — El “absurdo”. Para todo conjunto Γ y toda fórmula A, Γ ` A si y solo si
Γ, ¬A es inconsistente.
Demostración: Supongamos que Γ ` A. Esto significa que existe una derivación así:
0
..
.
Γ
..
.
k
A
Queremos demostrar que de Γ, ¬A se puede derivar una contradicción. Que esto es así surge de
que lo siguiente es una derivación:
0
Γ
n
..
.
¬A
..
.
k+1
A
k+2
(A ∧ ¬A)
I∧ , n, k + 1
En los puntos suspensivos de ambas derivaciones van las mismas fórmulas.
Supongamos ahora que Γ, ¬A es inconsistente. Esto significa que existe una derivación así:
0
Γ
n
..
.
¬A
..
.
k
(B ∧ ¬B)
Que Γ ` A queda demostrado por el hecho de que lo siguiente es una derivación:
0
Γ
n
..
.
¬A
..
.
k
(B ∧ ¬B)
k+1
¬¬A
I¬ , n–k
k+2
A
E¬ , k + 1
Como en los casos anteriores, las fórmulas por las que están los puntos suspensivos son las
mismas en ambas derivaciones.
7.7 Aparatos deductivos
167
Hemos visto que la relación de consecuencia sintáctica comparte varias propiedades con su
homóloga semántica. Sobre las relaciones entre ambas nociones de consecuencia hablaremos más
adelante.
Shift ⇑
7.7
SEGUNDA LECTURA
Aparatos deductivos
El sistema de deducción natural es un sistema formal. En esta parte del capítulo estudiaremos los sistemas formales con mayor generalidad, sin centrarnos en un lenguaje ni unas
reglas específicas.
Un sistema formal se basa en un lenguaje formal pero no se reduce a él. Es más, así como
en el plano semántico el mismo lenguaje formal puede ser soporte de interpretaciones
diversas, en el plano sintáctico el mismo lenguaje formal puede ser soporte de sistemas
formales diversos.
Definición 7.7.1 — Sistema formal, aparato deductivo. Un sistema formal S es
un lenguaje formal L junto con un aparato deductivo, es decir:
Un conjunto de fórmulas destacadas de L , que se llaman los axiomas de S .
Un conjunto de reglas de inferencia que determinan inequívocamente, si dados dos
conjuntos o sucesiones de fórmulas Γ y ∆ de L cualesquiera, es posible obtener ∆
de Γ como resultado de aplicar una de las reglas. En caso de que se pueda, se dice
que ∆ es consecuencia inmediata de Γ.
El aparato deductivo debe poder explicitarse sin hacer referencia alguna a interpretaciones del lenguaje formal, y puede carecer de axiomas o de reglas de inferencia pero no,
obviamente, de ambas cosas.
Ejemplo 7.6 (Sistema formal S1 )
Lenguaje formal:
Alfabeto: {a, b}
Fórmulas:
• a es una fórmula
• b es una fórmula
• Si Xa es una fórmula, Xab es una fórmula (X puede ser la cadena vacía).
• Si Xb es una fórmula, Xba es una fórmula (X puede ser la cadena vacía).
• Todas las fórmulas se obtienen de las cláusulas anteriores.
Aparato deductivo:
Axiomas:
• ab es el único axioma
Reglas de inferencia:
1. La fórmula Xb tiene como consecuencia inmediata a la fórmula Xbaba
2. Toda fórmula tiene como consecuencia inmediata a la fórmula que se obtiene al
intercambiar todas las aes por bes y todas las bes por aes.
Podemos ver el lenguaje dispuesto en estructura arborescente a partir de las fórmulas
básicas, generándose mediante las reglas de formación de fórmulas. Obtendríamos:
Capítulo 7. Consecuencia sintáctica
168
a
b
ab
ba
aba
bab
abab
baba
ababa
babab
ababab
bababa
abababa
bababab
abababab
babababa
..
.
..
.
Pero si consideramos el sistema formal, vemos que este recoge algunas fórmulas del
lenguaje y otras no, en el siguiente sentido: Si partimos del axioma (o de los que tuviésemos),
aplicando las reglas de inferencia sucesivamente obtenemos algunas de las fórmulas del
lenguaje (idealmente, no todas, porque si no, ¿para qué sirve el sistema formal?). Esto
puede verse en el siguiente diagrama, en el que se resaltan las fórmulas que se pueden
obtener a partir del axioma ab, y donde las flechas indican la relación de consecuencia
inmediata:
a
b
ab
ba
aba
bab
abab
baba
ababa
babab
ababab
bababa
abababa
bababab
abababab babababa
..
.
..
.
Se observa que en este caso particular, si en vez de tener como único axioma la fórmula
ab tuviésemos la fórmula ba, conservando las reglas de inferencia, el sistema deductivo
resultante nos permitiría obtener exactamente las mismas fórmulas que nos permite nuestro
sistema.
7.7 Aparatos deductivos
169
Este es un ejemplo de sistema formal que consta tanto de axiomas como de reglas de
inferencia. Si un sistema solo tiene axiomas, es decir, carece de reglas de inferencia, lo
único que hace es seleccionar algunas fórmulas, destacándolas y llamándolas axiomas. No
son sistemas interesantes, salvo para algunos propósitos teóricos, y no nos ocuparemos de
ellos. El sistema que conocemos bien, el de deducción natural, carece de axiomas. Es por
ello que no profundizaremos en ese tipo de sistemas y nos conformaremos con examinar
brevemente los sistemas axiomáticos.
7.7.1
Derivaciones en sistemas formales axiomáticos
Dijimos anteriormente que en el sistema formal S1 , la fórmula aba no se puede obtener
partiendo de los axiomas y aplicando las reglas de inferencia, no importa cuántas veces
las apliquemos. Sin embargo, el fragmento de grafo que hicimos muestra que la fórmula
abababab sí se puede obtener de ese modo. Podemos presentar una secuencia, que no es su
secuencia de formación justificándolo:
1. ab (Axioma)
2. ababa (Regla de inferencia 1, aplicada a 1.)
3. babab (Regla de inferencia 2 aplicada a 2.)
4. babababa (Regla de inferencia 1 aplicada a 3.)
5. abababab (Regla de inferencia 2 aplicada a 4.)
Lo que acabamos de mostrar es, como el lector habrá adivinado, una derivación de la
fórmula abababab en nuestro sistema formal. Cuando existe una derivación de una fórmula
en un sistema formal, esa fórmula es un teorema del sistema formal. Recogemos estas ideas
en las siguientes definiciones:
Definición 7.7.2 — Sistema axiomático, derivación en sistema axiomático, teorema. Un sistema formal axiomático es un sistema formal que destaca algunas de las
fórmulas del lenguaje formal sobre el que está definido como axiomas.
Una derivación de una fórmula A en un sistema formal axiomático es una secuencia
finita de fórmulas tal que cada fórmula de la secuencia:
o bien es un axioma
o bien es consecuencia inmediata de alguna o algunas de las fórmulas que figuran
como elementos anteriores de la secuencia
y la última fórmula de la secuencia es A.
Si en el sistema formal axiomático S hay una derivación de la fórmula A, se dice que A
es un teorema en el sistema S .
Está claro que en los sistemas formales axiomáticos sin reglas de inferencia, los únicos
teoremas son los axiomas, y todas las derivaciones en ellos tienen un solo elemento.
Volviendo al sistema formal axiomático en el que venimos trabajando, parece que las
fórmulas aba y bababa no son teoremas. Efectivamente, no lo son, y podemos demostrarlo.
Para demostrar que no son teoremas, se debe mostrar que ninguna derivación en el sistema
tiene como último elemento a una de esas fórmulas. No basta probar con unas cuantas
derivaciones y ver que no terminan con la fórmula buscada, porque eso no asegura que no
exista otra derivación que sí lo haga. Es por eso que debemos recurrir a propiedades de
todas las derivaciones, y demostrar que una derivación que terminara con la fórmula aba,
por ejemplo, carecería de una propiedad que todas las derivaciones en el sistema tienen.
Observando diagrama que presentamos, no es difícil conjeturar que todos los teoremas de
Capítulo 7. Consecuencia sintáctica
170
este sistema son fórmulas que constan de 2, o de 5, o de 8, o de 11, o en general, de un
número k de símbolos, donde k es un múltiplo de 3 más 2. Si lográsemos probar que todos
los teoremas tienen esa propiedad, inmediatamente quedaría probado que ni aba ni bababa
son teoremas, ya que la cantidad de símbolos en las dos fórmulas es múltiplo de 3.
7.7.2
Inducción sobre la longitud de las derivaciones
El método estándar para probar algo sobre todos los teoremas es muy parecido al que
se usaba para probar algo sobre todas las fórmulas del lenguaje. Allí se partía de las
fórmulas más básicas y se mostraba que la propiedad considerada se trasmitía por las
reglas de formación. Cuando trabajamos con sistemas formales axiomáticos, probamos
que los teoremas más simples (los axiomas) cumplen la propiedad, y que la propiedad se
trasmite por las reglas de inferencia. Así queda probado que todos los teoremas tienen la
propiedad. Esto equivale a demostrar que los teoremas que se pueden obtener por medio
de derivaciones de longitud mínima cumplen la propiedad, y que, si todos los teoremas
que se obtienen con derivaciones de longitud j cumplen la propiedad, los teoremas que se
obtienen por medio de derivaciones de longitud j + 1 también cumplen la propiedad. La
longitud se mide, naturalmente, como la cantidad de fórmulas en la derivación.
Inducción sobre derivaciones en un sistema formal axiomático
Si se demuestra que:
Los axiomas cumplen una propiedad P.
Cada vez que se aplica una regla de inferencia a fórmulas que cumplen la propiedad
P, se obtiene una fórmula que cumple la propiedad P
queda demostrado que todos los teoremas del sistema formal axiomático cumplen la
propiedad P.
De esta manera, es sencillo probar que aba y bababa no son teoremas:
El axioma, ab, consta de 0+2, o sea, un múltiplo de 3 (el cero) más dos símbolos.
Supongamos que la fórmula A consta de un múltiplo de 3 más dos símbolos. Es decir,
la cantidad de símbolos de A es 3k + 2 para algún número natural k.
Si le aplicamos
• La regla de inferencia 1, lo que hacemos es agregarle la cadena aba al final, que
consta de 3 símbolos. La cantidad total de símbolos de la fórmula obtenida es
3k + 2 + 3 = 3(k + 1) + 2, o sea, un múltiplo de 3 más dos.
• La regla de inferencia 2, la cantidad de símbolos no se altera, o sea que en la
fórmula que obtenemos también hay 3k + 2, un múltiplo de 3 más dos símbolos.
Por lo tanto, todos los teoremas tienen 2, 5, 8, 11, 14, 17, ... y en general, un múltiplo de
3 más 2 símbolos. Como aba y bababa no tienen una cantidad de símbolos que se pueda
expresar como un múltiplo de 3 más dos, no son teoremas de S1 .
7.7.3
Un sistema axiomático para la lógica proposicional
Existen sistemas axiomáticos para la lógica proposicional, y en esta sección presentaremos
uno. Este sistema no funciona sobre el lenguaje L P, sino sobre uno que además de las
letras proposicionales y paréntesis, solo consta de los conectivos ¬ y →, que constituyen
un conjunto adecuado. La sintaxis es la misma que en L P restringiéndose únicamente a
esos conectivos.
Los axiomas son todas las fórmulas de las siguientes formas:
7.8 Excurso filosófico: Lógica intuicionista
171
1. A → (B → A)
2. (A → (B → C)) → ((A → B) → (A → C))
3. (¬A → ¬B) → ((¬A → B) → A)
Esto nos da esquemas de axiomas que llamaremos por su número. El lector podrá comprobar
que las fórmulas con esas formas son tautologías, y con más trabajo, que son teoremas.
La única regla de inferencia es la eliminación del condicional o modus ponens (abreviado
MP).
Se puede demostrar que este sistema tiene la misma potencia que el nuestro, es decir, si
con este sistema se puede derivar una fórmula a partir de un conjunto –o sea, si existe una
derivación en la cual, además de axiomas y resultados de aplicar MP a fórmulas anteriores
podemos introducir en cualquier punto fórmulas del conjunto–, con el nuestro de deducción
natural también se puede; y si con nuestro sistema de deducción natural se puede derivar
una fórmula, con este sistema axiomático se puede derivar una fórmula equivalente.
Para que se haga una idea de lo poco intuitivo que puede ser trabajar en sistemas axiomáticos,
vamos a presentar una derivación de un teorema nada complejo, la fórmula p1 → p1
1
2
3
4
5
p1 → (p1 → p1 )
p1 → ((p1 → p1 ) → p1 )
(p1 → ((p1 → p1 ) → p1 )) → ((p1 → (p1 → p1 )) → (p1 → p1 ))
(p1 → (p1 → p1 )) → (p1 → p1 )
p1 → p1
Axioma (esq. 1)
Axioma (esq. 1)
Axioma (esq. 2)
MP 2,3
MP, 1,4
Espero que después de ver esto, por más que el lector haya sufrido con la deducción natural,
se sienta agradecido por la elección del sistema.
7.8
Excurso filosófico: Lógica intuicionista
Vamos a terminar este extenso capítulo haciendo un excurso que resultará de interés para
aquellos preocupados por ciertos problemas filosóficos.
La lógica que hemos estudiado es parte de la Lógica clásica, y esta no es, en modo alguno, la
única lógica que existe. No nos estamos refiriendo a la posibilidad de cambiar nuestro lenguaje
en modos que veremos en los próximos capítulos, con el objetivo de poder formalizar clases de
inferencias más amplias que las que actualmente están a nuestro alcance. Nos referimos a lógicas
con el mismo lenguaje pero con reglas de inferencia diferentes, siendo esta diferencia de una
profundidad tal que modifica la relación de consecuencia sintáctica, haciendo que derivaciones
correctas en nuestra lógica no sean tenidas como correctas en esas otras lógicas.
El trasfondo de esto es que no todas las personas creen que los argumentos que validamos como
correctos lo sean. Algunos consideran que hay algo profundamente equivocado en la forma en que
hemos planteado las cosas.
Un ejemplo prominente de esto está dado por el intuicionismo, una corriente lógica que rechaza
algunas de las reglas de inferencia que hemos aceptado.
Más allá de que el intuicionismo se pueda rastrear, en su desarrollo, al menos hasta Kant,
haremos una exposición desinteresada de los aspectos históricos y centrada en las motivaciones
filosóficas.
El problema se presenta en forma nítida en la filosofía de la matemática. Simplificando mucho y
hablando grosso modo, hay dos al menos formas de considerar los objetos del discurso matemático
Capítulo 7. Consecuencia sintáctica
172
(hay más, pero solo nos interesan, para propósitos explicativos, estas dos). Según la primera, que
corresponde al llamado platonismo, los objetos del discurso matemático son objetos reales, con
existencia objetiva, del mismo modo que los objetos físicos para un realista acerca del mundo
externo. Así como la existencia de la luna no depende de que nadie la perciba o la piense -según el
realista-, los objetos matemáticos existen con esa misma independencia objetiva. Según el platónico,
cuando decimos
El gato está sobre el sillón.
y lo que decimos es verdadero, existe una cosa llamada “gato”, existe una cosa llamada “sillón”
y la primera está con la segunda en una relación que llamamos “estar sobre”.
Del mismo modo, cuando decimos
Siete es mayor que tres.
y lo que decimos es verdadero, existe una cosa llamada “siete”, existe una cosa llamada “tres”
y la primera está con la segunda en una relación que llamamos “mayor que”.
O sea, el platónico aboga por algo muy deseable: una uniformidad semántica en la matemática
y fuera de ella, y lo hace desde una perspectiva realista. Una cita del eminente matemático G. H.
Hardy, tomada de [Har12] dejará en negro sobre blanco lo que se postula desde esta perspectiva:
Creo que la realidad matemática yace fuera de nosotros, que nuestra función es
descubrirla u observarla, y que los teoremas que demostramos, y que describimos
en forma grandilocuente como nuestras “creaciones” son simplemente las notas de
nuestras observaciones.
Esta es una presentación del platonismo9 primigenio, por así decirlo, que ha sido muy atacado10
y por eso muy pocos filósofos lo sostienen en esta forma.
Sin embargo, es interesante considerar la razón principal que expuso Kurt Gödel, el mayor
lógico del siglo XX y uno de los tres grandes de la historia, junto con Aristóteles y Frege, para
apoyar ese punto de vista.
Se resume en esta cita, de [Göd90]:
Me parece que la suposición de tales objetos [se refiere a los objetos matemáticos]
es tan legítima como la suposición de los cuerpos físicos y que hay tanta razón para
creer en su existencia [como en la de estos]. Son necesarios en el mismo sentido
para obtener un sistema de matemática satisfactorio como los cuerpos físicos son
necesarios para una teoría satisfactoria de nuestras percepciones sensoriales y en
ambos casos es imposible interpretar las proposiciones que se desea expresar sobre
esas entidades como proposiciones acerca de los “datos”, i. e., en el último caso como
sobre las percepciones mismas.
Según Gödel, la postulación de la existencia del gato y el sillón es razonable dado que es la
mejor explicación de nuestras experiencias. No es que solamente vemos el gato y el sillón aunque no
queramos verlos. Permanecen y otros nos comunican que también los ven. En esas circunstancias,
la postulación de la existencia es la mejor explicación de lo que experimentamos.
9 Debe
tenerse en cuenta que “platonismo” no quiere decir “perteneciente a la filosofía de Platón”, sino que refiere a
un método filosófico de estructurar soluciones a diversos problemas consistente en la postulación de objetos abstractos,
o sea, sin determinación espaciotemporal. Es posible ser platónico al considerar problemas que jamás preocuparon a
Platón o aceptando soluciones diferentes a las aceptadas por él.
10 Quizá los dos ataques más fuertes que ha recibido el platonismo matemático en esta forma se deban a la misma
persona: Paul Benacerraf, quien en sendos artículos [Ben65] y [Ben73] plantea dos desafíos al platonismo matemático
tradicional que han llevado a modificaciones de la teoría dada la fuerza de sus argumentos.
7.8 Excurso filosófico: Lógica intuicionista
173
Con los objetos matemáticos pasa algo idéntico, según Gödel, solo que no a través del aparato
perceptual. Pero de algún modo sabemos que siete es mayor que tres, no podemos hacer que no
sepamos eso, y otros nos comunican lo mismo.
El platonismo matemático, muy especialmente en esta versión, no tiene mucho predicamento
entre filósofos, aunque quizá sí entre matemáticos11 . Su debilidad mayor está en la dificultad
de proveer una epistemología razonable, una explicación de los modos que los humanos, seres
espaciotemporales, tenemos de conocer esos objetos que no tienen determinación espaciotemporal.
Frente a esta concepción, que implica que el universo no está constituido únicamente por objetos
físicos, se levanta otra que sostiene que los objetos matemáticos no tienen el tipo de existencia
objetiva que el platónico cree que tienen, sino que son construcciones, o sea objetos de algún modo
dependientes de las mentes.
No quiere decir esto que cada individuo, cada mente, pueda hacer la matemática que quiera,
como si hacer matemática y escribir novelas fuese lo mismo. Una vez que se ha realizado una construcción, es esa la construcción “correcta”. Pero en tanto no ha sido realizada, está indeterminada.
O sea, para el platónico, la realidad matemática está completa y determinada, y el matemático la
explora y reporta sus descubrimientos, del mismo modo que un explorador ingresa en un continente
desconocido y va reportando sus observaciones, describiéndolo.
Para el intuicionista, la realidad matemática no está acabada y completa sino en construcción.
El intuicionismo no tiene, por tanto, problemas para proveer una epistemología adecuada para
el conocimiento matemático. Sus problemas filosóficos son de otra índole y emergen frente a la
aparente necesidad y atemporalidad de los asertos matemáticos.
Pensándolo bien, la divergencia planteada no debería acarrear profundos desacuerdos, a no ser
por algo que se introduce en la matemática naturalmente y es la pesadilla de los filósofos: el infinito.
Si la realidad matemática fuera finita, la actividad constructiva podría llegar a abarcarla toda, y no
habría desacuerdo alguno.
Pero los matemáticos tratan objetos infinitos (por ejemplo, el conjunto de los números naturales)
como si fueran realidades acabadas, completas, y esto es inadmisible para los intuicionistas, porque
entienden, con toda razón, que los procesos constructivos infinitos no se pueden acabar nunca, y
en forma más discutible, agregan que ni siquiera idealmente. O sea, para el intuicionista no existe
nada como el conjunto de todos los números naturales. Existen sí, conjuntos de naturales que tienen
tantos elementos como se quiera, pero son siempre finitos. Según él, cuando un matemático dice
que el conjunto de números naturales es infinito, no quiere decir que hay un objeto con infinitos
elementos, sino que dado cualquier conjunto finito de números naturales, se puede construir un
número natural que no está en el conjunto. Básicamente, los intuicionistas rechazan los infinitos
actuales, aceptando solo el infinito potencial.
Este movimiento de fortísimos tintes antimetafísicos se complementa con el desinterés semántico acerca de la noción de verdad, al menos en tanto “verdad” signifique lo que significa para el
platónico. Veamos la motivación para esto, considerando un problema abierto en la matemática.
Un número perfecto es un número natural igual a la suma de sus divisores diferentes a él. Por
ejemplo, 6 es perfecto, ya que sus divisores diferentes de 6 son 1, 2 y 3 y 1+2+3=6. 28 es perfecto,
ya que sus divisores diferentes de 28 son 1, 2, 4, 7 y 14 y 1+2+4+7+14=28. Se conocen muchos
números perfectos. Todos los números perfectos conocidos son pares. Nadie sabe si existe algún
perfecto impar, ya que nadie ha demostrado que ser perfecto implique ser par, ni tampoco nadie ha
hallado un perfecto impar.
Frente a esta situación y el enunciado “Existe un número perfecto impar”, el intuicionista
dirá que preguntarse por su verdad es inapropiado. Suponer que la proposición expresada por ese
11 Se
suele decir que los matemáticos son platónicos fanáticos mientras hacen matemática pero luego, en el bar,
cuando se encuentran con el filósofo, frente a las debilidades del platonismo lo abandonan declarativamente y se pasan a
algo más políticamente correcto. Debe ser una infamia.
Capítulo 7. Consecuencia sintáctica
174
enunciado es verdadera o falsa es introducir tácitamente la presuposición metafísica de que el
conjunto de los números naturales es una totalidad completa y acabada, y por supuesto, si es así,
entonces el enunciado sería o bien verdadero o bien falso. Pero según el intuicionista no es así, no
hay una totalidad de números naturales completa y acabada en la cual hay o no hay un perfecto
impar.
Se comprende la necesidad que tiene el intuicionista de rechazar nuestra lógica. Sea p la
proposición
Existe un número perfecto impar.
Nosotros, a partir de nuestra lógica, la clásica, y el matemático que adhiere a ella (los llamaremos “matemáticos clásicos”, mote que incluye claramente a los platónicos pero no solo a ellos),
aceptamos que no sabemos si p es verdadera o si p es falsa. Pero a la vez sostenemos que sabemos
que la proposición
E Existe un número perfecto par o no existe un número perfecto par.
es verdadera.
Y si nos preguntan por qué, respondemos que simplemente lo sabemos por lógica. Nuestra
lógica tiene dos formas de afirmar eso: p ∨ ¬p, que es la representación formal de E, es tanto una
fórmula válida como un teorema, según ya hemos visto.
Frente a esto, el intuicionista dirá que estamos haciendo todo mal. Que partimos de un concepto
de verdad metafísico en forma inadvertida y eso ha contaminado todo nuestro razonamiento. La
validez es un concepto absolutamente dependiente de ese concepto estrafalario de verdad y la
teoremicidad se debe a un sistema de reglas que fueron elegidas para preservar esa misma validez.
Por supuesto, si esto fuera todo, el intuicionismo no sería más que una crítica a la lógica clásica,
pero es mucho más que eso, debido a que tiene una interesantísima parte propositiva que vamos a
exponer ahora. Si se le pregunta al intuicionista cómo es que hay que razonar entonces, dado que
nuestra lógica es incorrecta, él comenzará insistiendo en el rechazo al concepto de verdad, y nos
dirá:
Mira, olvídate de la verdad. Preocuparse por eso está mal, es un disparate. No debería
preocupar a nadie lo que es verdadero sobre los conjuntos que llamamos infinitos,
porque sobre esas realidades no acabadas, no hay verdad. En vez de preocuparnos por
las condiciones de verdad de un enunciado, debemos preocuparnos por las condiciones
bajo las cuales podemos sostener un enunciado, o sea, debemos preocuparnos por las
condiciones de asertabilidad. Lo que nos debe importar no es bajo qué condiciones es
verdadera o falsa la proposición, sino bajo qué condiciones es asertable.
Y se concede este paso fundamental, el rechazo del cumplimento las condiciones de verdad
como regulador de la aceptación de las proposiciones en favor de las condiciones de asertabilidad,
según lo entiendo, el intuicionista tiene la partida ganada. Veamos cómo prosigue su argumentación:
En matemática, las condiciones de asertabilidad son las condiciones de prueba o
demostración. Podemos afirmar algo, algo es asertable, cuando ha sido probado.
Obsérvese el movimiento central del intuicionista: está queriendo sustituir los cimientos del
edificio lógico, constituidos por las relaciones de valores de verdad de las proposiciones, por otros
absolutamente epistémicos, referidos a lo demostrable. El punto no es otra cosa que lo que podemos
afirmar, demostrar, saber.
Entonces rechacemos esa semántica basada en la noción de verdad y tomemos otra, la
adecuada para nuestros propósitos, basada en el concepto de demostración o prueba.
Esta interpretación del significado de las fórmulas queda expresada así:
7.8 Excurso filosófico: Lógica intuicionista
175
Una prueba de A ∧ B es un par de pruebas, una de A y una de B. (O sea, una conjunción es
asertable si y solo si lo son sus dos conyuntos).
Una prueba de A ∨ B es una prueba de A o una prueba de B, con indicación de cuál es
la que se posee. (O sea, una disyunción es asertable si y solo si uno de sus disyuntos,
identificable, es asertable).
Una prueba de A → B es una construcción que permite transformar toda prueba de A
en una prueba de B. (Esta cláusula parece la más difícil de entender. Significa que un
condicional es asertable si y solo si, partiendo de cualquier prueba del antecedente, es
posible construir una prueba de del consecuente).
Una prueba de ¬A es una prueba de A → ⊥ para cualquier B. (O sea, la negación de una
proposición A es asertable cuando es posible construir la prueba de una contradicción a
partir de cualquier prueba de la proposición A).
No hay prueba de ⊥a .
a⊥
es una constante lógica, que viene a funcionar como una contradicción, es lo no asertable en circunstancia
alguna.
Esta, la llamada interpretación Brouwer–Heyting–Kolmogorov12 (abreviada BHK) es
la sólida base que la lógica necesita, libre de dudosos supuestos metafísicos.
Ahora podemos ver más claramente el rechazo intuicionista a afirmar
Existe un número perfecto par o no existe un número perfecto par.
Para que el intuicionista aceptara que esta proposición es asertable, debería tener una prueba de
uno de sus disyuntos, con indicación de cuál. Es decir, se debería conocer una prueba de
Existe un número perfecto par.
o una de
No existe un número perfecto par.
pero no se tiene prueba de ninguna de las dos.
Hemos visto que los matemáticos clásicos aceptarán cualquier instancia del tercero excluido, o
sea, cualquier instancia de fórmulas del tipo A ∨ ¬A, mientras que el intuicionista no lo hará. Esto
no quiere decir que el intuicionista rechace todas las instancias, sino solo aquellas en las que se
carece de prueba de ambos disyuntos.
Para evaluar la profundidad del desacuerdo, examinemos las reglas de inferencia que hemos
aceptado, para ver cuáles rechazaría el intuicionista y cuáles aceptaría. En vez de presentarlas
sistemáticamente, podemos dirigirnos a un núcleo del problema prestando atención a la derivación
clásica de la ley de tercero excluido (abreviada LTE). Esa derivación fue presentada en 7.2 y es:
12 Tres
prominentes intuicionistas.
Capítulo 7. Consecuencia sintáctica
176
1
¬(A ∨ ¬A)
2
A
3
(A ∨ ¬A)
I∨ , 2
4
((A ∨ ¬A) ∧ ¬(A ∨ ¬A))
I∧ , 3, 1
5
¬A
I¬ , 2–4
6
(A ∨ ¬A)
I∨ , 5
7
((A ∨ ¬A) ∧ ¬(A ∨ ¬A))
I∧ , 6, 1
8
¬¬(A ∨ ¬A)
I¬ , 1–7
9
(A ∨ ¬A)
E¬ , 8
Obviamente, el intuicionista debe rechazar alguna de las reglas que ponemos en juego en esta
derivación, so pena de aceptar LTE, lo que no se puede permitir. La derivación se abre con un
supuesto. El intuicionista no tiene ningún problema con la posibilidad de hacerlos, solo que al
suponer una fórmula A lo interpreta como la suposición de que se tiene una prueba de A. La primera
regla que se aplica es I∨ , que tiene la forma
Regla I∨ i
A
Regla I∨ d
A
B∨A
A∨B
Es claro que se corresponde exactamente con lo que el intuicionista requiere de para poder
afirmar una disyunción. Bajo su interpretación, siempre que se tiene una prueba de A se puede
asertar A ∨ B o B ∨ A. De modo que no está aquí el problema.
La siguiente regla que se aplica es I∧ , cuya forma
Regla I∧
A
B
A∧B
es inobjetable por parte del intuicionista: Recoge la idea, una vez reinterpretada, de que una prueba
de A y una prueba de B constituyen una prueba de A ∧ B. Este tampoco es el problema.
La siguiente regla en ser aplicada es I¬ , cuya forma
Regla I¬
[A]
..
.
B ∧ ¬B
¬A
se adapta perfectamente a las exigencias intuicionistas. Reinterpretada, expresa que a partir de una
prueba de A se puede construir una prueba de una contradicción (la construcción, obviamente, es lo
que queda en los puntos suspensivos). Por lo tanto, tampoco es este el problema.
Y nos queda una única regla utilizada en la derivación, regla que el intuicionista debe rechazar,
si no quiere aceptar la asertabilidad de LTE en toda su generalidad. Esta regla es E¬ :
7.8 Excurso filosófico: Lógica intuicionista
177
Regla E¬
¬¬A
A
¿Cómo puede ser que alguien no acepte que de la doble negación de A se sigue A? ¿No es claro
que si la negación de la negación de A es verdadera, la negación de A es falsa, y consecuentemente,
A es verdadera?
Quien habla así olvida completamente el terreno sobre el que se situó el intuicionista desde
el principio, rechazando hablar acerca de la verdad. La pregunta con sentido para el intuicionista
es: Suponiendo que se puede asertar la doble negación de A ¿es asertable A? Para contestarla en el
marco intuicionista, debemos recordar que podemos asertar A si tenemos una prueba de A. ¿Y de
qué partimos? Partimos de lo siguiente: es asertable ¬¬A. Esto quiere decir (recordando la cláusula
pertinente de BHK) que tenemos una construcción c1 que, a partir de una prueba de ¬A nos da una
contradicción. Y una prueba de ¬A es una construcción c2 que, a partir de una prueba de A nos da
una contradicción.
O sea, juntando todo esto, lo que afirmamos desde el punto de vista intuicionista al afirmar
¬¬A es que tenemos una construcción que, dada una construcción cualquiera que produzca una
contradicción a partir de una prueba de A, produce una contradicción. Lo podemos ver así, dada la
definición de negación intuicionista: ¬¬A es (A → (B ∧ ¬B)) → (C ∧ ¬C). El intuicionista dirá que
a partir de eso es necesario negar la negación de A, ya que la negación de A lleva a contradicción.
Pero no aceptará que eso obligue a aceptar A, ya que no provee de por sí una prueba de A. Solo
sabemos que si suponemos que tener una prueba de A lleva a contradicción, podemos construir
una contradicción. Pero en todo esto las pruebas de A brillan por su ausencia y por lo tanto el
intuicionista no se ve obligado a aceptar A.
De este modo el intuicionista rechaza la regla E¬ . Quizá el lector esté pensando que si bien
la derivación de LTE que mostramos necesita de E¬ , tal vez haya alguna derivación de LTE que
prescinda de ella. No es así, se puede demostrar que todas las derivaciones de LTE posibles en el
sistema de deducción natural clásico utilizan en algún paso E¬ . De hecho, los intuicionistas aceptan
todas las demás reglas junto con ECQ (la regla que permite pasar a cualquier fórmula a partir de
una contradicción), la regla de repetición (la que permite repetir cualquier fórmula anterior de
una secuencia que no haya sido obtenida bajo un supuesto ya cerrado) y eso constituye el aparato
deductivo de la lógica proposicional intuicionista. De esta manera, todo razonamiento intuicionista
será aceptable para un clásico, pero no recíprocamente.
Veamos un ejemplo famoso de un razonamiento perfectamente aceptable para un clásico pero
que sería rechazado por un intuicionista:
Ejemplo 7.7 Teorema:
Existen dos números irracionales α y β tales que α β es racional.
Demostración:
√ √2
Consideremos el número 2 . Este número es racional o no es racional (es irracional).
Si
√
es racional, entonces existen dos números irracionales, α y β √
, ambos iguales a 2 tales que
√ 2 √
α β es racional. Si es√irracional, entonces como se cumple ( 2 ) 2 = 2, existen dos números
√ 2
√
irracionales, α = 2 y β = 2 tales que α β es racional. Como en ambos casos existen α y β
irracionales tales que α β es racional, se concluye la tesis.
Como decíamos, esta demostración es totalmente correcta desde el punto de vista clásico, y es
inaceptable desde el punto de vista intuicionista.
Sin formalizarla, podemos ver que el intuicionista
√ √2
se negará a aceptar “Este número ( 2 ) es racional o no es racional” si no dispone una prueba de
Capítulo 7. Consecuencia sintáctica
178
que lo es o bien una prueba de que no lo es. En ausencia de ambas, no aceptará la instancia de LTE
que la proposición representa.
Otro punto de discrepancia importantísimo entre clásicos e intuicionistas afecta una estrategia
demostrativa en forma profunda. Supongamos que un clásico y un intuicionista quieren probar A.
El clásico supone la negación de A, ¬A, y llega con métodos aceptables para el intuicionista a una
contradicción. Afirma que esto es una prueba de A. ¿Aceptará esa prueba de A el intuicionista?
La respuesta es "no" por lo siguiente: El clásico ha hecho esto
1
..
.
¬A
..
.
n
B ∧ ¬B
n+1
¬¬A
I¬ , 1–n
n+2
A
E¬ , n + 1
y por supuesto, el intuicionista lo rechazará debido a la presencia de la regla que no acepta
justificando la última línea. Es decir, el intuicionista dirá que todo que se ha demostrado es la
negación de la negación de A, y que luego de la línea donde eso se establece, la derivación desbarra.
De este modo, esta regla derivada ha llegado a llamarse “absurdo clásico”
Regla Absurdo clásico
[¬A]
..
.
B ∧ ¬B
A
y no es aceptada por los intuicionistas.
¿Qué consecuencias tiene todo esto? Los intuicionistas, convencidos de la inadecuación de
la lógica clásica para la actividad matemática abogan por una reforma de ella, que sería más o
menos profunda según los campos de que se trate. Por ejemplo, en aritmética no sería demasiado
importante, pero en análisis sería profundísima. La reacción de los matemáticos clásicos ha sido en
general ver al intuicionismo como una teoría matemática más, pero en filosofía los debates han
sido mucho más agudos. Esto es así porque la lógica intuicionista es una lógica adecuada a todas
las realidades indeterminadas, inacabadas, mientras que la lógica clásica se adecua perfectamente a
realidades determinadas, ya que esas realidades imponen las condiciones de verdad de todo lo que
se diga sobre ellas. Por lo tanto, la lógica intuicionista viene como anillo al dedo a varias clases
de antirrealismos, no solo en matemática. Un antirrealista con respecto al pasado, por ejemplo,
puede negarse a aceptar la proposición “Napoleón vio un gato gris el día de su quinto cumpleaños
o Napoleón no vio un gato gris el día de su quinto cumpleaños” por
razones estrictamente análogas
√ √2
a las que tendría el intuicionista para negarse a aceptar que “ 2 es racional o no es racional.”
El lector interesado en conocer más sobre intuicionismo puede leer con mucho provecho los
estupendos libros [Dum99] y [Dum00].
Espero que al lector no le dé un ataque de antirrealismo justo ahora, cuando retomaremos el
estudio de la lógica clásica.
7.9 Ejercicios
7.9
179
Ejercicios
1. Seguramente el lector conoce algún texto de matemática en el cual se demuestran algunos
teoremas matemáticos. ¿Son estas demostraciones derivaciones en un sistema formal?
2. Demostrar:
a) {(p1 → p2 ), (p3 → p4 ), (p1 ∧ p3 )} ` (p2 ∧ p4 )
b) {(p1 → p2 ), p1 , (p2 → p3 )} ` (p3 ∨ p5 )
c) {(p1 → p2 ), ((p1 ∨ p3 ) → p8 )} ` (p1 ∧ p8 )
d) {(p1 → ((p1 ∧ p2 ) → p3 )), (p1 ∧ p2 )} ` p3
e) {p1 } ` (p2 → ((p2 ∧ p1 ) ∨ p3 ))
f ) {(p1 → p2 ), (p2 → p3 )} ` (p1 → p3 )
g) {((p1 ∧ p2 ) → p3 ), (p1 → p2 )} ` (p1 → ((p1 ∧ p2 ) ∧ p3 ))
h) {(p1 → p2 ), (p1 → (p2 → p3 ))} ` (p1 → p3 )
i) {(p1 → p2 ), (p3 → p4 ), (p1 ∨ p3 )} ` ((p1 ∧ p2 ) ∨ (p3 ∧ p4 ))
j) {(p1 ∨ p2 ), (p1 → p4 ), (p2 → p5 )} ` (p4 ∨ p5 )
k) {(p1 ∧ (p2 ∨ p3 )), (p1 → p4 ), (p2 → (p4 → p6 )), ((p3 ∧ p4 ) → p6 )} ` (p5 ∨ p6 )
l) {(p1 ∨ (p2 ), (p3 → ¬p1 ), (p4 → p3 ), (¬p5 → p4 ), (p3 → ¬p2 )} ` p5
m) {(p4 → (p3 → ¬p2 )), p4 , (p3 → p2 )} ` ¬p3
n) {(¬p1 → p2 ), (p3 → (¬p1 → ¬p2 )), p3 } ` p1
ñ) {(p1 → p2 ), ((p2 ∨ p3 ) → p4 ), (p1 → ¬p4 )} ` ¬p1
o) {(p1 → (p2 ∨ p3 )), (p1 → p5 ), (p5 → ¬p2 ), (¬p7 → ¬p3 ), (p7 → p5 )} ` ¬p1
p) {((p1 ∨ p2 ) → (p3 ∨ p4 )), ((p3 ∨ p4 ) → (p5 ∧ p6 )), p1 } ` p5
q) {(p1 ∧ p2 ), (p4 → ¬p2 ), (p3 → ¬p1 )} ` (¬p3 ∧ ¬p4 )
r) {(p1 → (p2 → ¬p3 )), (p1 → p3 )} ` (p1 → ¬p2 )
3. Demostrar que las siguientes reglas pueden aceptarse como derivadas (el estudiante podrá
usarlas apenas lo demuestre).
a) Regla Modus tollens (MT)
(A → B)
¬B
¬A
b) Regla Contraposición
(A → B)
(¬B → ¬A)
c) Regla Transitividad
(A → B)
(B → C)
(A → C)
d) Silogismos disyuntivos
(A ∨ B) (A ∨ B)
¬A
¬B
B
A
e) Dilemas disyuntivos
(A ∨ B)
(A ∨ B)
(A → C) (A → C)
(B → C) (B → D)
C
C∨D
f ) De Morgan
Capítulo 7. Consecuencia sintáctica
180
¬(A ∨ B)
¬(A ∧ B)
(¬A ∧ ¬B) (¬A ∨ ¬B)
g) Definición →
(A → B)
(A → B)
¬(A ∧ ¬B) (¬A ∨ B)
h) Definición ∧
(A ∧ B)
(A ∧ B)
¬(A → ¬B) ¬(¬A ∨ ¬B)
i) Definición ∨
(A ∨ B)
(A ∨ B)
(¬A → B) ¬(¬A ∧ ¬B)
4. Sean A, B y C fórmulas tales que C es consecuencia sintáctica del conjunto {A, B}. Demostrar
que (A→(B→C)) es un teorema.
5. Sea Γ un conjunto de fórmulas tal que:
a) Todos los teoremas pertenecen a Γ.
b) Para cualesquiera dos fórmulas A y B, si A y (A→B) pertenecen a Γ, entonces B
pertenece a Γ.
i Mostrar que si A y B pertenecen a Γ, entonces (A∧B) pertenece a Γ.
ii Mostrar que si A y ¬A pertenecen a Γ, entonces toda fórmula del lenguaje Λ pertenece
a Γ.
6. ¿Cuántos pasos como mínimo tiene una derivación en deducción natural de un teorema que
tenga diez mil ocurrencias de constantes lógicas?
7. Dadas las siguientes premisas, elija una de las opciones como conclusión que se sigue de ellas.
Demuestre, traduciendo al lenguaje Λ y evaluando la relación de consecuencia sintáctica,
que efectivamente el argumento así formado es correcto lógicamente.
a) Si hay agua en el planeta entonces es probable que haya vida en él.
O no hay actividad atmosférica en el plantea o no hay agua en él.
No es probable que haya vida en el planeta.
Posibles conclusiones:
Hay actividad atmosférica en el planeta.
No hay actividad atmosférica en el planeta
No hay agua en el planeta.
b) Si hay viento entonces, si no llueve, el incendio se extenderá.
Hay viento o no llueve.
Es necesario que la lectura del higrómetro descienda para que no llueva.
La lectura del higrómetro no desciende.
Posibles conclusiones:
El incendio se extenderá.
Si no llueve, el incendio se extenderá.
El incendio no se extenderá.
8. a) Si un teorema es de la forma (A ∨ B), ¿son A y B necesariamente teoremas?
b) Si un teorema es de la forma (A ∧ B), ¿son A y B necesariamente teoremas?
9. ¿Puede un teorema tener como constantes lógicas solamente la conjunción y la disyunción?
10. Demuestre que ninguna contradicción es teorema.
7.9 Ejercicios
181
11.
a) Se ha atribuido a un político la frase: “Si [se] es de izquierda no [se] es corrupto y si
[se] es corrupto no [se] es de izquierda”. Claramente, desde el punto de vista de la
lógica proposicional clásica se trata de un pleonasmo, ya que {(p → ¬q)} ` (q → ¬p),
de modo que la segunda mitad de la frase se puede inferir de la primera. ¿Sucede lo
mismo en lógica intuicionista? Justifique.
b) ¿Sería el mismo caso si hubiera dicho una instancia de “Si no se es A se es B y si no se
es B se es A”? Justifique.
12. Suponga que en un sistema formal existe la regla de inferencia
A
A
¿Es necesariamente esta regla inútil, es decir, si tenemos un sistema que incluye esta regla
y consideramos el sistema que se obtiene al eliminarla, ambos sistemas tendrán los mismo
teoremas?
III
Lógica de primer orden
8
Introducción . . . . . . . . . . . . . . . . . . . . . . . 185
9
Sintaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
9.1
9.2
9.3
9.4
9.5
Alfabeto
Fórmulas
El teorema de lectura única
Árbol de formación de una fórmula
Lenguajes de Primer Orden
10
Semántica . . . . . . . . . . . . . . . . . . . . . . . . . 203
10.1
10.2
10.3
10.4
10.5
Interpretaciones
Estructuras
Valores de verdad bajo una interpretación
Modelos, fórmulas válidas, tautologías
Conjuntos satisfacibles e insatisfacibles
11
L PO y lenguaje natural . . . . . . . . . . . 221
11.1
11.2
11.3
11.4
11.5
La elección de los predicados
La cuantificación
En la práctica
La igualdad
Excurso filosófico: Descripciones definidas según
Russell
Excurso filosófico: Una versión del argumento ontológico
11.6
12
Consecuencia semántica . . . . . . . . . . 239
12.1
12.2
Definición y primeros ejemplos
Propiedades de la consecuencia semántica en
primer orden
La consecuencia semántica y la corrección argumental
Excurso filosófico: Lógica aristotélica y crítica de
Russell
12.3
12.4
13
Consecuencia sintáctica . . . . . . . . . . . 257
13.1
13.2
13.3
13.4
13.5
13.6
Las reglas de inferencia
El sistema de deducción natural para L PO
Consecuencia sintáctica
Heurística
Propiedades de la consecuencia sintáctica
Excurso filosófico: Contextos indirectos
8. Introducción
N los capítulos anteriores hemos presentado la lógica proposicional. A partir de aquí se nos
abren opciones acerca de cómo proseguir nuestro estudio. Una posibilidad es examinar características generales de esa lógica, como la corrección y la completitud, que son cuestiones
acerca de las relaciones entre la consecuencia semántica y la consecuencia sintáctica. No tomaremos
esa dirección ahora –lo dejaremos para más adelante– sino que daremos las motivaciones que
tenemos para estudiar otra lógica, que es lo que haremos en esta parte del curso.
Desde nuestro punto de vista, la lógica proposicional representa una excelente herramienta
para distinguir algunos argumentos como válidos. Esto debe ser visto como una limitación de esta
lógica. No porque pretendamos construir una lógica que permita resolver el problema de la validez
para todos los argumentos, sino porque existen inferencias muy comunes que son válidas pero
no pueden ser clasificadas como tales utilizando la lógica proposicional. Para ejemplificar lo que
acabamos de decir, examinemos el siguiente argumento:
E
Si tenemos conocimiento, entonces o algunas cosas son conocidas
sin prueba o podemos probar toda premisa mediante premisas
previas, y así sucesivamente.
No podemos probar toda premisa mediante premisas previas y así
sucesivamente pero tenemos conocimiento.
Algunas cosas son conocidas sin prueba.
Este argumento es válido y esto puede ser determinado utilizando el instrumental de la lógica
proposicional. Sea
p: Tenemos conocimiento
q: Algunas cosas son conocidas sin prueba.
r: Podemos probar toda premisa mediante premisas previas y así sucesivamente.
Capítulo 8. Introducción
186
Como q es consecuencia tanto semántica como sintáctica de {(p → (q ∨ r)), (¬r ∧ p) },
podemos afirmar que el argumento es válido con el instrumental proporcionado por la lógica
proposicional.
El argumento que acabamos de presentar es un ejemplo profesoral, especialmente preparado para que la lógica proposicional capture su validez. Una minúscula modificación hará que obtengamos
otro, igualmente válido, pero cuya validez sea imposible de establecer con ese instrumental:
Si tenemos conocimiento, entonces o los axiomas de la geometría
son conocidos sin prueba o podemos probar toda premisa mediante
premisas previas, y así sucesivamente.
No podemos probar toda premisa mediante premisas previas y así
sucesivamente pero tenemos conocimiento.
Algunas cosas son conocidas sin prueba.
Es claro que este argumento es válido: el lector podrá comprobar que la proposición“Los
axiomas de la geometría son conocidos sin prueba” es consecuencia lógica del conjunto de
premisas. Y a su vez, “Algunas cosas son conocidas sin prueba” es consecuencia lógica de “Los
axiomas de la geometría son conocidos sin prueba”. Por lo tanto, el argumento es válido. Sin
embargo, su validez no queda capturada por el instrumental de la lógica proposicional. Sea
p: Tenemos conocimiento
q: Algunas cosas son conocidas sin prueba.
r: Podemos probar toda premisa mediante premisas previas y así sucesivamente.
s: Los axiomas de la geometría son conocidos sin prueba.
Aunque el argumento es válido, no se cumple {(p → (s ∨ r)), (¬r ∧ p)} |= q. En realidad no
tenemos nada en la lógica proposicional que capture la validez de esa inferencia que hicimos según
la cual si algo se cumple para un ente en particular (en este caso, se cumple que conocemos sin
prueba esos entes particulares que son los axiomas de la geometría), entonces ese algo se cumple
para algunos entes.
Tal vez el lector pueda pensar que estos argumentos en los que la validez reposa en último
término en constantes lógicas que quedan representadas en el lenguaje natural por palabras como
algún, algunos, todos, ninguno, etc., son eficazmente tratados por la silogística, que es la lógica
desarrollada por Aristóteles y cultivada durante casi toda la historia de la disciplina en Occidente. Y
parcialmente, el lector tendría razón si así pensara. El archiconocido argumento “Todos los hombres
son mortales. Sócrates es hombre. Por lo tanto, Sócrates es mortal”, que tanta tiza ha consumido,
es por supuesto válido. Su validez no se captura con la lógica proposicional (verifíquelo el lector)
y sí con la silogística. Sin embargo, la silogística no captura la validez de algunos argumentos
tratables mediante la lógica proposicional. Además de eso, existen otros argumentos muy sencillos
cuya validez no queda certificada por ninguna de las dos lógicas que venimos mencionando. Por
ejemplo:
Hipatia es una perra.
Hipatia tiene un único collar.
El collar de Hipatia es el collar de una perra.
Nuestro objetivo en el resto del curso será el estudio de una lógica que nos permita tratar con
todos estos argumentos en forma eficaz, es decir, que de alguna manera subsumirá a la lógica
proposicional, a la silogística y además podrá tratar con argumentos inaccesibles a cualquiera de
187
ellas1 . El recorrido a realizar será el mismo que el que hemos seguido para la lógica proposicional:
el establecimiento de la sintaxis, la semántica, y el estudio de dos modos formales de capturar la
consecuencia lógica: las relaciones de consecuencia semántica y de consecuencia sintáctica. Como
el aparato de la lógica proposicional se incorpora en enorme medida en lo que sigue, en general
necesitaremos exposiciones y razonamientos más breves, ya que conceptualmente hemos hecho un
largo camino totalmente aprovechable de aquí en adelante.
La lógica que estudiaremos se llama Lógica de predicados de primer orden o simplemente
Lógica de primer orden y vio la luz en un trabajo de Frege llamado Conceptografía, publicado en
1879 [Fre72], cuya importancia es difícil de exagerar. Puede parecer curioso que una lógica que
permita tratar argumentos tan sencillos como los presentados demorara dos mil trescientos años en
aparecer desde el surgimiento de la Lógica como ciencia y más aun que las mentes más avisadas
hayan podido decir cosas como
“Que la lógica ha llevado ya esa marcha segura desde los tiempos más remotos puede
colegirse por el hecho de que, desde Aristóteles, no ha tenido que dar un paso atrás,
a no ser que se cuenten como correcciones la supresión de algunas sutilezas inútiles
o la determinación más clara de lo expuesto, cosa empero que pertenece más a la
elegancia que a la certeza de la ciencia. Notable es también en ella el que tampoco
hasta hoy ha podido dar un paso adelante. Así pues, según toda apariencia, hállase
conclusa y perfecta.” [Kan28]
En 1787, cuando Kant escribía esto, la lógica conocida por la humanidad era incapaz de certificar
que si Kant es un filósofo, entonces los textos de Kant son los textos de un filósofo.
1 En
cuanto a la potencia de la lógica que vamos a estudiar hay filósofos que afirman que es suficientemente potente
como para capturar la validez de todos los argumentos matemáticos, lo que obviamente no es poco. Esta afirmación es
conocida como Tesis de Hilbert.
9. Sintaxis
enfrentar un proyecto tan ambicioso como el que acabamos de plantear debemos
empezar casi desde cero. Esto significa construir un lenguaje formal adecuado a nuestros
propósitos, y por lo tanto, la primera tarea a emprender consiste en establecer el alfabeto,
para luego determinarlo mediante la sintaxis.
P
9.1
ARA
Alfabeto
La elección del alfabeto estará guiada por la expresividad que deseamos tenga nuestro lenguaje.
Investiguemos qué cosas deseamos poder representar con él.
Considere el silogismo más famoso de la historia:
Todos los hombres son mortales.
Sócrates es hombre.
Sócrates es mortal.
La incapacidad de la lógica proposicional para capturar la validez de ese argumento está íntimamente relacionada con el hecho de que en ella no podemos discernir que el mismo nombre
“Sócrates” aparece en una premisa y en la conclusión. (Observe que es crucial para la validez del
argumento que el nombre sea el mismo. Si dejamos inalteradas las premisas y en la conclusión
cambiamos “Sócrates” por “Protágoras”, el argumento así obtenido no es válido). Necesitamos entonces disponer de medios para desagregar los constituyentes de proposiciones en una
forma que va más allá de las posibilidades de la lógica proposicional. Por lo dicho, es claro
que necesitamos tener la posibilidad de representar nombres. Nuestro alfabeto nos proveerá entonces de símbolos que en él incluiremos con el propósito de que sirvan para representarlos.
Estos símbolos serán llamados constantes de individuo (o simplemente constantes), y su grafía
será una letra “c” minúscula subindizada por un número natural. De esta manera, los símbolos c4 , c1324 , c0 , etc., pertenecen al alfabeto del lenguaje formal de la lógica de primer orden.
Capítulo 9. Sintaxis
190
El alfabeto de la lógica de primer orden incluirá los símbolos c0 , c1 , c2 , ... y en general, toda c
subindizada con un numeral natural.
Por supuesto, es necesario que tengamos además la capacidad de expresar la adscripción a
Sócrates de su calidad de hombre. Esto puede verse como la expresión de que Sócrates tiene una
determinada propiedad o que Sócrates pertenece a un cierto conjunto. La propiedad en cuestión
sería la de ser hombre, el conjunto sería el conjunto de los seres humanos. Nos va a interesar
entonces expresar que un individuo tiene una propiedad o pertenece a un conjunto, y para hacer
esto necesitamos disponer de alguna forma de representar nombres de propiedades o conjuntos. Por
ello, incluiremos en nuestro alfabeto infinitos símbolos cuya grafía será la siguiente: una letra “R”,
que como se ve será mayúscula, supraindizada con un 1 (ya veremos por qué) y subindizada con un
número natural. Así, los símbolos R124 , R1315 , etc., pertenecen al alfabeto de nuestro lenguaje. Si
hemos elegido la constante de individuo c14 para representar el nombre “Sócrates” y el símbolo R1117
para representar la propiedad de ser hombre o el conjunto de los seres humanos, representaremos la
proposición
Sócrates es hombre
con
R1117 c14 .
Estos símbolos, de la forma R1n con n natural, serán llamados letras de relación de aridad 1.
Si bien la introducción de las letras de relación de aridad 1 da una gran capacidad expresiva al
lenguaje, esto no es suficiente para llegar a lo que pretendemos.
Supongamos que deseamos expresar “Platón es discípulo de Sócrates”. En cuanto a los
nombres tenemos el problema resuelto, simplemente elegimos dos constantes de individuo.
Ahora bien, ¿qué expresa el enunciado? Una posibilidad es pensar que expresa que Platón tiene
una determinada propiedad, a saber, la de ser discípulo de Sócrates. Otra posibilidad es pensar que
expresa que Sócrates tiene una propiedad, a saber, la de ser maestro de Platón. Y también sería
correcto pensar (y esto crucial para el éxito de nuestro proyecto, como veremos) que expresa que
dos individuos se encuentran en una determinada relación, a saber, la de ser discipulo de. Observe
que esta relación, cuando se da, siempre involucra dos individuos. No es una propiedad que tenga
uno de ellos. Del mismo modo nos va a interesar poder representar una proposición como “Juan es
hijo de Pedro y de María” en una forma que evidencie una relación entre tres individuos, la de ser
hijo de ... y de ...
Así, debemos considerar relaciones que se dan entre una cantidad arbitraria de individuos.
La aridad de una relación es, justamente, la cantidad de individuos entre los que se da y lo que
acabamos de decir significa que nuestro lenguaje tiene que poder representar relaciones de cualquier
aridad. Así, representaremos relaciones de aridad 2, de aridad 3, etc. Lo haremos del modo siguiente:
el alfabeto de nuestro lenguaje tendrá todos los símbolos cuya grafía es una “R” supraindizada
con un natural positivo y subindizada con un natural cualquiera. Consecuentemente el alfabeto
3
0
de nuestro lenguaje tendrá los símbolos: R24
21 , R0 , etc. pero no al símbolo R15 . Pretendemos que
el supraíndice indique la aridad de la relación representada, y que tengamos la posibilidad de
representar tantas relaciones de una aridad dada como queramos.
Si elegimos R212 para que esté por la relación ser discípulo de, c7 para que esté por “Platón” y
c3 por “Sócrates”, podemos traducir la proposición
Platón es discípulo de Sócrates
9.1 Alfabeto
191
escribiendo
R212 c7 c3
donde el orden en que se colocan las constantes de individuo es de primordial importancia. R212 c3 c7
representaría algo muy diferente, a saber, la proposición según la cual Sócrates es discípulo de
Platón.
Habrá observado el lector que estamos tratando las propiedades como relaciones de aridad
1. Es exactamente así. La propiedad, por ejemplo, de ser rojo puede ser considerada como una
relación que involucra individuos, no pares o ternas de ellos, etc., como quedará claro al considerar
la semántica que propondremos para este lenguaje. Estos símbolos que acabamos de introducir
serán llamados letras de relación o letras de predicado.
Existe una relación de aridad 2 para la cual tendremos un símbolo especial, es decir, este
símbolo, a diferencia de las “erres” supra y subindizadas, que pueden utilizarse para denotar
cualquier relación, denotará siempre la misma relación. Esta relación es la igualdad y por razones
que no merecen ser explicadas adoptaremos para ella el símbolo “=”. Así, podríamos representar la
proposición “Platón es Aristocles” como c1 = c2 donde la primera constante de individuo está por
“Platón” y la segunda por “Aristocles”.
El alfabeto de la lógica de primer orden incluirá los símbolos R10 , R11 , R12 , ..., R20 , R21 , R22 , ...
y =.
Aun estamos lejos de tener los medios necesarios para alcanzar la expresividad que deseamos.
Es menester para ello tener la posibilidad de expresar que todos los individuos cumplen algo, ya
sea tener una propiedad, o estar en una determinada relación y también que al menos un individuo
cumple algo. Es por esto que introduciremos los cuantificadores y las variables.
Supongamos que queremos expresar que Sócrates tiene al menos un alumno. Esto se puede
parafrasear diciendo que “existe un individuo que está en la relación ‘ser discípulo de’ con Sócrates”. Introduciremos el símbolo ∃, llamado cuantificador existencial, con el propósito de que nos
sirva para expresar la existencia de un individuo que cumple algo. Como veremos detalladamente
al estudiar la sintaxis propiamente dicha, este símbolo siempre será seguido por otro cuya grafía
será una ‘x’ subindizada con un número natural. Esos símbolos, como x0 , x5 , x17 serán llamados
variables de individuo. Estamos proponiendo que en nuestro lenguaje habrá fórmulas que contendrán el bloque indisoluble ∃xn , siendo n un número natural. Este bloque no podrá ser una fórmula
completa porque en todos los casos nos interesará expresar que existe un individuo que cumple algo
y para ello necesitamos las letras de relación o el símbolo de igualdad que indicarán lo que cumple.
Entonces proponemos que el bloque ∃xn sirva para expresar “Existe un individuo que cumple...”,
donde lo que iría por los puntos suspensivos será expresado a través de las letras de relación o el
símbolo de igualdad.
Comencemos considerando algunos casos simples. Supongamos que hemos escogido la letra de
relación R112 para que esté por la propiedad de ser azul. La proposición expresada por “Existe algo
azul”, “Hay al menos una cosa azul”, o incluso “Hay cosas azules”1 podrá ser representada como
∃x0 R112 x0 .
Observe que la variable colocada inmediatamente después del cuantificador es la misma que
sigue a la letra de relación. Abundaremos sobre esto al ver la semántica; hasta entonces es bueno
1 Afirmar
que hay cosas azules no es lo mismo que afirmar que hay más de una cosa azul.
Capítulo 9. Sintaxis
192
pensar en lo escrito como representando “Existe algo tal que ese algo es azul”, donde la función
anafórica del “ese” se recoge al colocar la misma variable que figura al lado del cuantificador.
Si queremos expresar que Sócrates tiene un discípulo, tenemos varias posibilidades. Una de
ellas es considerar la propiedad ser discípulo de Sócrates, representarla con la letra de relación R16 y
escribir
∃x2 R16 x2 .
Otra posibilidad es considerar la relación de aridad 2 es discípulo de y representarla con, por
ejemplo, R21 , tomar la constante de individuo c1 para que esté por el nombre “Sócrates” y escribir
∃x1 R21 x1 c1 .
También necesitaremos expresar que todos los individuos cumplen algo. Para ello introduciremos en nuestro alfabeto el símbolo ∀, llamado cuantificador universal2 , el cual también será
siempre seguido por una variable de individuo, y tal que valiéndonos de él podemos expresar “Todo
es azul” como
∀x0 R112 x0
y “Todo es discípulo de Sócrates’’ o “Todos son discípulos de Sócrates” como
∀x1 R21 x1 c1 .
Unas palabras acerca de las variables de individuo que son esos símbolos cuya grafía es una
“x” subindizada por un natural. Es muy difícil encontrar en el lenguaje natural un correlato preciso
de ellas. Tal vez en el caso en el que están afectadas por un cuantificador existencial lo que más
se acerque sean los pronombres indefinidos tipo uno, como en “Hay uno que es alto”. En el
caso de las variables que aparecen afectadas por el cuantificador universal es mucho más oscuro
el correlato con algún elemento del lenguaje natural ya que, al menos en español, la expresión
“Todos cumplen algo” funciona perfectamente elidiendo “los individuos” y en estas expresiones no
aparecen pronombres indefinidos.
El alfabeto de la lógica de primer orden incluirá los símbolos ∀, ∃, x0 , x1 , x2 , ...
Tornemos ahora nuestra atención a expresiones como “Sócrates es griego y sabio”, o “Todos
los hombres son mortales”. Consideremos la primera. En cuanto a sus condiciones de verdad, como
el lector sabrá apreciar, es totalmente equivalente a la conjunción de dos proposiciones, a saber
“Sócrates es sabio” y “Sócrates es griego”. Por supuesto, podemos expresar cada una de estas
proposiciones en el lenguaje que estamos introduciendo y si queremos expresar su conjunción no
necesitamos más que rescatar el símbolo apropiado para ello que habíamos visto al estudiar la lógica
proposicional. En cuanto a la segunda, “Todos los hombres son mortales”, parece claro que si la
queremos expresar en este marco debemos utilizar el cuantificador universal. Pero se nos presenta
un problema: cuando utilizamos el cuantificador universal expresamos que todos los individuos
cumplen algo. Pero la proposición que estamos considerando no afirma, al menos no directamente,
algo de todos los individuos (que en principio pueden ser cualquier objeto), sino meramente algo
2 Esta introducción no es estrictamente necesaria ya que se puede expresar que todos los individuos cumplen una
propiedad negando que exista alguno que no la cumpla, pero facilita la comprensión de las fórmulas.
9.1 Alfabeto
193
de todos los hombres. ¿Cómo podemos expresar que todos los hombres son mortales afirmando
algo de todos los individuos, o sea, de todos los objetos? Consideremos lo siguiente: tomemos un
objeto cualquiera del universo. Se nos pueden dar cuatro casos:
(a)
(b)
(c)
(d)
que el objeto sea hombre y sea mortal,
que el objeto sea hombre y no sea mortal,
que el objeto no sea hombre y sea mortal, o
que el objeto no sea hombre y no sea mortal.
Al afirmar que todos los hombres son mortales, lo que estamos diciendo es que jamás nos encontraremos con el caso (b). Es decir, todos los individuos, o bien serán serán mortales o bien no serán
hombres. Por lo tanto hemos encontrado una propiedad que se afirma cumplen todos los individuos,
a saber, ser mortal o no ser hombre, y afirmar que esa propiedad vale para todos los individuos
del universo es equivalente a afirmar que todos los hombres son mortales. Por supuesto, podemos
expresar esa propiedad con la disyunción y la negación, que tomaremos prestadas del lenguaje de la
lógica proposicional, o también mediante el condicional, como recordará el lector que considere la
cuestión de la equivalencia pertinente. Así, la proposición“Todos los hombres son mortales” podrá
ser expresada, entre otras posibilidades, como
∀x4 (¬R10 x4 ∨ R11 x4 )
o como
∀x2 (R10 x2 → R11 x2 )
donde se han elegido las letras de predicado R10 y R11 para que estén por la propiedad ser hombre
y ser mortal respectivamente.
Podríamos ofrecer otros ejemplos, pero en definitiva, lo que estamos fundamentando es la
inclusión en el alfabeto del lenguaje de la lógica de primer orden de todos los símbolos de los
conectivos lógicos de la lógica proposicional. Es obvio que también necesitaremos los paréntesis,
por razones análogas a las que se habían ofrecido para incluirlos en el alfabeto del lenguaje de la
lógica proposicional.
Hemos llegado al final de nuestro recorrido para definir el alfabeto de la lógica de primer
orden:
Alfabeto de la lógica de primer oden
Consta de los siguientes símbolos:
Constantes de individuo
Variables
Letras de relación o de predicado
Cuantificadores
Conectivos proposicionales
Símbolo de igualdad
Paréntesis
c0 , c1 , c2 , ...
x0 , x1 , x2 , ...
R10 , R11 , R12 , ..., R20 , R21 , R22 , ...
∀, ∃
∧, ∨, →, ↔, ¬
=
(, )
194
9.2
Capítulo 9. Sintaxis
Fórmulas
Corresponde ahora indicar exactamente cuáles cadenas de símbolos de nuestro alfabeto pertenecen al lenguaje y cuáles no. Esta descripción, que constituye el núcleo de la sintaxis, se hará también
teniendo en cuenta nuestros propósitos al formular el lenguaje. Se trata de un emprendimiento
bastante más complejo que el análogo para la lógica proposicional, y esto se debe no solamente a la
mayor riqueza en la dimensión representacional, sino también a que existirán fórmulas de nuestro
lenguaje tales que no habrá expresión corriente alguna del lenguaje natural de la cual sean una
traducción adecuada.
Esta complicación se encuentra en el núcleo del salto prodigioso que Frege hizo dar a la Lógica
al presentar un lenguaje con la capacidad expresiva que requerimos (y aun mayor). La reflexión
fregeana partió, por supuesto, de un análisis de expresiones del lenguaje natural y corrió según las
líneas que vamos a presentar brevemente.
Consideremos la oración
El cielo es azul.
En ella distinguimos un nombre, “el cielo”, y lo que la gramática ha llamado predicado, “azul”,
además de la cópula, “es”. Ese análisis en términos de sujeto y predicado que la Lógica hasta
Frege seguía a pies juntillas, fue puesto en cuestión por este iniciando un cambio totalmente
revolucionario. Frege propuso analizar esa oración, para propósitos lógicos, no en términos de
sujeto y predicado sino en términos de conceptos y objetos. Lo primero que hizo Frege fue retirar
el nombre “el cielo” de la expresión que venimos considerando obteniendo una forma incompleta:
... es azul.
Observe el lector que esta expresión incompleta no es algo que vaya a encontrar jamás en
el lenguaje natural. Sin embargo, según Frege, esta expresión que presenta un hueco, (o sea, no
debe ser confundida con lo que expresa la oración “Es azul”) se corresponde con un concepto.
Si completamos la expresión con diversos nombres, obtenemos proposiciones que por supuesto
podrán ser verdaderas o falsas: “Frege es azul”, “Mi casa es azul”, “Este tomate es azul’’. Según
Frege, los nombres denotan objetos y esas expresiones que se completan una vez que en sus
“huecos” se colocan nombres, denotan conceptos. Estas expresiones incompletas, cuya referencia
son conceptos, serán llamadas predicados3 . En este caso el concepto denotado por la expresión
generada al retirar el nombre “el cielo” es lo que llamaríamos la propiedad de ser azul. Los objetos cuyos nombres, al completar el predicado producen proposiciones verdaderas, caen bajo el
concepto, según Frege, y el conjunto de los objetos que caen bajo el concepto es la extensión del
concepto. A todos los propósitos, podemos no hablar de propiedades y hablar de conceptos. Y
más, el procedimiento de retirar nombres de la expresión de una proposición puede conducirnos a
expresar predicados cuya referencia son conceptos que reconocemos como relaciones: consideremos
Sócrates es maestro de Platón.
Si retiramos el nombre “Sócrates” obtenemos el predicado
...es maestro de Platón,
3 Es de central importancia observar que se está estableciendo una correlación entre el plano lingüístico y un plano no
língüístico. En el nivel lingüístico tenemos nombres y predicados, que refieren, respectivamente, a objetos y conceptos.
Los nombres son lo que en el habla común se considera un nombre, pero los predicados no son lo que la gramática
tradicional llama así. Son expresiones incompletas que no se encuentran en el lenguaje natural en forma aislada.
9.2 Fórmulas
195
lo que denota el concepto “ser maestro de Platón” que requiere un solo objeto para completarse
formando una proposición. Algo análogo sucede si retiramos el nombre “Platón”. Pero si retiramos
ambos nombres, “Platón” y “Sócrates”, obtenemos el predicado
... es maestro de ...
que según Frege también denota un concepto y nosotros reconocemos como como la relación “ser
maestro de”. El trabajo de Frege es más complejo que lo que acabamos de decir, entre otros motivos
porque reconoce diversos órdenes, es decir, conceptos cuyos “huecos” deben ser llenados, para
obtener proposiciones verdaderas, por nombres de otros conceptos, como por ejemplo se ve en el
siguiente caso:
Partimos de la oración
El fuego es rojo.
Retiramos el nombre “el fuego” y obtenemos
...es rojo
que denota un concepto cuyo hueco debe ser llenado por nombres de objetos para obtener proposiciones verdaderas. Pero además podemos considerar el concepto
...es un color.
Obviamente el hueco de esta última expresión puede ser llenado por el nombre de un concepto
para obtener proposiciones verdaderas. En particular podemos formar
El rojo es un color.
Entonces ...es un color denota un concepto de segundo orden ya que los nombres que llenando
su hueco forman proposiciones verdaderas son a su vez nombres de conceptos. En la lógica que
estudiaremos, la lógica de primer orden, no existirá esta proliferación de órdenes. Abundaremos
sobre el punto más adelante, pero en principio es a esto a lo que debe su nombre.
Lo dicho basta para iniciar nuestro estudio de la parte combinatoria de la sintaxis.
Comencemos considerando la proposición “El cielo es azul”. Es claro que si queremos representarla en nuestro lenguaje lo podemos hacer mediante una letra de relación unaria y una constante
de individuo, por ejemplo así:
R11 c2
Consideremos ahora la operación que hace Frege que es retirar el nombre “el cielo”. Lo que
queda debe denotar la propiedad y aparentemente para eso hemos introducido las letras de relación.
Sin embargo, será conveniente recoger la idea fregeana de que el predicado “... es azul” es algo
incompleto, listo para ser “llenado” por un nombre, obteniéndose al hacer esto, una proposición. La
indicación de ese hueco estará a cargo de las variables. Así debemos ver una expresión de nuestro
lenguaje, por ejemplo R11 x5 como destinada a representar lo que Frege llamaría un predicado, esa
estructura con huecos, que al ser llenados por nombres se convierte en una proposición, y nosotros
reconocemos como lo que denota una propiedad. Ese “llenado” por un nombre, si lo fuéramos a ver
reflejado en nuestro lenguaje sería la sustitución de la variable por una constante de individuo.
Habíamos dicho que en nuestro lenguaje tendríamos fórmulas sin un correlato directo en el
Capítulo 9. Sintaxis
196
lenguaje natural. Sucede que serán fórmulas no solamente las expresiones obtenidas una vez hecha
la sustitución de las variables por constantes de individuo, sino también aquellas que hemos traído
a cuento a través de los predicados fregeanos. Pero es claro que algo como “... es azul” no puede
ser verdadero o falso, ni tiene correlato directo en el lenguaje natural y sin embargo tendremos
fórmulas que introducimos con el propósito de representarlo. Por lo tanto tendremos fórmulas que,
en caso de que les queramos asignar un valor de verdad no tendremos una forma natural de hacerlo.
Pero esto lo veremos al tratar la semántica.
Luego de este largo interludio tenemos los elementos necesarios para indicar exactamente
cuáles cadenas de símbolos serán fórmulas en nuestro lenguaje. Comenzaremos con una definición:
Definición 9.2.1 — Términos. Llamaremos términos a las constantes de individuo y a las
variables.
Según lo que hemos discutido, aceptaremos toda cadena formada por una letra de relación
n-aria seguida por n términos será una fórmula. Además, toda cadena formada por un término
seguido por el símbolo “=” seguido por un término será una fórmula. Las fórmulas de este tipo son
especiales, lo que se recoge en la siguiente
Definición 9.2.2 — Fómulas atómicas. .
(i) Rnjt1 ...tn con t1 ...tn términos es una fórmula (llamada atómica).
(ii) t1 = t2 con t1 y t2 términos es una fórmula (llamada atómica).
Por ejemplo, son fórmulas atómicas:
R50 c1 c4 x2 x7 c1
R20 c1 c2
R123 c3
x25 = x445
c3 = c8
c16 = x2
Observe que en el caso de que algunos de los términos que aparecen en una fórmula atómica sean
variables, esas fórmulas no representarán proposiciones, al menos no en el sentido de que puedan
ser consideradas verdaderas o falsas directamente.
Volvamos por un momento a los conceptos fregeanos. Supongamos que digo que “Todo es
azul”. Esto significa que al llenar con el nombre del objeto que sea el hueco de “... es azul” obtendré
una proposición verdadera. ¿Cómo expresamos en nuestro lenguaje formal esa condición de que,
sin importar el nombre4 elegido para llenar el hueco, se obtendrá una proposición verdadera? Lo
que tendremos es, por ejemplo, R13 x0 y queremos expresar que R13 cn es verdadera para todo n. Para
esto utilizamos el cuantificador universal que, recordará el lector, debe aparece como un bloque
indisoluble formado por él seguido por una variable. En nuestro caso obtendríamos
∀x0 R13 x0
Esta consideración nos impulsa a establecer la siguiente regla sintáctica: Si A es una fórmula,
entonces para todo n, ∀xn A es una fórmula. Consideraciones análogas nos llevan a establecer que si
4 Estamos suponiendo que los nombres son nombres genuinos, es decir, expresiones denotativas, no cosas como “el
mayor número natural”.
9.2 Fórmulas
197
A es una fórmula entonces para todo n, ∃xn A es una fórmula. Observe que no se está requiriendo que
A tenga la variable que está adosada al cuantificador ni ninguna otra condición. Vamos a estipular
que se puede cuantificar cualquier fórmula, como veremos en breve.
Finalmente tenemos que describir cómo se comportan sintácticamente los conectivos de la
lógica proposicional.
Las reglas sintácticas que los rigen serán por supuesto totalmente análogas a las que vimos al
estudiar esa lógica. Resumiendo, podemos decir lo siguiente: cualquier fórmula de la lógica de
primer orden se obtiene a través de un proceso que comienza tomando términos, formando fórmulas
atómicas, cuantificándolas y/o conectándolas a través de los conectivos de la lógica proposicional y
a través de este proceso solo se obtienen fórmulas. Esto nos permite ofrecer la siguiente definición
de secuencia de formación:
Definición 9.2.3 — Secuencia de formación para la lógica de primer orden. Una se-
cuencia de formación es una secuencia finita en la que cada elemento cumple lo siguiente:
(i)
(ii)
(iii)
(iv)
(v)
(vi)
(vii)
(viii)
O bien es una fórmula atómica.
O bien es de la forma ¬A, siendo A es un elemento anterior en la propia secuencia.
O bien es de la forma (A ∧ B), siendo A y B elementos anteriores en la propia secuencia.
O bien es de la forma (A ∨ B), siendo A y B elementos anteriores en la propia secuencia.
O bien es de la forma (A → B), siendo A y B elementos anteriores en la propia secuencia.
O bien es de la forma (A ↔ B), siendo A y B elementos anteriores de la propia secuencia.
O bien es de la forma ∀xn A, siendo A un elemento anterior en la propia secuencia.
O bien es de la forma ∃xn A, siendo A un elemento anterior en la propia secuencia.
Definición 9.2.4 — Fórmula de la lógica de primer orden. A es una fórmula de lógica de
primer orden si y solo si existe una secuencia de formación para la la lógica de primer orden de
la cual A es el último elemento.
Notación 9.1. Al lenguaje de la lógica de primer orden, o sea, al conjunto de las fórmulas de la
lógica de primer orden lo notaremos L PO
Es muy importante observar que, tal como habíamos dicho, no hacemos esta construcción para
que una fórmula atómica con variables represente una proposición. Al sustituir sus variables por
constantes de individuo obtenemos la representación de una proposición. Pero no es esta la única
forma de obtener proposiciones a partir de fórmulas atómicas que tienen variables. El caso que
hemos visto nos servirá de ejemplo. Partimos del predicado
...es azul
que representamos como
R13 x0 .
Si cuantificamos sobre esta fórmula universalmente obtenemos un representante de la proposición “Todo es azul”
∀x0 R13 x0
Lo mismo sucede si cuantificamos existencialmente: obtenemos un representante de la proposición “Algo es azul”
Capítulo 9. Sintaxis
198
∃x0 R13 x0
O sea que cuantificando hemos obtenido representantes de proposiciones. Esto se debe a que las
variables que aparecían en la fórmula sin cuantificar quedan bajo el alcance de un cuantificador.
Cuando una variable de una fórmula queda bajo el alcance de un cuantificador se dice que esta
variable es ligada y cuando no queda bajo el alcance de cuantificador alguno se dice que esta
variable es libre. La definición precisa es:
Definición 9.2.5 — Variable libre/variable ligada. .
Las variables de una fórmula atómica son libres y una fórmula atómica no tiene variables
ligadas.
Las variables libres (ligadas) de la fórmula ¬A son las variables libres (ligadas) de A.
Las variables libres (ligadas) de las fórmulas (A ∧ B), (A ∨ B), (A → B), (A ↔ B) son las
variables libres (ligadas) de A y de B.
Las variables libres de las fórmulas ∀xn A y ∃xn A son las variables libres de A excepto xn .
Las variables ligadas de las fórmulas ∀xn A y ∃xn A son las variables ligadas de A y xn .
Debido a las reglas sintácticas, cada vez que en una fórmula aparece un cuantificador ∀xn o ∃xn ,
debe ser seguido por una fórmula A. Esa fórmula A es llamada el alcance del cuantificador. Si la
fórmula A tiene la variable libre xn , se dice que esa variable cae bajo el alcance del cuantificador,
quedando ligada por el mismo.
Por ejemplo:
En R50 c1 c4 x2 x7 c1 las variables x2 y x7 son libres.
En ∀x0 R20 c1 x0 la variable x0 es ligada.
En ∃x0 R20 x4 x0 la variable x0 es ligada y x4 es libre.
En ∀x445 ∀x25 x25 = x445 ambas variables están ligadas.
En ∀x2 ∀x3 R30 x3 x4 x2 las variables x2 y x3 son ligadas y x4 es libre.
Examinemos ahora la fórmula (∃x1 R21 x1 x2 ∧ R21 c0 x1 )
. En ella aparece la variable x1 dos veces. (Nunca se cuenta la aparición que está “pegada” al
cuantificador). Decimos que esa variable tiene dos ocurrencias en la fórmula. ¿Está la variable x1
libre o ligada en la fórmula? La respuesta es: Ambas cosas, está libre y está ligada. En la primera
ocurrencia está ligada -bajo el alcance del cuantificador existencial, porque este está seguido por la
fórmula R11 x1 que es la que contiene esa primera ocurrencia, y es el alcance del cuantificador-, y
en la segunda está libre, ya que no cae bajo el alcance de cuantificador alguno. En definitiva, las
ocurrencias libres de las variables son aquellas que no caen bajo el alcance de cuantificador alguno,
y las ocurrencias ligadas de las variables son aquellas que caen bajo el alcance de algún cuantificador.
En nuestra fórmula, el alcance del único cuantificador que aparece es R21 x1 x2 , quedando todo el
resto fuera de este alcance. La variable x2 si bien está en el alcance del cuantificador, no cae bajo él,
porque en general, la variable xn solo puede caer bajo el alcance de ∀xn o de ∃xn .
Veámoslo con detalle analizando una de sus secuencias de formación, en la que no justificaremos
la pertinencia de cada uno de sus términos sino que solo atenderemos a la calidad de libre o ligada
de las variables que aparezcan:
1.
2.
3.
4.
En R21 x1 x2 las variables x1 y x2 están libres.
En ∃x1 R21 x1 x2 la variable x1 está ligada y la variable x2 está libre.
En R21 c0 x1 la variable x1 está libre.
En (∃x1 R21 x1 x2 ∧ R21 c0 x1 ) la variable x1 está libre (en su primera ocurrencia, que proviene de
9.3 El teorema de lectura única
199
3) y está ligada (en su segunda ocurrencia, que proviene de 2), mientras que la variable x2
está libre.
Las fórmulas con variables libres no representarán proposiciones, mientras que las fórmulas que no
las tengan sí lo harán. Eso justifica la siguiente
Definición 9.2.6 — Fórmula abierta. Fórmula cerrada o sentencia. .
Las fórmulas que tienen variables libres se llaman fórmulas abiertas.
Las fórmulas que no tienen variables libres se llaman fórmulas cerradas o sentencias.
Para que una fórmula sea abierta basta que tenga una ocurrencia libre de una variable.
9.3
El teorema de lectura única
Al igual que hicimos al ocuparnos de la lógica proposicional, debemos preguntarnos por la
posibilidad de que aparezcan fórmulas estructuralmente ambiguas, es decir, que puedan ser leídas,
por ejemplo, como una conjunción de dos fórmulas y también como la cuantificación universal de
una fórmula, lo que tendría efectos catastróficos para nuestros propósitos.
Gracias a la introducción de los paréntesis en el lenguaje y a las reglas de su disposición, este
indeseable resultado se evita. La demostración es totalmente análoga a la que hicimos para el
lenguaje de la lógica proposicional. Para llevarla a cabo hay que notar que desde el punto de vista
sintáctico, los cuantificadores se comportan como la negación (es decir, se introducen antecediendo
a una fórmula), y que las fórmulas atómicas no pueden ser a la vez atómicas y de otro tipo, y
que dentro de las atómicas, si una fórmula es una igualdad no es una letra de relación seguida de
términos.
Debido a que no se necesita ninguna idea nueva para realizarla, no haremos la demostración.
Directamente consignaremos el resultado pertinente:
Teorema 9.3.1 — Lectura única. Toda fórmula de L PO tiene una y solo una de las siguientes
formas:
1. Rnjt1 ...tn o t1 = t2 (o sea, es una fórmula atómica)
2. ¬A, siendo A una única fórmula.
3. (A ∧ B), siendo A y B fórmulas únicas.
4. (A ∨ B), siendo A y B fórmulas únicas.
5. (A → B), siendo A y B fórmulas únicas.
6. (A ↔ B), siendo A y B fórmulas únicas.
7. ∀xn A, siendo A una única fórmula.
8. ∃xn A, siendo A una única fórmula.
9.4
Árbol de formación de una fórmula
El Teorema de lectura única nos asegura que cada fórmula tiene un árbol de formación, que es
un diagrama que se construye del siguiente modo:
1. En la raíz del árbol se coloca la fórmula en cuestión.
2. Como es una fórmula, o bien:
a) Es una fórmula atómica (en cuyo caso no tiene descendientes)
Capítulo 9. Sintaxis
200
b) Es de la forma ¬A, ∀xn A, o ∃xn A, en cuyo caso tiene como descendiente a A.
c) Es de la forma (A ∧ B), (A ∨ B), (A → B), (A ↔ B), en cuyo caso tiene como descendientes a A y a B.
3. Se repite el proceso con los descendientes obtenidos, hasta que solo queden fórmulas atómicas
en los nodos terminales del árbol.
Ejemplo 9.1 Árbol de formación de la fórmula ∀x2 ¬∃x3 ((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 )
∀x2 ¬∃x3 ((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 )
¬∃x3 ((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 )
∃x3 ((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 )
((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 )
(R12 x3 x2 ∧ ¬R11 x3 ) ∀x5 R14 x5 c7
R12 x3 x2 ¬R11 x3
R14 x5 c7
R11 x3
Las fórmulas que aparecen en los nodos del árbol son las subfórmulas de la fórmula dada
(incluyendo a ella misma).
9.5
Lenguajes de Primer Orden
Hemos visto que en la lógica de primer orden disponemos de un conjunto infinito de símbolos
que consta de los paréntesis, los conectivos de la lógica proposicional, los cuantificadores, las
variables, las constantes de individuo y las letras de relación, además del símbolo específico para
la igualdad. Los paréntesis funcionan como si fueran signos de puntuación, que evitan el traspaso
de problemas estructurales del lenguaje natural al lenguaje formal y aseguran la lectura única de
las fórmulas. Los conectivos heredados de la lógica proposicional tendrán en todos los contextos
el mismo “comportamiento” y lo mismo podremos decir de los cuantificadores, las variables y el
símbolo de igualdad. Sin embargo hemos visto que la introducción de constantes de individuo y
letras de relación es debida a nuestro deseo de traducir a nuestro lenguaje formal nombres de objetos
y de propiedades o relaciones. Así, aparece una diferencia fundamental: en todos los contextos
el símbolo “∧” tendrá el mismo comportamiento, lo que es decir que tendrá siempre el mismo
significado, a saber, estará indicando algo verdadero si y solo si los dos componentes que conecta
son verdaderos. Y lo mismo podemos decir de los demás conectivos lógicos, de los cuantificadores
y del símbolo de la igualdad.
Por otro lado, y en contraste, un nombre no significará lo mismo en todos los contextos
imaginables. La evaluación de si una proposición que incluye un nombre es verdadera o falsa
depende en forma estricta de la consideración de la denotación de ese nombre. Por ejemplo, la
proposición “Miguel Ángel es un gran pintor” es verdadera si “Miguel Ángel” denota cierto
florentino famoso que vivió en el siglo XVI, y si por el conjunto de los grandes pintores entendemos
a aquellos individuos que son así calificados en al menos la mitad de los libros de Historia de la
9.5 Lenguajes de Primer Orden
201
Pintura. Pero podría ser falsa si cambiásemos la denotación del nombre de objeto “Miguel Ángel”
o la denotación del nombre de propiedad “ser un gran pintor”.
Debido a esta diferencia, las constantes de individuo y las letras de relación serán llamadas
símbolos no lógicos y los restantes símbolos serán llamados símbolos lógicos.
Esta diferencia es importante y tiene efectos prácticos: cuando uno desea trabajar con la lógica
de primer orden, normalmente lo hace para enfrentar problemas concretos que involucran un
conjunto dado de individuos y de relaciones. Como ejemplo trivial, puedo estar interesado en un
problema que involucra cinco triángulos y la relación entre ellos que resulta relevante es “tener
mayor área que”. En ese caso, está claro que no necesito más que cinco constantes de individuo y
una letra de relación, que será binaria. Al hacer esa selección, se determina un lenguaje de primer
orden. Es decir, un lenguaje de primer orden queda determinado haciendo una selección de símbolos
no lógicos. De aquí surge la existencia de infinitos lenguajes de primer orden. Así, cada lenguaje de
primer orden tiene un alfabeto que consta de paréntesis, cuantificadores, los conectivos de la lógica
proposicional, variables, el símbolo de igualdad y un conjunto (finito o infinito) de constantes de
individuo y de letras de relación. Entre los infinitos lenguajes de primer orden se cuenta el lenguaje
vacío, que es aquel que no tiene símbolos no lógicos. Por ejemplo, la fórmula
∀x0 ∀x1 x0 = x1
pertenece a este último lenguaje. De aquí en más nos referiremos a cada lenguaje de primer
orden particular indicando cuál es el conjunto de sus símbolos no lógicos. Por ejemplo,
El conjunto de los símbolos no lógicos de L1 es {R20 , R21 }
El conjunto de los símbolos no lógicos de L2 es {c0 , c1 }
El conjunto de los símbolos no lógicos de L3 es {R30 , R20 , R21 , R11 , c0 , c1 }
A veces, en un abuso notacional se escribe L1 = {R20 , R21 } aunque claramente el lenguaje no es
ese conjunto, sino que queda determinado por él.
10. Semántica
A semántica de la lógica de primer orden consistirá en la atribución de los valores de verdad
Verdadero o Falso bajo determinadas interpretaciones a algunas fórmulas del lenguaje. Esto
requerirá especificar cómo hacerlo para cada uno de los infinitos lenguajes de primer orden.
En lógica proposicional manejábamos interpretaciones que eran modelos o contramodelos
de las fórmulas, y esas interpretaciones quedaban determinadas a través de las asignaciones
proposicionales, es decir, una vez que dábamos un único valor de verdad a cada letra proposicional.
En la lógica que estamos estudiando una interpretación será algo bastante más complejo, con un
universo extralingüístico a tener en cuenta mucho más rico.
L
10.1
Interpretaciones
Considere un lenguaje de primer orden L dado. L está determinado por sus símbolos no
lógicos y una interpretación para L consistirá en algo complejo destinado a dar “significado” a
esos símbolos: un conjunto no vacío M y una función de denotación. El conjunto M puede ser
cualquiera –siempre que no sea vacío– y será llamado dominio de la interpretación. La función
de denotación será la encargada de otorgar “significado” a los símbolos no lógicos, asignándole
algún objeto a cada uno de ellos. Normalmente la interpretación se designa con el mismo nombre
que su dominio, solo que se lo escribe en un tipo de letra especial. De ese modo, hablaremos de la
interpretación M de dominio M.
Lo dicho hasta el momento es fundamental, y merece un recuadro antes de hacer las precisiones
necesarias.
Dado un lenguaje de primer orden L , una interpretación para L consta de un conjunto no
vacío –el dominio de la intepretación– y una función de denotación que asigna algún objeto a
cada uno de los símbolos no lógicos de L .
El lector hará bien en este punto pensando en la enorme diferencia que existe entre la semántica
de L P y la que queremos establecer para L PO: en la primera, las interpretaciones ya eran
Capítulo 10. Semántica
204
asignaciones de valores de verdad a todas las fórmulas del lenguaje, mientras que en la segunda, las
interpretaciones no involucran directamente los valores de verdad. Por supuesto, las fórmulas serán
verdaderas o falsas bajo una interpretación dada, pero la interpretación misma no es la asignación
de valores de verdad a las fórmulas.
Estudiemos ahora cómo deben ser esas funciones de denotación que, junto con un dominio,
constituyen las interpretaciones. Ellas deben asignar algún objeto a cada uno de los símbolos no
lógicos del lenguaje L sobre el que se hace la interpretación, objeto que será llamado la denotación
del símbolo. Como los símbolos no lógicos son las constantes de individuo y las letras de relación,
debemos considerar cómo tratan las funciones de denotación a cada una de esas categorías.
Las constantes de individuo fueron introducidas para que funcionaran como nombres de
individuos, y el dominio de la interpretación funcionará como “universo del discurso”. Por lo
tanto, la función de denotación asignará a cada una de las constantes de individuo del lenguaje
L un elemento del conjunto M. Los elementos de M que quedan asignados como denotación de
constantes de individuo son llamados individuos destacados en la interpretación.
Veamos un ejemplo. Sea el lenguaje L1 que queda determinado por {c3 , c5 , c11 , R14 , R20 }. Sea
el conjunto M = {Juan, María, Pedro, Diego, Elena}, en el que todos sus elementos son personas.
Necesitamos asignar una denotación a cada constante de individuo de L1 , y la denotación de cada
una de ellas debe ser un único individuo de M. Podemos elegir entonces:
c3 denota a María
c5 denota a Pedro
c11 denota a Elena.
En general, el objeto denotado se indica supraindizando el símbolo al que se le asigna denotación
con el elegido para nombrar la interpretación. Así
cM
3 = María
cM
5 = Pedro
1
cM
11 = Elena .
Nos resta asignar denotación a los otros símbolos no lógicos, o sea, a las letras de relación.
Concentrémonos en las unarias. Habíamos dicho que deseábamos que estos símbolos indicasen
propiedades de individuos. Es claro que la propiedad en cuestión determina el conjunto de los
individuos que la poseen, y que conociendo ese conjunto siempre haremos atribuciones correctas de
la propiedad a individuos particulares. Por esto, consideraremos que la denotación de un símbolo
de relación unaria será un subconjunto de M, el subconjunto formado por aquellos individuos a los
que se les atribuye la propiedad. Observe que al tomar esta decisión nos hemos desprendido de la
idea complicada de “propiedad” y nos hemos quedado con la mucho más precisa de “conjunto”.
Ejemplifiquemos con el caso que venimos tratando en el cual tenemos el lenguaje L1 determinado por {c3 , c5 , c11 , R14 , R20 } y deseamos construir una interpretación con dominio M={Juan,
María, Pedro, Diego, Elena}. En el lenguaje tenemos una letra de relación unaria R14 y queremos
que esta indique la propiedad ser mujer. Para ello, haremos que la denotación de esa letra sea el
conjunto de los individuos que tienen la propiedad. Por lo tanto nuestra elección será:
M
R14 denota a {María, Elena}, o R14
1 Hemos
= {María, Elena}
utilizado el símbolo “=” en el metalenguaje. Para evitar confusiones podríamos haber optado por otro
símbolo para la igualdad en el lenguaje formal, pero esto no parece muy natural. Con un mínimo de atención, se puede
evitar toda consecuencia indeseable de esta situación
10.1 Interpretaciones
205
Falta considerar cómo se debe asignar denotación a las letras de relación n-arias con n > 1.
Obviamente queremos que estos símbolos indiquen relaciones de su aridad.
Consideremos una relación n-aria cualquiera. Esta vincula n individuos en un orden. Si conociéramos todos los conjuntos ordenados de n individuos que efectivamente se encuentran en la
relación, siempre haremos atribuciones correctas con respecto a esta. Por ejemplo, si no sé que “es
hermano de” se puede reducir a “tiene los mismos padres que”, pero dada una familia cualquiera
conozco cuáles pares ordenados de individuos están vinculados por la relación “es hermano de”
nunca haré una atribución incorrecta por más que desconozca todo acerca de las relaciones de
paternidad y maternidad.
En forma totalmente análoga a lo que habíamos hecho con las letras de relación unaria, a las
cuales habíamos asignado como denotación subconjuntos de M, a las letras de aridad superior n les
asignaremos como denotación conjuntos de n-uplas ordenadas de elementos del conjunto.
Volvamos a nuestro ejemplo del lenguaje L1 , del cual nos falta asignar denotación a una letra
de relación binaria: R20 . Supongamos además que el conjunto
M = {Juan, María, Pedro, Diego, Elena}
es el de los integrantes de una familia formada por el matrimonio de Juan y María cuyos hijos
son Diego, Pedro y Elena. ¿Cómo deberíamos hacer denotar a la letra R20 para que indicase la
relación “...es hijo de...”? Está claro que coloquialmente diríamos que Diego, Pedro y Elena son
los hijos en esta familia. Sin embargo si a partir de esto alguien desea hacer que la denotación
de la letra R20 sea el conjunto {Diego, Pedro, Elena} estaría cometiendo un grave error. La relación “...es hijo de...” se da entre pares ordenados de individuos. En nuestro caso, Pedro es hijo
de María pero María no es hija de Pedro. Como Pedro es hijo de María y no al revés, diremos
que el par ordenado hPedro, Maríai está en la relación en cuestión mientras que el par hMaría,
Pedroi no está en esa relación. Nuevamente es claro que la relación determina los pares que
están en ella y que conociendo esos pares siempre atribuiremos correctamente la existencia de la
relación entre dos individuos. Es por esto que optaremos por asignar como denotación de la letra de
relación R20 al conjunto de pares ordenados que están en la relación “...es hijo de...”. En nuestro caso,
R20 denota a {hJuan,Diegoi, hJuan, Pedroi, hJuan, Elenai, hMaría,Diegoi,
hMaría, Pedroi, hMaría, Elenai}, o
M
R20 = {hJuan,Diegoi, hJuan, Pedroi, hJuan, Elenai, hMaría,Diegoi, hMaría, Pedroi,
hMaría, Elenai}
Vemos que hemos asimilado la noción de “relación binaria” con la de “conjunto de pares
ordenados”. De hecho, en matemática se define una relación binaria justamente así: es un conjunto
de pares ordenados, y en general, una relación n-aria se define como un conjunto de n-uplas
ordenadas2 .
Resumimos ahora el caso general. Si nuestro lenguaje las contiene, la función de denotación
asignará, a cada constante de individuo, un elemento del conjunto M; a cada letra de relación unaria,
un subconjunto de M; a cada letra de relación binaria, un conjunto de pares ordenados de elementos
de M; y en general, a cada letra de relación n-aria, un conjunto de n-uplas ordenadas de elementos
de M.
2 Es de notar que este compromiso indisoluble de la interpretaciones con los conjuntos hace que la lógica sea
extensional, o sea, las interpretaciones solo dependerán de los elementos de los conjuntos que involucren, y no de
la forma en que estos se describan. Si cambiamos un elemento, tenemos una nueva interpretación. Si alteramos la
descripción de uno de los conjuntos que involucra, y la nueva descripción sigue correspondiendo al mismo conjunto, la
interpretación es la misma. Veremos más sobre esto al tratar contextos indirectos.
Capítulo 10. Semántica
206
Estamos en condiciones de caracterizar completamente las interpretaciones para los lenguajes
de primer orden:
Definición 10.1.1 Interpretación para un lenguaje de primer orden
Una interpretación M para un lenguaje de primer orden dado L es un par formado por:
(a) Un conjunto no vacío M (llamado dominio de la interpretación)
(b) Una función de denotación que asigna
(i) A cada constante ci de L un elemento cM
i de M.
M
1
(ii) A cada letra de relación unaria Ri de L un subconjunto R1i de M y
(iii) A cada letra de relación n-aria Rni , (n > 1) de L un conjunto de n-uplas ordenadas
M
Rni de elementos de M.
10.2
Estructuras
Es claro que una interpretación vincula dos niveles: uno lingüístico, constituido por los símbolos
no lógicos del lenguaje y otro conjuntístico constituido por un conjunto, elementos de ese conjunto,
subconjuntos de ese conjunto, conjuntos de pares ordenados de elementos de ese conjunto, etc.
Este segundo nivel conjuntístico determina lo que se llama una estructura. La estructura queda
determinada considerando en orden el conjunto, las denotaciones de las letras de individuo, las
denotaciones de las relaciones unarias, las denotaciones de las relaciones binarias, etc. Las denotaciones de las constantes de individuo se consideran en el orden que dan sus subíndices y lo mismo
ocurre con las denotaciones de las letras de la misma aridad. En el ejemplo que hemos trabajado, la
estructura es la siguiente:
M = hM, María, Pedro, Elena, D, Hi
siendo
M = {Juan, María, Pedro, Diego, Elena}
D = {María, Elena}
H = {hJuan,Diegoi, hJuan, Pedroi, hJuan, Elenai, hMaría,Diegoi,
hMaría, Pedroi, hMaría, Elenai}
Una estructura, siguiendo la convención recién mencionada determina una interpretación. Por
ejemplo, sea el lenguaje
L4 = {c4 , c7 , c8 , R11 , R14 , R23 , R35 }.
y la estructura
A = hA; a, b, a; B, C; D; Ei
donde
A = {a, b, c, d}
B = {d}
C = {b, c}
D=∅
E = {ha, b, ai, ha, b, ci, hd, d, di}
10.3 Valores de verdad bajo una interpretación
207
La estructura nos indica unívocamente la interpretación porque
En primer lugar aparece el conjunto sobre el que se hace la interpretación.
El primer elemento destacado que aparece es la denotación de la constante de individuo de
subíndice más bajo de nuestro lenguaje. En nuestro caso, la denotación de c4 es el elemento
a.
Análogamente, quedan determinadas las denotaciones de las restantes constantes de individuo:
c7 denota al elemento b y c8 denota al elemento a.
En forma similar, se encuentra la denotación de las letras de predicado: R11 denota el conjunto
B, R14 denota el conjunto C, R23 denota el vacío y R35 denota al conjunto E.
Por supuesto, la interpretación también determina unívocamente la estructura. Es por esto que
se puede hablar indistintamente de una interpretación o de una estructura sabiendo cómo encontrar
una a partir de la otra.
La estructura y la interpretación se denotan frecuentemente de la misma manera, colocando en
una tipografía especial el nombre del conjunto sobre el cual se construye. Es claro que para un mismo
conjunto, existen muchas estructuras. Es posible que necesitemos diferenciar dos interpretaciones
o estructuras sobre un mismo conjunto, y en ese caso lo haremos subindizando el nombre del
conjunto con una tipografía especial. Así, Mα y Mβ son dos interpretaciones o estructuras de L
sobre el conjunto M.
Por ejemplo, consideremos las siguientes estructuras, donde B, C, D y E son los conjuntos que
vimos anteriormente, y F = ∅:
A1 =hA; a, b, a; B, C; D; Ei, y A2 = hA; a, a, b; C, B; D; Fi
En ambas el conjunto A es {a, b, c, d}, pero la función de denotación sobre el lenguaje
L4 = {c4 , c7 , c8 , R11 , R14 , R23 , R35 } es diferente:
10.3
10.3.1
Denotación en A1
Denotación en A2
c4
a
a
c7
b
a
c8
a
b
R11
{d}
{b, c}
R14
R23
R35
{b, c}
{d}
∅
∅
{ha, b, ai, ha, b, ci, hd, d, di}
∅
Valores de verdad bajo una interpretación
Fórmulas atómicas
El camino que vamos a seguir es muy parecido al que ya vimos en lógica proposicional:
resolveremos el problema de la asignación de valores de verdad a las fórmulas más simples, es
decir, las atómicas, y a partir de esto asignaremos valores de verdad a las más complejas.
Una fórmula atómica solo puede tener dos formas: o bien es de la forma Rnit1 , ...,tn , donde cada
uno de los ti es un término (esto es, una variable o una constante de individuo) o bien es de la forma
t1 = t2 , donde t1 y t2 son términos. Consideremos dos casos:
208
Capítulo 10. Semántica
1. Ninguno de los términos que aparece en la fórmula atómica es una variable. Esto, a su vez,
nos da dos posibilidades:
a) La fórmula atómica en cuestión es de la forma Rnit1 , ...,tn y además todos los términos
que aparecen en ella son constantes de individuo. Dada una interpretación M , esta
asigna denotación tanto a la letra de relación como a los términos que aparecen en la
fórmula. Diremos que la fórmula Rnit1 , ...,tn es verdadera bajo la interpretación M si y
solo si la n-upla formada por las denotaciones de los términos t1 , ...,tn (en ese orden)
pertenece a la denotación de la letra de relación Rni , o sea, la interpretación M hace
M
verdadera a la fórmula Rnit1 , ...,tn si y solo si ht1M , ...,tnM i pertenece a Rni .
b) La fórmula atómica en cuestión tiene la forma t1 = t2 y ambos términos son constantes de individuo. Diremos que la interpretación M la hace verdadera si y solo si la
denotación de ambos términos es la misma en esa interpretación, o sea, t1M = t2M 3 .
2. Alguno de los términos que aparece en la fórmula atómica es una variable. Ya expusimos
las razones por las cuales estas fórmulas no son aptas para representar proposiciones. Por
ello, no asignaremos valores de verdad a fórmulas atómicas que incluyan variables. Esto,
que en principio puede parecer algo defectuoso o arbitrario, tiene un correlato claro en el
lenguaje natural. Suponga que estamos trabajando sobre los números naturales, considerando
la propiedad ser mayor que 15. Si decimos algo como “x es mayor que 15”, lo que con un
lenguaje de primer orden podría ser perfectamente representado a través de la fórmula R11 x0 ,
no estoy expresando una proposición. Lo que expresado no tiene un valor de verdad. Se
obtiene una proposición si se sustituye la x por un nombre o si se cuantifica. Pero sea como
sea, lo expresado no es una proposición, no tiene valor de verdad y por lo tanto, en nuestra
semántica no asignaremos valores de verdad a fórmulas atómicas que contengan variables.
Observe el lector que una fórmula atómica con variables es inevitablemente una fórmula
abierta. Por lo tanto hemos descrito cómo asignar inequívocamente un valor de verdad bajo
una interpretación a una fórmula atómica cerrada y hemos optado por considerar que las
fórmulas atómicas abiertas carecerán de valor de verdad.
10.3.2
Cuantificador universal
Sabemos por las prescripciones sintácticas que siendo A una fórmula, ∀xn A será una fórmula.
Y siguiendo nuestra idea de una semántica composicional, el valor de verdad de esta última debe
depender de fórmulas más simples que ella. Como dijimos, lo que expresa coloquialmente la
fórmula ∀xn A es que todos los elementos del conjunto dado por la interpretación “cumplen” lo
que expresa la fórmula A. Guiados por ese principio asignaremos valores de verdad a las fórmulas
cuantificadas universalmente. Consideremos los siguientes casos.
1. A partir de una fórmula A, que no tiene ocurrencias de la variable xn se forma la fórmula
∀xn A. Este es el caso llamado cuantificación vacua. El valor de verdad de la fórmula ∀xn A
bajo la interpretación dada será el valor de verdad de A bajo la interpretación dada en caso de
que lo tenga.
2. A partir de una fórmula A que tiene ocurrencias de la variable xn y además otras variables
libres se forma la fórmula ∀xn A, que es abierta. Por consideraciones análogas a las ya hechas
anteriormente no asignaremos valor de verdad a esta fórmula.
3. A partir de la fórmula A cuya única variable libre es xn se forma la fórmula ∀xn A. Este caso
merece consideraciones especiales que desarrollamos inmediatamente.
3 Observe que esto implica asignar denotación fija al símbolo “=”: la denotación de ese símbolo es siempre el
conjunto {ha, ai : a ∈ M}.
10.3 Valores de verdad bajo una interpretación
209
Debemos asignar un valor de verdad a la fórmula ∀xn A donde A tiene a xn como su única variable
libre, y esto debe hacerse en una forma dependiente de fórmulas más simples que ella. Parece
natural entonces decir que la fórmula ∀xn A será verdadera si y solo si cada vez que sustituimos todas
las ocurrencias libres de la variable xn en A por una de las constantes de individuo del lenguaje,
obtenemos una fórmula verdadera. Sin embargo esto, natural como es, constituye un error. Es
importante tener claro por qué.
Volvamos a considerar el ejemplo del matrimonio formado por Juan y María cuyos hijos son
Diego, Pedro y Elena. Formemos un lenguaje de primer orden que conste de dos constantes de
individuo c1 y c2 y dos letras de relación unarias R11 y R12 . El dominio de la interpretación será
{Juan, María, Diego, Pedro, Elena}. La denotación de c1 será María, la de c2 será Elena, la de R11
será el subconjunto {María, Elena} y la de R12 será {Juan, Diego, Pedro}. Observe que la letra de
relación R11 denota la propiedad ser mujer y la letra R12 denota la propiedad ser hombre.
Considere ahora la expresión “Todos son mujeres”. Claramente en esta interpretación la proposición expresada debería ser considerada falsa ya que en el conjunto hay individuos que no son
mujeres. En nuestro lenguaje formal esa proposición se representaría como
∀x0 R11 x0 .
A pesar de que esa fórmula debería ser considerada falsa bajo la interpretación dada, se cumple
lo siguiente: si sustituimos la variable cuantificada por cualquier constante de individuo de nuestro
lenguaje en la fórmula que sigue al cuantificador, obtenemos una fórmula verdadera:
1. Sustituyendo x0 por c1 en R11 x0 obtenemos R11 c1 , la que es verdadera bajo la interpretación ya
que la denotación de la constante (María) pertenece a la denotación de la letra de relación
({María, Elena}).
2. Sustituyendo x0 por c2 en R11 x0 obtenemos R11 c2 , la que es verdadera bajo la interpretación ya
que la denotación de la constante (Elena) pertenece a la denotación de la letra de relación
({María, Elena}).
Y no tenemos más constantes de individuo en el lenguaje para realizar la sustitución. O sea, es
verdad que, siempre que sustituimos la variable libre por una constante de individuo en nuestro lenguaje en la fórmula A obtenemos una fórmula verdadera. Sin embargo, sería claramente incorrecto
asignar el valor de verdad verdadero a la fórmula ∀x0 R11 x0 bajo la interpretación considerada.
Hay más de un modo de resolver este problema. Nosotros optaremos por esta línea de pensamiento: nos vemos en esta situación debido a que nuestro lenguaje no provee nombres para todos los
elementos del dominio de la interpretación, y de esta manera resulta una suerte de “invisibilidad” de
algunos elementos de ese conjunto a través de las fórmulas más simples que estamos considerando.
Por lo tanto, una vía de solución es dotar a nuestro lenguaje de nombres para todos los elementos
del dominio de la interpretación. Si dispusiéramos de un nombre para cada elemento del dominio,
o sea, si cada elemento del dominio fuera denotado por una constante de individuo del lenguaje
sería perfectamente correcto este enfoque sustitucional.
De todo esto surge la necesidad de considerar extensiones del lenguaje de primer orden con el
que estemos trabajando. Una extensión L + de nuestro lenguaje L será cualquier lenguaje que se
obtenga agregando símbolos no lógicos a L . De todas las extensiones posibles de un lenguaje, al
estar trabajando con una interpretación, nos interesarán aquellas que nos permiten dar un nombre
a cada elemento del dominio de la interpretación. Es decir, agregaremos tantas constantes de
individuo como sea necesario para que cada elemento del dominio sea denotado por al menos una
constante.
En el ejemplo anterior teníamos un lenguaje con dos constantes de individuo c1 y c2 y el
dominio tenía cinco elementos: Juan, María, Diego, Pedro y Elena. Según lo que venimos diciendo
Capítulo 10. Semántica
210
extendemos el lenguaje de forma tal que tengamos constantes de individuo suficientes como para
nombrar cada elemento del conjunto. En nuestro caso, eso implica agregar por lo menos tres
constantes de individuo (esto es lo mínimo que hay que agregar pero se pueden agregar más).
Obviamente, al cambiar el lenguaje cambia la interpretación, ya que debemos asignar denotación
a las constantes añadidas. Formamos entonces una nueva interpretación M + que tiene el mismo
dominio que M (la interpretación que se había dado para el lenguaje sin extender), coincide con
M en la denotación de los símbolos de L y otorga denotación a las nuevas constantes de tal forma
que cada elemento del dominio sea denotado por alguna de ellas.
A L , que está determinado por c1 , c2 , R11 y R12 le agregamos tres constantes de individuo
resultando L + que queda determinado por c1 , c2 , R11 , R12 , c3 , c4 y c5 .
La interpretación M + queda definida así:
El dominio M = {Juan, María, Diego, Pedro, Elena}.
La denotación de c1 será María, la de c2 será Elena, la de R11 será el subconjunto {María,
Elena} y la de R11 el conjunto {Juan, Diego, Pedro} (igual que en M ).
La denotación de c3 será Juan, la denotación de c4 será Pedro, la denotación de c5 será Diego
(por supuesto, es indiferente cuál constante denota cuál elemento. Lo único que importa es
que todos los elementos del dominio sean denotados por alguna constante).
En esta nueva interpretación funciona correctamente en sentido intuitivo el principio que
habíamos intentado: la fórmula ∀xn A donde A tiene como única variable libre xn es verdadera si y
solo si cualquier sustitución de la variable libre xn en A por una constante de individuo resulta en
una fórmula verdadera.
En nuestro ejemplo, ∀x0 R11 x0 es falsa porque la fórmula R11 c3 es falsa, ya que la denotación de
c3 no pertenece a la denotación de R11 .
Y es claro que esto no depende de cómo se asigna la denotación de las nuevas constantes, ni de
cuántas se agreguen, sino solo de que se cumpla lo requerido, esto es, que en la interpretación de la
extensión cada elemento del conjunto sea denotado por al menos una constante.
De todo lo dicho surge la adecuación de la siguiente caracterización semántica de las fórmulas
que venimos tratando:
Una fórmula de la forma ∀xn A donde A tiene como única variable libre xn , es verdadera bajo
una interpretación M de un lenguaje L si y solo si, bajo una interpretación M + de un lenguaje
L + , con el mismo dominio que M y que extiende la función de denotación de M de modo que
todos los elementos del dominio sean denotados por alguna constante de L + , se cumple que al
sustituir xn por cualquier constante de individuo en todas sus ocurrencias libres en A, se obtiene
una fórmula verdadera.
10.3.3
Cuantificador existencial
Nuevamente, la idea de hacer una semántica composicional nos llevará a resolver el valor de
verdad de una fórmula del tipo ∃xn A, donde A es una fórmula, a partir de fórmulas más simples.
Recordemos que queremos que esta fórmula expresa lo que coloquialmente describiríamos diciendo
que al menos un elemento del conjunto de la interpretación "cumple" lo que la fórmula A expresa.
Distinguimos los siguientes casos:
1. A partir de una fórmula A, que no tiene ocurrencias de la variable xn se forma la fórmula
∃xn A. Este es el caso llamado cuantificación vacua. El valor de verdad de la fórmula ∃xn A
bajo la interpretación dada será el valor de verdad de A bajo la interpretación dada en caso de
que lo tenga.
10.3 Valores de verdad bajo una interpretación
211
2. A partir de una fórmula A que tiene ocurrencias de la variable xn y además otras variables
libres se forma la fórmula ∃xn A, que es abierta. Por consideraciones análogas a las ya hechas
anteriormente no asignaremos valor de verdad a esta fórmula.
3. A partir de la fórmula A cuya única variable libre es xn se forma la fórmula ∃xn A. Nuevamente,
este es el caso que se debe considerar en forma particular, lo que haremos a continuación.
Aquí, en forma análoga al caso del cuantificador universal, estaríamos tentados de afirmar que
la fórmula existencial será verdadera si lo es alguna de las fórmulas que se obtienen sustituyendo
todas las ocurrencias de la variable libre en A por una constante de individuo del lenguaje L pero
eso sería un error. Consideremos nuevamente el caso que hemos elegido para ejemplificar, en el
que tenemos una interpretación M tal que:
(i) El dominio M = {Juan, María, Diego, Pedro, Elena}.
(ii) La denotación de c1 será María, la de c2 será Elena, la de R11 será el subconjunto {María,
Elena} y la de R12 será el subconjunto {Juan, Pedro, Diego} .
Bajo esta interpretación, la fórmula ∃x0 R12 x0 expresará que hay al menos un hombre, lo que
obviamente queremos que sea verdadero. Pero como no tenemos ningún hombre del conjunto
denotado por una constante de individuo de L , al sustituir x0 por una constante de L en la fórmula
R12 x0 , siempre obtendremos una fórmula falsa. Ya conocemos el remedio para esto: se extiende el
lenguaje, agregando constantes de modo que cada individuo del conjunto quede denotado por al
menos una de ellas y se trabaja sobre esta nueva interpretación.
Así, una fórmula de la forma ∃xn A, donde A tiene como única variable libre xn es verdadera bajo
una interpretación M de un lenguaje L si y solo si, bajo una interpretación M + de un lenguaje
L + , con el mismo dominio que M y que extiende la función de denotación de M de modo que
todos los elementos del dominio sean denotados por alguna constante de L + , se cumple que al
sustituir xn por alguna constante de individuo en todas sus ocurrencias libres en A, se obtiene una
fórmula verdadera.
Como ya dijimos, la extensión de la función de denotación puede hacerse de muchas maneras.
Sin embargo, la atribución semántica que reciben las fórmulas no depende de cuáles denotaciones
se asignan a las constantes agregadas.
10.3.4
Comportamiento semántico de los conectivos proposicionales
En esta sección la mente del lector puede descansar ya que no recibirá novedad alguna. La
lógica de primer orden incorpora en su totalidad la semántica propuesta para la lógica proposicional,
o sea, el comportamiento semántico de los conectivos proposicionales es el ya estudiado. Esto
permite ver a la lógica proposicional como un fragmento de la de primer orden, es decir, podemos
esperar que la clase de inferencias que se pueden evaluar por medio de la lógica de primer orden
incluya estrictamente a la de las inferencias cuya validez se puede asegurar por medio de la lógica
proposicional.
Por lo tanto estamos en condiciones de establecer las reglas semánticas para un lenguaje
cualquiera de primer orden:
10.3.5
Evaluación semántica de un lenguaje L bajo una interpretación M
Cualquier fórmula (cerrada) X del lenguaje L será verdadera o falsa bajo una interpretación
M , (lo que escribiremos como M (X) =V o M (X)=F) según las siguientes reglas:
Capítulo 10. Semántica
212
Semántica de L PO
Sea L + una extensión de L obtenida agregando a este lenguaje constantes de individuo de
forma que haya tantas como para denotar cada elemento de M por al menos una constante. Sea
M + una interpretación sobre L + que tiene el mismo dominio que M , coincide con ella en la
denotación de los símbolos de L y otorga denotación a las constantes de individuo de tal forma
que cada elemento del dominio esté denotado por alguna de ellas.
M
1. M (Rnit1 , ...,tn ) = V si y solo si (t1M , ...,tnM ) pertenece a Rni .
2. M ( t1 = t2 ) = V si y solo si t1M = t2M
3. M (¬A) = V si y solo si M (A) = F
4. M (A ∧ B) = V si y solo si M (A) = V y M (B) = V
5. M (A ∨ B) = F si y solo si M (A) = F y M (B) = F
6. M (A → B) = F si y solo si M (A) = V y M (B) = F
7. M (A ↔ B) = V si y solo si M (A) = M (B)
8. M (∀xn A) = V si y solo si M + (A(xn , c j ))= V para toda c j de L + , donde A(xn , c j ) es la
fórmula que se obtiene sustituyendo todas las ocurrencias libres de xn por c j en A.
9. M (∃xn A) = V si y solo si M + (A(xn , c j ))= V para alguna c j de L + , donde A(xn , c j ) es
la fórmula que se obtiene sustituyendo todas las ocurrencias libres de xn por c j en A.
10. Todas las fórmulas cerradas de L son V o F bajo M .
En las reglas para las fórmulas cuantificadas se apela al valor de verdad que otorga la interpretación M + , el cual puede hallarse usando todo el conjunto de reglas que hemos dado.
10.4
Modelos, fórmulas válidas, tautologías
Una vez determinada la semántica de L PO (o de los lenguajes basados en L PO, podemos
definir nociones análogas a las que habíamos considerado en L P.
Definición 10.4.1 — Modelos, contramodelos. Un modelo de una fórmula es una interpre-
tación bajo la cual es verdadera, y un contramodelo una interpretación bajo la cual es falsa. Un
modelo de un conjunto de fórmulas es una interpretación bajo la cual todas las fórmulas del
conjunto son verdaderas.
Obsérvese que la únicas fórmulas que tienen modelos y contramodelos son las sentencias.
Ejemplo 10.1 Toda interpretación es modelo de una sentencia de la forma ∃xn xn = xn .4
Sea M una interpretación cualquiera. Su dominio no es vacío, por lo que L + tiene por lo
+
+
menos una constante de individuo ck y obviamente cM
= cM
. Por lo tanto, por la claúsula 2,
k
k
+
M (ck = ck ) =V, lo que implica, por la cláusula 9, M (∃xn xn = xn ) =V.
Ejemplo 10.2 Toda interpretación es contramodelo de la sentencia (∀xn R11 xn ∧ ¬∃xn R11 xn ).
Sea M una interpretación cualquiera tal que M (∀xn R11 xn ) =V. Entonces, M + (R11 c j ) =V para
toda constante c j de L + , según la cláusula 8. Sea ck una constante de L + . (En L + tiene que
4 Debido
a que xn no es una variable, ∃xn xn = xn no es una fórmula, sino un esquema de fórmula. Se obtiene una
fórmula al sustituir n por cualquier numeral natural. De aquí en más cometeremos abuso de lenguaje refiriéndonos a
estos esquemas de fórmulas como fórmulas.
10.4 Modelos, fórmulas válidas, tautologías
213
existir por lo menos una constante ya que el dominio de M no es vacío y la extensión de L
tiene por lo menos una constante por cada elemento de ese dominio.) Entonces M + (R11 ck ) =V, lo
que implica que M (∃xn R11 xn ) =V, según la cláusula 9 y por lo tanto,M (¬∃xn R11 xn ) =F, según la
cláusula 3. Por lo tanto, ninguna interpretación es modelo a la vez de ∀xn R11 xn y de ¬∃xn R11 xn , con
lo que todas las intepretaciones son contramodelos de (∀xn R11 xn ∧ ¬∃xn R11 xn ), según la cláusula 4.
Los dos ejemplos anteriores nos dan los análogos a los conceptos de tautología y contradicción,
presentados para L P.
Definición 10.4.2 — Fórmula válida, contradicción. Una fórmula válida es una sentencia
de la cual todas las interpretaciones son modelo. Una contradicción es una sentencia que no
tiene modelos.
Antes de proseguir, aflojemos las restricciones impuestas por la rigidez del lenguaje formal,
como lo hicimos al trabajar en la lógica proposicional. De ahora en más, usaremos las primeras
letras del abcedario en minúsculas a, b, c, ... sin subindizar para indicar constantes de individuo,
las últimas letras en minúsculas u, v, x, y..., también sin subindizar, para indicar variables, y
letras mayúsculas para indicar letras de predicado. La aridad de estas se hará evidente a partir
de la cantidad de términos que les siguen. Así, al representar una fórmula como Abxz indicamos
inequívocamente que A es una letra de predicado ternaria.
Ejemplo 10.3 Las fórmulas que siguen son válidas:
(∀xPx ∨ ∀xQx) → ∀x(Px ∨ Qx)
(∀xPx → ∀xPx)
(Pa → ∃xPx)
∃x(Px → ∀yPy)
La última fórmula de la lista anterior es llamada “fórmula del trago” por Smullyan debido al
siguiente chiste: Llega un cuate grandote y con pinta de muy malo a una cantina, tira un par de tiros
al aire, golpea en el mostrador y grita: “¡Cantinero! ¡Sírvame un tequila y sírvale a todos, porque
cuando yo bebo, todos beben!”. Algarabía general en la cantina, gritos, etc. Al rato, el mismo cuate
grita: “¡Caaaantinero! ¡Sírvaaame un teeequila y sírvaaale a toooodos, porque cuaaaando yo beeebo,
toooodos beeeeeben!” Más festejos. Al rato, el mismo cuate: “¡Caaaaantineero! ¡Shíiiirvame un
teeeeeequila y... shíiiiirvale a tooooooooodos, porque cuaaaaaaando sho bebo, toooooooooodos
beeeeeben!”. Y así se iban alegrando todos mientras tomaban las vueltas mandadas por este tipo,
hasta que grita: “¡Caaaaaaaaaaantineeeeero! ¡Cóoooobremé y cóooobrelee a tooooooooodoss,
poooooque cuando shoo paaaagooo, tooooooodos pagan!”.
La fórmula “dice” que hay un individuo tal que si él tiene la propiedad P, entonces todos los
individuos la tienen. Y es una fórmula válida. O sea, podemos decir, refiriéndonos a la humanidad,
que existe un individuo tal que si él fuma, entonces todos fuman. Puede parecer extraño, pero es así.
Veamos que efectivamente se trata de una fórmula válida.
Desde un punto de vista informal se puede ver la validez de la sentencia considerando que
solo hay dos casos posibles: o bien todos los individuos cumplen la propiedad P o bien existe
algún individuo que no cumple la propiedad P. Si estamos en el primer caso, es claro que existe
un individuo tal que si él tiene la propiedad P, entonces todos la tienen. Cualquier individuo del
dominio cumple eso. Si estamos en el segundo caso, también existe un individuo tal que si tiene la
propiedad P, entonces todos la tienen. Cualquiera de los individuos que no tienen la propiedad P
cumple eso, ya que en esas condiciones el antecedente del condicional es falso.
214
Capítulo 10. Semántica
Un poco más formalmente, consideremos una interpretación M de dominio M. Hay dos y solo
dos posibilidades:
1. PM = M
2. PM 6= M
Si se cumple la primera posibilidad, entonces cualquier constante de individuo a del lenguaje
extendido hace que M + [(Pa → ∀yPy)] = V , ya que el consecuente del condicional es verdadero.
Por lo tanto la fórmula del trago es verdadera bajo M .
Si se cumple la segunda posibilidad, existe un elemento de M denotado por una constante a en
+
M tal que se cumple M + (Pa) = F y por tanto M + [(Pa → ∀yPy)] = V , ya que el antecedente
del condicional es falso. Y esto implica que la fórmula del trago es verdadera bajo M . Como en
cualquiera de los casos posibles la fórmula es verdadera bajo M , se concluye que la fórmula es
verdadera bajo M cualquiera, o sea es válida.5
Una pregunta pertinente es si existirá un procedimiento mecánico, análogo a las tablas de
verdad, para determinar en todos los casos, dada una sentencia de L PO, si se trata de una
fórmula válida o no. La respuesta es que no, no existe. No se trata de no conozcamos uno, sino
de que con una definición precisa y razonable de lo que es un “procedimiento mecánico”, se
puede demostrar que tal procedimiento no existe. Para precisar un poco más, es demostrable
que no se puede confeccionar un programa de computadora que determine en todos los casos si
una fórmula es válida o no lo es. Este es uno de los descubrimientos lógicos más importantes del
siglo pasado, hecho por Alonzo Church e, independientemente, por Alan Turing, al que se suele
referir diciendo que la lógica de primer orden es indecidible. Tiene importantes implicaciones
en otras áreas de la filosofía, como por ejemplo, en filosofía de la mente. Es un tema ineludible
en un segundo curso de lógica para estudiantes de filosofía.
Volvamos a la clasificación de las sentencias. Es claro que el lugar que ocupaban las tautologías
en la lógica proposicional lo ocupan las fórmulas válidas en la lógica de primer orden. Sin embargo,
seguiremos usando el término tautología. Lo reservaremos para aquellas fórmulas válidas en
virtud exclusivamente del comportamiento semántico de los conectivos proposicionales, o sea, que
seguirían siendo válidas aunque se cambiara el comportamiento semántico de los cuantificadores.
Precisamos el concepto de esta manera:
Definición 10.4.3 — Valuación booleana. Una valuación booleana es una asignación V de
valores de verdad a todas las sentencias de la lógica de primer orden tal que para cualesquiera
sentencias A y B:
V (¬A) =F si y solo si V (A) =V
V (A ∧ B) =V si y solo si V (A) =V y V (B) =V
V (A ∨ B) =F si y solo si V (A) =F y V (B) =F
V (A → B) =F si y solo si V (A) =V y V (B) =F
V (A ↔ B) =F si y solo si V (A) = V (B)
Definición 10.4.4 — Tautología en lógica de primer orden. Una sentencia es una tautología
si todas las valuaciones booleanas le asignan valor de verdad V.
Debe observarse que todas las interpretaciones son valuaciones booleanas pero no se cumple lo
recíproco. Por ejemplo, existe una valuación booleana que asigna valor de verdad V a todas las
5 Observe el lector la utilización de LTE en este razonamiento. Así como existe una lógica proposicional intuicionista,
existe una lógica de predicados intuicionista. Y, en forma nada sorprendente, los intuicionistas rechazan que la fórmula
del trago represente una “ley lógica”.
10.5 Conjuntos satisfacibles e insatisfacibles
215
fórmulas encabezadas por un cuantificador, con lo que daría valor V a ∃x¬Px como a ∀xPx y
por tanto, no puede ser una interpretación. Por eso, si una fórmula es verdadera bajo todas las
interpretaciones booleanas (tautología) es necesariamente verdadera bajo todas las interpretaciones
(válida).
Ejemplo 10.4 La sentencia ∀xPx → ∀xPx es una tautología. Sin importar cómo se comporta el
cuantificador universal, esta fórmula toma valor V solo debido al comportamiento semántico del
condicional. Otra forma de ver la diferencia entre fórmulas válidas y tautologías es darse cuenta de
que quien conozca la lógica proposicional pero no la lógica de primer orden podría reconocer que
la fórmula es “siempre” verdadera. Si una fórmula es válida y no tautológica, es necesario conocer
el significado de los cuantificadores para dar cuenta de su validez. La fórmula del trago es válida
y no tautológica, mientras que la fórmula (∃xPx ∨ ¬∃xPx) es una tautología (sea lo que sea que
represente lo encabezado por el cuantificador existencial, es una instancia de LTE).
Definición 10.4.5 La sentencia A es equivalente a la sentencia B si y solo si todos los modelos
de A son modelos de B y recíprocamente.
Notación 10.1. Si A es equivalente a B escribimos A ≡ B.
Definición 10.4.6 La sentencia A implica la sentencia B si y solo si todos los modelos de A
son modelos de B.
Ejemplo 10.5 ∀xPx ≡ ¬∃x¬Px
Sea M tal que M (∀xPx) =V. Esto significa que
1) para toda constante a de L + , M + (Pa) =V.
Supongamos que fuera M (¬∃x¬Px) =F y llegaremos a una contradicción: En este caso, sería
M (∃x¬Px) =V, y eso implica que para alguna constante b de L + , M + (¬Pb) =V, o sea que para
alguna constante b de L + , M + (Pb) =F, lo que contradice 1).
Esto demuestra que todos los modelos de ∀xPx son modelos de ¬∃x¬Px, y por tanto, que la
primera fórmula implica la segunda. Queda como ejercicio mostrar que se cumple lo recíproco, con
lo que quedará demostrada la equivalencia.
10.5
Conjuntos satisfacibles e insatisfacibles
Continuamos con las definiciones análogas a las vistas en el estudio de L P:
Definición 10.5.1 Un conjunto de sentencias se llama satisfacible si tiene un modelo e insatis-
facible en caso contrario.
De la definición surge que para mostrar que un conjunto dado es satisfacible, basta mostrar un
modelo común de todas sus sentencias. Mostrar la instasfacibilidad de un conjunto requiere mostrar
la imposibilidad de que exista un modelo común a sus sentencias.
Ejemplo 10.6 El conjunto Γ = {∀xRax, Pb} es satisfacible.
Es sencillo encontrar modelos de este conjunto. Para hacerlo, es necesario determinar un
dominio, y una vez establecido este, otorgar denotación a los símbolos no lógicos R (una letra de
predicado binaria), P (una letra de predicado unaria) y a las constantes a y b.
Capítulo 10. Semántica
216
Vamos a presentar varios modelos del mismo conjunto.
1. La presencia de dos constantes nos puede hacer pensar en tomar un dominio con dos
elementos. Esto no es necesario, como veremos, pero hagámoslo así. Tomemos como dominio
de la interpretación que queremos construir el conjunto M={1, 2}. Ahora debemos asignar
denotación a los símbolos no lógicos. Tomemos como denotación de la constante a el número
1 y como denotación de la constante b el número 2. Una vez hecho esto, hay que asignar
denotación a P y R. Con respecto a P, la presencia en Γ de la fórmula Pb y la denotación ya
elegida para la constante b, nos obliga a elegir como denotación de esa letra un subconjunto
de Γ al que pertenezca el elemento 2. Podemos sencillamente elegir, como denotación de P,
{2}. Finalmente, la denotación de R debe ser un conjunto de pares ordenados de elementos
de M. La presencia en Γ de la fórmula ∀xRax y la denotación ya elegida para a nos obliga
a elegir como denotación de R un conjunto de pares tal que le pertenezcan todos los pares
posibles en los que 1 sea la primera componente. O sea, debemos elegir como denotación de
R al conjunto {h1, 1i, h1, 2i}. Así, el modelo M hallado es:
Dominio: {1, 2}
aM = 1
bM = 2
PM = {2}
RM = {h1, 1i, h1, 2i}
2. Obtenemos otro modelo N tomando las mismas denotaciones que en modelo anterior y
considerando como dominio un conjunto cualquiera que incluya a {1, 2}, por ejemplo, N, el
conjunto de los números naturales.
3. Otra posibilidad es tomar como dominio el conjunto de los símbolos no lógicos del lenguaje
en el que se expresan las sentencias que tenemos bajo consideración: O = {a, b, P, R}. Tomamos como denotación de la letra a la propia letra a, como denotación de la letra b la letra R, la
denotación de P será el conjunto {a, R} y la de R será {ha, ai, ha, bi, ha, Pi, ha, Ri hP, bi}.
En este caso, el modelo O hallado es:
Dominio: {a, b, P, R}
aM = a
bM = R
PM = {a, R}
RM = {ha, ai, ha, bi, ha, Pi, ha, Ri hP, bi}
En este ejemplo no se utilizaron objetos extralingüísticos para encontrar el modelo. Es
conveniente recordar que siempre se tienen a mano los objetos propios del lenguaje para
pensar en modelos
4. Considerando otro enfoque, podemos pensar en la posibilidad de encontrar un modelo Z
cuyo dominio tenga un único elemento. Ni siquiera es necesario comprometerse con qué
cosa será ese objeto. Lo podemos representar con un círculo o punto, y lo llamamos u.
u
Como ya está dado el dominio, resta determinar la función de denotación. Obviamente, no
tenemos muchas opciones para aZ y aZ , ambas deben ser u.
aZ = bZ
u
10.5 Conjuntos satisfacibles e insatisfacibles
217
Como el modelo debe hacer verdadera la sentencia Pb, es obligado que la denotación de la
letra P sea el conjunto {u}, el propio dominio:
aZ = bZ
u
PZ
Resta dar denotación a la letra R. Obviamente, no podemos elegir RM = ∅ porque la
sentencia ∀xRax debe ser verdadera en la interpretación, por lo que es obligado que RM =
{hu, ui}. Desde el punto de vista gráfico, las relaciones binarias pueden representarse con un
conjunto de flechas que vayan desde las primeras componentes de sus pares a sus segundas
componentes. En nuestro caso, lo representamos con una flecha que empieza en u y llega a u:
aZ = bZ
u
PZ
RZ
Ahora solo resta hallar un objeto u realmente existente y se tiene un modelo.
Ejemplo 10.7 El conjunto {∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y))} es satisfacible y todo conjunto es
modelo de él si y solo si tiene exactamente dos elementos.
Ante todo, observemos que la única sentencia del conjunto bajo consideración pertenece al
lenguaje vacío, es decir, no aparecen en ella símbolos no lógicos. Por lo tanto, en la interpretación
no tenemos que dar una función de denotación, basta encontrar un dominio. Comencemos como
en el último ejemplo, busquemos la posibilidad de encontrar un dominio con un único elemento u.
En el lenguaje extendido L + habrá al menos una constante cuya denotación será u, y si hay más
constantes, todas denotarán u. Si la sentencia es verdadera bajo una interpretación I cuyo dominio
es unitario, tendremos:
I (∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y))) = V
o sea
I + (∃y(¬a = y ∧ ∀z(z = a ∨ z = y))) = V
para alguna constante a de L + , por lo que
I + ((¬a = b ∧ ∀z(z = a ∨ z = b))) = V
para algún par de constantes a y b de L + , lo que implica que en ese lenguaje extendido hay
constantes a y b tales que
I + (¬a = b) = V
Pero eso implica, a su vez, que
aI 6= bI
+
+
lo que es imposible ya que en I + todas las constantes denotan el mismo objeto, u.
Por lo tanto, ninguna interpretación de dominio unitario es modelo de la sentencia bajo consideración.
Consideremos ahora una interpretación K cuyo dominio sea un conjunto de dos elementos, u
y v. Mostremos que es modelo de la sentencia.
Capítulo 10. Semántica
218
En L + hay al menos dos constantes, a y b, tales que una de ellas denota u y la otra denota v.
Cualquier otra constante, en caso de existir, denota uno de esos dos objetos. Sin perder generalidad,
+
+
consideramos que aK = u y bK = v.
Como u y v son objetos diferentes, tenemos
K + (¬a = b) = V
Por otro lado, para cualquier constante c de L + , se tiene que cK = u o cK = v, por lo que
+
+
K + ((c = a ∨ c = b)) = V
para toda constante c, de modo que
K + (∀z(z = a ∨ z = b)) = V
Entonces
K + ((¬a = b ∧ ∀z(z = a ∨ z = b))) = V
con lo que
K + (∃y(¬a = y ∧ ∀z(z = a ∨ z = y))) = V
y finalmente
K + (∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y))) = V
lo que demuestra que todo conjunto de dos elementos es modelo de la sentencia. Por otro lado,
si una interpretación P tiene un dominio con más de dos elementos, encontraríamos que en L +
habría al menos tres constantes denotando objetos diferentes, y por lo tanto, si a, b y c denotan esos
tres objetos, tendríamos
K + ((c = a ∨ c = b)) = F
con lo que
K (∀z(z = a ∨ z = b)) = F
y K no sería modelo del conjunto puesto a consideración.
En general, para cada n natural positivo, existe una sentencia Sn de L PO tal que un conjunto
será modelos de Sn si y solo si tiene exactamente n elementos. También existe una sentencia Tn será
modelo de Tn si y solo si tiene menos que n elementos (si n es mayor que 1), y otra Un tal que todo
conjunto con más de n elementos será su modelo.
Ejercicio 10.1 Hallar un esquema de sentencia tal que toda sentencia que responda a él tenga
como modelo cualquier conjunto con al menos n elementos y solo a ellos y otro esquema de
sentencias que sean modeladas por todos los conjuntos con más de n elementos y solo por ellos.
Ejemplo 10.8 El conjunto Γ = {∀x∃yRxy, ¬∃xRxx, ∀x∀y∀z((Rxy ∧ Ryz) → Rxz)} es satisfacible
y ninguno de sus modelos tiene dominio finito.
En este caso, para encontrar un modelo se debe dar, además de un dominio, la denotación de la
letra binaria R.
La sentencia que aparece en tercer lugar en el conjunto expresa que la relación R es transitiva,
o sea que cumple la propiedad característica de los órdenes. La segunda sentencia expresa que
ningún elemento está relacionado por R consigo mismo, de manera que podemos pensar en un
orden estricto. A partir de aquí es sencillo considerar, por ejemplo, como dominio el conjunto de
los números naturales, N y como denotación de R la relación menor que, que usualmente se nombra
con el signo <. Así obtenemos una interpretación N que es modelo del conjunto dado:
10.5 Conjuntos satisfacibles e insatisfacibles
219
1. N es modelo de ∀x∃yRxy porque dado cualquier número natural n existe otro, m tal que
n < m.
2. N es modelo de ¬∃xRxx porque ningún número natural está relacionado consigo mismo en
la relación menor que.
3. N es modelo de ∀x∀y∀z((Rxy ∧ Ryz) → Rxz) porque la relación menor que es transitiva.
Mostremos ahora que si M es modelo de Γ, su dominio es infinito.
En general, si en el dominio de una interpretación hay exactamente j elementos, esa interpretación será contramodelo del conjunto Γ y lo podemos demostrar así: Supongamos que una
interpretación M es modelo de Γ y su dominio tiene j elementos. La denotación de R en M
será un conjunto de pares ordenados de elementos de ese dominio. Como la sentencia ∀x∃yRxy es
verdadera bajo M , cada uno de los elementos del dominio debe aparecer como primera componente
en alguno de los pares que conforman la denotación de R. Tomemos un elemento cualquiera del
dominio, llamémosle a1 . Este elemento debe aparecer como primera componente de un par en la
denotación de R. Tomemos un par cualquiera en el que a1 es la primera componente y llamemos a
su segunda componente a2 . Repitamos el procedimiento, llamando a3 a la segunda componente
de un par cualquiera cuya primera componente es a2 . En general, si hemos hallado a1 , a2 , ..., an ,
para hallar an+1 buscamos un par cualquiera en la denotación de R que tenga a an como su primera
componente y llamamos an+1 a su segunda componente. Hacemos esto hasta obtener a j+1 . Es claro
que se tiene
RM a1 a2
RM a2 a3
RM a3 a4
..
.
RM a j a j+1
Si M es modelo de Γ, entonces RM debe ser transitiva, para que la sentencia ∀x∀y∀z((Rxy∧Ryz) →
Rxz) sea verdadera bajo M . Entonces se cumple que si k < l, RM ak al , por transitividad. Dado que
en el dominio de M solo hay j elementos, es necesario que a j+1 sea uno de los elementos a1 , ...,
a j . Supongamos que es ah con 1 ≤ h ≤ j. Tenemos:
RM ah ah+1
..
.
RM a j ah
lo que implica (ya que teníamos RM ah a j+1 ) que RM ah ah , con lo que la sentencia ¬∃xRxx es falsa
bajo esa interpretación. Esto demuestra que ninguna interpretación con dominio finito es modelo de
Γ.
Ejemplo 10.9 El conjunto Γ = {∃x(Hx ∧ ∀y(Hy → (Axy ↔ ¬Ayy)))} es insatisfacible:
Sea M tal que
M (∃x(Hx ∧ ∀y(Hy → (Axy ↔ ¬Ayy)))) = V
Entonces, para alguna constante a de L +
M + (Ha ∧ ∀y(Hy → (Aay ↔ ¬Ayy))) = V
de donde
1. M + (Ha) = V
220
Capítulo 10. Semántica
2. M + (∀y(Hy → (Aay ↔ ¬Ayy))) = V
Por 2, se tiene que
3. M + (Ha → (Aaa ↔ ¬Aaa))) = V
De 1 y 3 surge que
3. M + (Aaa ↔ ¬Aaa) = V
Pero ninguna interpretación puede otorgar el valor V a la sentencia Aaa ↔ ¬Aaa, porque para
ello debería otorgar el mismo valor de verdad a Aaa y a su negación.
Queda demostrado, por tanto, que el conjunto Γ es insatisfacible.
11. L PO y lenguaje natural
OMO vimos, al utilizar la lógica proposicional para propósitos de evaluación de la corrección
argumental es necesario identificar las proposiciones que se expresan en lenguaje natural
y su conexiones en términos expresables mediante las constantes lógicas disponibles en ese
marco, para lograr una adecuada representación de los argumentos en el lenguaje formal.
Al trabajar con L PO la situación es la misma, se debe lograr una adecuada traducción de
las proposiciones expresadas en lenguaje natural al lenguaje formal, pero este proceso presenta
complejidades características derivadas del hecho de que L PO “mira dentro” de proposiciones
que para la lógica proposicional resultan inanalizables.
C
11.1
La elección de los predicados
Un ejemplo sencillo es que en el marco de la lógica proposicional una oración como
Sócrates es hombre.
no encuentra mejor traducción que, por ejemplo, que p5 , mientras que el el marco de L PO, la
traducción debe hacerse reconociendo por un lado el nombre “Sócrates” y por otro lado la presencia
del predicado "... es hombre”.
Como regla general, para los nombres elegiremos constantes de individuo y para las relaciones
letras de relación de la aridad adecuada. En este caso eso es muy sencillo. Construimos un
“diccionario” que ponga en correspondencia los elementos que advertimos a través del lenguaje
natural con los del lenguaje formal elegidos para representarlos. Por ejemplo:
Nombre o predicado
Sócrates
... es hombre
Constante de individuo o letra de relación
c7
R14
Capítulo 11. L PO y lenguaje natural
222
Y la representación correspondiente sería R14 c7 . Normalmente, el problema se torna más complejo
porque frecuentemente tenemos varias formas de representar una misma proposición. Por ejemplo,
consideremos la oración
Platón fue discípulo de Sócrates y maestro de Aristóteles.
Con respecto a los nombres, no hay dudas. En la oración aparecen tres y sabríamos cómo
representarlos si lo tenemos que hacer. Para concretar, fijemos ya esa parte del diccionario:
Nombre
Constante de individuo
Sócrates
Platón
Aristóteles
c7
c8
c9
Pero, ¿qué sucede con los predicados? ¿Cuál de los predicados siguientes es el que debemos
adoptar?
1. ... fue discípulo de Sócrates y maestro de Aristóteles
2. Platón fue discípulo de ... y maestro de Aristóteles
3. Platón fue discípulo de Sócrates y maestro de ...
4. ... fue discípulo de ... y maestro de Aristóteles
5. ... fue discípulo de Sócrates y maestro de ...
6. Platón fue discípulo de ... y maestro de ...
7. ... fue discípulo de ... y maestro de ...
Tenemos siete posibilidades1 . ¿Cuál de ellas es la correcta? La respuesta es que todas lo son, pero
que presentan grandes diferencias. Los tres primeros predicados son unarios, los tres siguientes
binarios y el último ternario. Y son todos predicados diferentes. La cuestión de la elección entre ellos
para la traducción de la oración solo puede decidirse contextualmente, según otras proposiciones
que aparezcan en el argumento a evaluar. Diferentes elecciones nos pueden llevar a representar esta
misma oración así (mantenemos el orden en que se mencionan los predicados y recordamos las
constantes elegidas para los nombres):
1. R11 c8
2. R12 c7
3. R13 c9
4. R21 c8 c7
5. R22 c8 c9
6. R23 c7 c9
7. R31 c8 c7 c9
En general, el análisis más fino es el que permite la mejor captación de de la dinámica lógica
de los argumentos, pero tiene como contrapartida una mayor dificultad operacional. La decisión,
como dijismos, debe hacerse contextualmente. Por ejemplo, supongamos que se trata de analizar el
argumento
1 En
general, el proceso de retirar eligiendo entre n nombres da lugar a 2n − 1 posibles predicados.
11.1 La elección de los predicados
223
Juan es hermano de Pedro.
Todos los hermanos de Pedro son abogados.
Juan es abogado.
Y tenemos la duda de cómo representar la primera premisa, que al tener dos nombres, puede ser
representada por medio de 22 − 1 = 3 predicados diferentes. ¿Cuál de los predicados siguientes
considerar?
1. ... es hermano de Pedro
2. Juan es hermano de...
3. ... es hermano de ...
Si consideramos el último predicado, no habrá problema en la evaluación argumental, siempre
que consideremos uniformemente el predicado en todo el argumento (o sea, no considerar una vez
la expresión que contiene la palabra “hermano” como un predicado y otra vez como un predicado
diferente. Nos quedaría el diccionario:
Nombre o predicado
Constante de individuo o letra de relación
Juan
Pedro
... es hermano de ...
... es abogado
c1
c2
R21
R11
y la traducción del argumento:
R21 c1 c2
∀x1 (R21 x1 c2 → R11 x1 )
R11 c1
Intuitivamente es claro que esto funcionaría porque en la segunda premisa sin importar con qué
constante sustituyamos x1 , obtendremos algo que es consecuencia de ella al hacer la sustitución. Y
si la hacemos por c1 obtenemos un condicional cuyo antecedente es la otra premisa y su consecuente
la conclusión.
Si consideramos el primer predicado, tampoco habrá problema en la evaluación argumental. En
este caso el diccionario sería:
Nombre o predicado
Constante de individuo o letra de relación
Juan
Pedro
... es hermano de Pedro
... es abogado
c1
c2
R12
R11
y la traducción del argumento:
R12 c1
∀x1 (R12 x1 → R11 x1 )
R11 c1
Capítulo 11. L PO y lenguaje natural
224
La explicación intuitiva de por qué debería funcionar esta formalización es idéntica que en el caso
anterior.
Pero si formalizamos utilizando el segundo predicado obtenemos:
Nombre o predicado
Juan
Pedro
Juan es hermano de ...
... es abogado
Constante de individuo o letra de relación
c1
c2
R12
R11
y no tenemos forma de traducir “Todos los hermanos de Pedro son abogados” utilizando la letra
de predicado R12 , porque esa letra solo se aplicará a los hermanos de Juan. De manera que en cada
caso debemos decidir cuáles predicados utilizar para la traducción, y no hay recetas simples. Lo
mejor es basarse en la intuición del pretendido funcionamiento lógico del argumento. Si este es
muy complejo, puede suceder que sea necesario revisar la identificación de predicados porque una
identificación inadecuada puede llevarnos a un mal análisis contextual. Sobre proposiciones aisladas,
ninguna identificación de predicados tiene primacía, pero cuando las proposiciones interactúan
lógicamente no todas las atribuciones de predicados son relevantes. A partir de esta sección,
dejaremos de usar el lenguaje formal cuando nos parezca conveniente. Usaremos a, b, c, ..., es decir,
las primeras letras del abecedario para las constantes de individuo; u, v, x,... es decir, las últimas
para variables, y mayúsculas para las letras de predicados. Prescindiremos además de los paréntesis
que no eviten ambigüedades.
11.2
La cuantificación
La otra novedad que introduce la lógica de primer orden es la cuantificación. Cuando se trata
de traducir proposiciones que se resuelven en un único cuantificador, la tarea resulta simple. Pero
cuando hay más de una cuantificación en la misma proposición se debe traducir con extremo
cuidado. Consideremos, por ejemplo, el argumento siguiente, del que ya dijimos que es lógicamente
incorrecto.
Todas las cosas tienen una causa.
Hay una causa de todas las cosas.
Si razonamos sobre la elección de predicados, nos daremos cuenta de que lo apropiado es elegir
un predicado binario, formando este diccionario, ya que se habla tanto de tener causa como de ser
causa, por lo que la los predicados unarios posibles no tienen la flexibilidad expresiva necesaria
para capturar lo expresado:
Nombre o predicado
Constante de individuo o letra de relación
... es causa de ...
C
¿Qué dice la conclusión en términos del predicado “...es causa de...”? Es claro que afirma que
hay una cosa que se relaciona con todas a través de la relación que denota el predicado. O sea, la
traducción sería:
∃x∀yCxy
11.3 En la práctica
225
¿Y qué dice la premisa? ¿Dice acaso que todas las cosas se están relacionadas con una a través de
la relación C, que es lo mismo que afirma la conclusión? No, no dice eso. Dice que cada cosa está
relacionada con alguna a través de la relación, lo que es muy diferente. Lo podemos parafrasear
como “para cada cosa existe alguna cosa que es su causa”. La traducción correcta es:
∀x∃yCyx
Observe el lector varios aspectos importantes:
La necesidad de usar variables diferentes. Si hubiéramos puesto, por ejemplo, ∀x∃xCxx,
tendríamos que la cuantificación universal estaría actuando sobre una fórmula cerrada, de
modo que su valor de verdad sería el mismo que el de ∃xCxx, que expresa que hay algo que
es causa de sí mismo.
La importancia del orden en que se colocan los cuantificadores. Un intercambio en el orden
lleva a un cambio de significado muy importante. En este caso es sencillo advertir el orden
correcto. Un enunciado expresa que existe algo que tiene la propiedad de ser causa de todas
las cosas, el otro enunciado expresa que todas las cosas tienen la propiedad de ser causadas
por algo. Eso indica el orden de cuantificación correcto.
El orden en que se colocan las variables siguiendo a las letras de predicado. En la última
fórmula el orden hubo de ser yx porque la letra de relación expresa que lo primero es
causa de lo segundo, y cuantificamos universalmente sobre lo segundo (todo es causado), y
existencialmente sobre lo primero.
¿Qué expresa en este contexto la fórmula ∀x∃yCxy? La respuesta es algo así como la ley del
karma: “Para toda cosa, hay algo que ella causa” o, más coloquialmente “Todo es causa de algo”.
11.3
En la práctica
En esta sección veremos algunas expresiones del lenguaje natural de cierta complejidad en las
que tengamos que poner en juego lo visto hasta el momento en el capítulo.
Ejemplo 11.1 Traducir a L PO la siguiente proposición:
Ningún boxeador combate con cualquiera que lo desafía.
La elección de predicados parece muy evidente:
... es boxeador
...combate con ...
... desafía a ...
Obsérvese que la elección de predicados en este caso es transparente. Concentrémonos en
expresar lo dicho usando los cuantificadores. La frase comienza con el sintagma ningún boxeador
combate. Expresa algo de todos los boxeadores: a saber, que no combaten lo que luego se aclara.
Podemos parafrasear entonces:
Para todo boxeador, se cumple que no combate con cualquiera que lo desafía.
El “para todo boxeador”, se expresa así con cuantificadores que deben ranguear sobre todo un
dominio, no solo sobre los boxeadores:
Capítulo 11. L PO y lenguaje natural
226
Para toda cosa, si esa cosa es boxeador, se cumple que esa cosa no combate con cualquiera
que la desafía.
Observemos ahora que “no combate con cualquiera que la desafía” es sustituible por “no
combate con todos los que la desafían”. Parafraseando:
Para toda cosa, si esa cosa es boxeador, se cumple que esa cosa no combate con todos los
que la desafían.
Tornemos la atención al problema planteado por "esa cosa no combate con todos los que la
desafían". Si pensamos un poco, veremos que expresa algo acerca de todos los que desafían a esa
cosa: que no todos los que desafían esa cosa son combatidos por ella. Parafraseando:
Para toda cosa, si esa cosa es boxeador, se cumple que no todos los que desafían esa cosa
son combatidos por esa cosa.
Ahora solo resta tratar “todos los que desafían esa cosa son combatidos por esa cosa", y lo
hacemos en forma análoga a la cuantificación propuesta sobre los boxeadores: la expresamos como
“para todo objeto, si ese objeto desafía esa cosa, es combatido por esa cosa”. El parafraseo final
queda:
Para toda cosa, si esa cosa es boxeador, se cumple que no para todo objeto, si ese objeto
desafía esa cosa, es combatido por esa cosa.
Tomando este diccionario
Nombre o predicado
Constante de individuo o letra de relación
... es boxeador
... combate a ...
... desafía a ...
B
C
E
la traducción queda:
∀x(Bx → ¬∀y(Dyx → Cxy))
Otra forma de traducir esto mismo sería la siguiente: El sintagma ningún boxeador desafía está
expresando que no existen boxeadores que desafíen. O sea, se podría parafrasear así:
No existe cosa alguna que sea boxeador y combata con todos los que la desafían.
Como el lector podrá apreciar fácilmente, de tomar por este camino la traducción quedaría así:
¬∃x(Bx ∧ ∀y(Dyx → Cxy))
Ejemplo 11.2 Traducir a L PO la siguiente proposición:
Ana tiene al menos un lunar en cada mejilla.
El problema de los nombres es trivial, solo aparece “Ana”. Mucho más delicado es el problema
de los predicados. Hay una solución brutal, que es retirar el nombre, obteniendo un predicado:
11.3 En la práctica
227
...tiene un lunar en cada mejilla
Desde ese punto de vista, la oración se formalizaría (traduciendo ese predicado unario como T
y “Ana” como a) simplemente como Ta, pero esa solución puede ser, debido a diferentes contextos,
muy insuficiente. De modo que intentemos el análisis más fino del que seamos capaces.
Las palabras “lunar” y “mejilla” son nombres comunes. Para los nombres comunes siempre
podemos establecer un predicado. Dado el nombre común A existe el predicado “... es (un) A”. De
modo que tenemos identificados dos predicados unarios
... es (un) lunar
... es (una) mejilla
Salta a la vista que la palabra “tiene” expresa alguna relación. Podemos estar tentados de
considerar la relación denotada por el predicado unario “Ana tiene...”, pero más fino analíticamente
es considerar el predicado binario
...tiene...
Dado que la oración está expresando dónde tiene lunares Ana, se podría pensar que mejor aun
considerar el predicado ternario
...tiene...en...
pero en realidad esto es más rígido que considerar además de “...tiene...” el predicado
...está en...
con el fin de dar la ubicación de las cosas.
Analicemos ahora la proposición expresada.
Se nos dice que Ana tiene en cada mejilla por lo menos un lunar. Podemos hacer esta serie de
parafraseos:
Para toda mejilla de Ana se cumple que Ana tiene al menos un lunar en ella.
Para toda mejilla de Ana se cumple que existe al menos una cosa que es un lunar, está en
esa mejilla y Ana la tiene.
Para todo objeto, si ese objeto es una mejilla de Ana, se cumple que existe al menos una cosa
que es un lunar, está en ese objeto y Ana la tiene.
Para todo objeto, si ese objeto es mejilla y Ana tiene ese objeto, se cumple que existe al
menos una cosa que es un lunar, está en esa mejilla y Ana la tiene.
Llegados a este punto, podemos dudar de si es correcto caracterizar la relación entre Ana y
sus mejillas con el predicado ...tiene... Nos damos cuenta de que hay un matiz: las mejillas son de
Ana, y los lunares también, pero el “tiene” de los lunares es más parecido a “luce” o “lleva”, no
parece cargar su sentido sobre la pertenencia. Con esto in mente, introducimos un nuevo predicado,
que había quedado oculto bajo la estructura superficial de la frase, por una elisión obvia: no se
aclara explícitamente que las mejillas de las que se habla son de Ana, porque cualquier hablante
competente lo comprende sin pensarlo. Pero la proximidad del microscopio de Frege hace que estos
bichitos ocultos se muestren. Introducimos entonces un nuevo predicado:
Capítulo 11. L PO y lenguaje natural
228
...es de... (en el sentido de “pertenece a”)
con lo que el parafraseo quedaría:
Para todo objeto, si ese objeto es mejilla y ese objeto es de Ana, se cumple que existe al
menos una cosa que es un lunar, está en ese objeto y Ana la tiene.
Con todo esto podemos construir una buena traducción de la oración al lenguaje formal (no lo
haremos al lenguaje formal sino a la simplificación que utilizamos para trabajar más cómodamente,
pero a partir de aquí el pasaje al lenguaje formal es directo): El diccionario es:
Nombre o predicado
Ana
... es lunar
... es mejilla
... tiene ...
... está en ...
... es de ...
Constante de individuo o letra de relación
a
L
M
T
E
Dxy
Traducción:
∀x((Mx ∧ Dxa) → ∃y(Ly ∧ Eyx ∧ Tay))
11.4
La igualdad
La igualdad tiene un uso evidente, cuando se quiere traducir una proposición que la establece.
Pero también tiene un uso no tan evidente que aparece cuando nos referimos a cantidades de objetos.
Imaginemos que un teólogo nos proponga esta oración:
Existen exactamente tres dioses.
¿Es posible traducirla al lenguaje de L PO? La respuesta es afirmativa, y el modo de hacerlo
interesante. Tomemos como diccionario
Nombre o predicado
Constante de individuo o letra de relación
... es dios
D
¿Es esta traducción adecuada?
∃x∃y∃z(Dx ∧ Dy ∧ Dz)
Un error frecuente en los estudiantes es creer que sí, que se trata de una traducción adecuada.
La confusión se debe a que aparecen tres variables diferentes en la fórmula. Pero si recordamos
que las variables representan “huecos” en predicados, nos daremos cuenta de que esos tres huecos
pueden ser llenados por el mismo nombre. Observe el lector que la interpretación en la que el
dominio es un conjunto con un solo objeto y la denotación del predicado D es ese mismo conjunto
11.5 Excurso filosófico: Descripciones definidas según Russell
229
es modelo de la fórmula de arriba. Y en ese modelo claramente hay una sola cosa que es dios. De
hecho, es fácil demostrar que
∃x∃y∃x(Dx ∧ Dy ∧ Dz) ≡ ∃xDx
de modo que la fórmula en cuestión no dice más que “Existe al menos un dios” a pesar de su
apariencia.
Pero ahora empieza a estar claro el problema: tenemos que decir que esas cosas que son dioses
y cuya existencia afirmamos, son diferentes entre sí. Y ahí aparece la igualdad. ¿Será esta una
traducción adecuada?
∃x∃y∃z(Dx ∧ Dy ∧ Dz ∧ ¬x = y ∧ ¬x = z ∧ ¬y = z)
Esta fórmula expresa que hay tres cosas diferentes entre sí que son dioses. Pero eso es compatible
con que haya tres, cuatro, cinco... o la cantidad de dioses que se quiera, siempre que no sea menor a
tres. Por eso no expresa que hay exactamente tres dioses sino que expresa que hay al menos tres
dioses.
Para afirmar que son exactamente tres, podemos agregar que para todos los objetos del universo
se cumple que si ese objeto es dios, es uno de los tres objetos considerados. Eso se puede hacer así:
∃x∃y∃z(Dx ∧ Dy ∧ Dz ∧ ¬x = y ∧ ¬x = z ∧ ¬y = z ∧ ∀w(Dw → (w = x ∨ w = y ∨ w = z))
Esta fórmula sí es una correcta traducción de la oración que nos regaló el teólogo. Debería ser
por lo menos llamativo que en ella no aparezca nada que refiera ni remotamente al número tres,
que parece haber desaparecido bajo una horda de cuantificadores y relaciones de igualdad que se
predican o se niegan.
11.5
Excurso filosófico: Descripciones definidas según Russell
En esta sección vamos a ocuparnos de un quebradero de cabeza clásico de la filosofía del
lenguaje, para observar cómo las herramientas lógicas permiten, en algunas ocasiones, dar respuestas
robustas a problemas complicados.
11.5.1
Planteamiento del problema
Una descripción definida es un objeto lingüístico de la forma
El (o la) tal y cual
Ejemplos de descripciones definidas son:
El portero de la Facultad de Humanidades
El mayor número natural
La central donde ocurrió la última catástrofe nuclear soviética
Está claro que gramaticalmente funcionan como sustantivos, y particularmente, pueden cumplir
la función de sujeto en oraciones. Además, parecen referirse a un individuo, cuando no son vacías.
El último ejemplo parece referir a la central de Chernobyl, mientras que el penúltimo es un ejemplo
de descripción definida vacía, ya que no existe un número natural mayor que todos los demás. Las
descripciones definidas vacías plantean interesantes y delicados problemas.
Capítulo 11. L PO y lenguaje natural
230
El tercero excluido
Consideremos la siguiente oración:
El actual presidente de EEUU sabe jugar al go.
Allí aparece una descripción definida, “el actual presidente de EEUU”. Con respecto a la verdad
o falsedad de la oración, en el momento en que escribo estas líneas, el actual presidente EEUU es
Barak Obama, y sé varias cosas sobre él, pero no sé si sabe o no jugar al go. De modo que no sé si
la oración expresa algo verdadero o no. Pero aun en ese estado de ignorancia, sé que la siguiente
oración es verdadera:
El actual presidente de EEUU sabe jugar al go o el actual presidente de EEUU no sabe
jugar al go.
Sé eso porque es una instancia de LTE. Si llego a saber que “El actual presidente de EEUU
sabe jugar al go” es verdadera, sabré que “El actual presidente de EEUU no sabe jugar al go” es
falsa y recíprocamente, y en cualquier caso, la oración presentada es verdadera, con independencia
del conocimiento que tenga de sus disyuntos.
Pero consideremos la oración
El actual rey de EEUU sabe jugar al go.
Aquí también aparece una descripción definida, pero esta vez vacía. Y hay algo que molesta
profundamente si intentamos aplicar el análisis anterior a esta oración. Quizá estemos tentados
de decir que esa oración es falsa, ya que no existe el rey de los estadounidenses, pero en ese caso,
aparentemente deberíamos aceptar que la oración
El actual rey de EEUU no sabe jugar al go.
es verdadera, lo que nos deja en una gran perplejidad.
Quizá podamos escapar de esto diciendo que la oración en cuestión no tiene valor de verdad,
o sea, no es verdadera ni falsa. Pero en tal caso es difícil explicar cómo es que le encontramos
significado. Es decir, no es para nada difícil afirmar que expresiones como
Blubablitrix
Repollos ardiente la en habréis fulminante de.
no son ni verdaderas ni falsas, pero son expresiones a las que no les encontramos significado, no
las podemos entender. Es muy difícil explicar cómo una oración asertiva gramaticalmente correcta
es comprendida sin que se le pueda asignar un valor de verdad ni a ella ni a su negación gramatical.
La no existencia
Nada parece más natural que establecer las condiciones de verdad de una oración que expresa
una proposición del tipo
a es F
diciendo que será verdadera si y solo si el objeto denotado por a pertenece a la clase denotada por
F, o en términos fregeanos, si pertenece a la extensión del concepto denotado por el predicado “...
es F”. Esa fue exactamente la idea rectora en el establecimiento de la semántica de L PO, a partir
de las sentencias atómicas. Pero entonces examinemos la oración
11.5 Excurso filosófico: Descripciones definidas según Russell
231
El rey de EEUU no existe.
A diferencia del caso anterior, en el que podría decirse que la oración examinada no era ni
verdadera ni falsa, no parece haber dudas acerca de que consideramos verdadera esta. Pero si la
consideramos verdadera, parece que tenemos que aceptar que expresa la misma proposición que
El rey de EEUU es un no existente.
y nuestras condiciones de verdad nos dicen que el rey de EEUU es un elemento de la clase de las
cosas no existentes, pero claramente nada es elemento de esa clase.
Entonces el problema es...
Concretamente, el problema es: dada una oración de la forma
DDV es F
donde DDV es una descripción definida vacía y F denota una clase
1. ¿Tiene significado?
2. ¿Es verdadera o falsa?
Antes de considerar la solución de Russell a este problema, veremos brevemente las propuestas
de otros dos filósofos al respecto: Frege y Meinong.
11.5.2
Frege
El lector interesado debe referirse a un trabajo fundamental de Frege, Sobre sentido y referencia,
de 1892 [Fre98]. En ese trabajo, uno de los más influyentes para la tradición analítica de la filosofía,
Frege establece una teoría bidimensional del significado, postulando que este consta de dos aspectos,
que él llama sentido y referencia. No es del caso desarrollar aquí esa teoría, y lo que hacemos en su
lugar es recomendar con mucho énfasis la lectura del trabajo referido. Pero las respuestas finales
de Frege a nuestras preguntas son que las oraciones del tipo DDV es F son significativas (tienen
sentido, pero no referencia) y no son ni verdaderas ni falsas.
11.5.3
Meinong
Es muy posible que Alexius Meinong haya sido bastante mal interpretado por el propio
Russell y que realmente haya dicho cosas muy sensatas e interesantes. Esto es así porque existen
meinongianos entre filósofos muy respetables. Pero al encontrarse con la teoría de Meinong, uno
tiene la sensación de que es de las cosas más excéntricas que se le hayan ocurrido a alguien en la
historia de la filosofía, y eso es mucho decir.
Meinong sostiene que las descripciones definidas vacías, como “el círculo cuadrado” refieren y
por eso son significativas. Los detalles de la teoría son sutiles, y tienen que ver con modos de no
existir. Brevemente, para Meinong, la montaña de oro no existe, pero subsiste y es ese modo de no
existencia el que nos permite hablar significativamente de ella. En su teoría, dado que
Todos los objetos de oro son metálicos.
es verdadera,
La montaña de oro es metálica.
Capítulo 11. L PO y lenguaje natural
232
sería verdadera, mientras que debido a la falsedad de
En Uruguay hay montañas.
también sería falsa
La montaña de oro está en Uruguay.
Para introducirse en la llamada “jungla de Meinong”, la referencia básica es [Mei04].
11.5.4
Russell
Russell va a aplicar el análisis lógico para dar su solución al problema. En un célebre artículo
llamado Sobre el denotar [Rus05], ataca las teorías de Frege y de Meinong y propone la propia. Con
respecto al ataque a Frege, se debe decir que Russell afirma atacar su teoría, pero los exégetas no se
han puesto de acuerdo acerca de qué hace Russell cuando afirma hacer eso. Se considera que esa
parte de Sobre el denotar es lo más intrincado que haya publicado Russell nunca, y frecuentemente
se la llama “los pasajes oscuros”.
Acerca de la opinión que le merecía la teoría de Meinong, es bastante elocuente este pasaje:
Me parece que en tales teorías falla ese sentido de realidad que debe ser preservado
aun en los estudios más abstractos. Debo sostener que la lógica no debe admitir un
unicornio más que lo que puede hacerlo la zoología... un robusto sentido de realidad
es muy necesario para enmarcar un análisis correcto de las proposiciones acerca de
unicornios, montañas de oro, cuadrados redondos y otros pseudo objetos de ese tipo.
[Rus19]
La solución de Russell va a ser asombrosa. Va a implicar que expresiones como “el actual presidente
de EEUU” no son denotativas, o sea, las descripciones definidas, según Russell, nunca denotan,
no importa si son vacías o no. La raíz de ese desenlace se halla en su adscripción a un importante
principio que toma de Frege, principio que ha sido enormemente influyente en la filosofía analítica.
Según este principio, el significado de las expresiones debe ser analizado en el contexto de
enunciados. Es así que Russell rechaza responder qué significan las descripciones definidas aisladas
y sostiene que deben analizarse en el contexto de un enunciado. Tomemos, pues, el enunciado
El actual presidente de EEUU sabe jugar al go.
Russell va a advertir algo que ya había sido remarcado por Frege, y es que la estructura
gramatical de los enunciados muchas veces oculta su forma lógica. Solo que Frege en este caso no
lo había advertido o creído.
Según Russell, el último enunciado destacado significa lo mismo que la conjunción de estos
tres:
1. Existe al menos un objeto que es el actual presidente de EEUU
2. No hay más que un objeto que sea el actual presidente de EEUU.
3. Ese (único) objeto sabe jugar al go.
O sea, si tomamos el diccionario
Nombre o predicado
... es actual presidente de EEUU
... sabe jugar al go
Constante de individuo o letra de relación
P
G
11.6 Excurso filosófico: Una versión del argumento ontológico
233
podemos traducir esa expresión a L PO como
∃x(Px ∧ ∀y(Py → y = x) ∧ Gx)
Basta mirar la fórmula para darse cuenta de que no hay denotado ningún individuo, lo que debería
hacerse con una constante de individuo. Esta proposición será verdadera o falsa según el actual
presidente de EEUU sepa o no jugar al go.
Con respecto a
El actual rey de EEUU sabe jugar al go.
el mismo análisis vemos arroja como resultado que es falsa, porque afirma la existencia de un rey
de EEUU. ¡Y también es falsa, por el mismo motivo, El actual rey de EEUU no sabe jugar al go!
O sea, a pesar de las apariencias, esta no es la negación de aquella, algo que la gramática oculta y
el análisis lógico saca a luz.
Ejercicio 11.1 Hallar la negación de El actual rey de EEUU sabe jugar al go según la teoría de
Russell.
Quizá el lector considere que no es necesario conocer la lógica de primer orden para proponer
esta solución al problema de las descripciones definidas. Eso tiene su parte de razón. Se puede
explicar todo lo que ha sido explicado sin apelar a esta lógica. Pero indudablemente, desde el punto
de vista histórico es un hecho que esta solución fue propuesta una vez conocida una lógica con la
capacidad expresiva de L PO, y esto no parece casual. Además, aceptado este enfoque, se sigue
que la lógica adecuada para tratar argumentos en los que aparezcan descripciones definidas es la de
primer orden.
Para terminar este excurso, debemos decir que la teoría de Russell de las descripciones definidas
ha encontrado, por supuesto, detractores. No obstante ello, es una de las teorías más robustas al
respecto. Tiene la ventaja de no enmañarar la ontología, como hace la teoría de Meinong, y de ser
más uniforme que la teoría de Frege, la que establece una tajante diferencia entre los enunciados en
los que aparecen descripciones definidas vacías y aquellos en los que aparecen descripciones no
vacías, ya que estos tienen valor de verdad y aquellos no.
11.6
11.6.1
Excurso filosófico: Una versión del argumento ontológico
La versión cartesiana
En este excurso vamos a analizar uno de los argumentos más célebres de la historia de la
filosofía en la que posiblemente sea su versión más débil. El argumento ontológico es un argumento
que pretende demostrar la existencia de Dios a partir de premisas a priori, es decir, que no dependen
en modo alguno de la experiencia. El primer argumento ontológico fue propuesto por San Anselmo
en su obra Proslogion [Fer79]. A diferencia de buena parte de la literatura teológico filosófica
medieval, ese texto es muy agradable para lectores modernos, de modo que recomendamos su
lectura. Según entiende el autor de estas líneas, el argumento original de San Anselmo es mucho
mejor que la versión que vamos a presentar aquí, debida a Descartes, a quien cedemos la palabra
para que nos hable desde su quinta Meditación:
Pues bien, si del hecho de poder yo, sacar de mi pensamiento la idea de una cosa, se
sigue que todo cuanto percibo clara y distintamente que pertenece a dicha cosa, le
pertenece en efecto, ¿no puedo extraer de ahí un argumento que pruebe la existencia
de Dios? Ciertamente, yo hallo en mí su idea (es decir, la idea de un ser sumamente
Capítulo 11. L PO y lenguaje natural
234
perfecto), no menos que hallo la de cualquier figura o número; y no conozco con
menor claridad y distinción que pertenece a su naturaleza una existencia eterna.
[...]teniendo por costumbre, en todas las demás cosas, distinguir entre la existencia y
la esencia, me persuado fácilmente de que la existencia de Dios puede separarse de su
esencia, y que, de este modo, puede concebirse a Dios como no existiendo actualmente.
Pero, sin embargo, pensando en ello con más atención, hallo que la existencia y la
esencia de Dios son tan separables como la esencia de un triángulo rectilíneo y el
hecho de que sus tres ángulos valgan dos rectos, o la idea de montaña y la de valle;
de suerte que no repugna menos concebir un Dios (es decir, un ser supremamente
perfecto) al que le falte la existencia (es decir, al que le falte una perfección), de lo
que repugna concebir una montaña a la que le falte el valle.
[...] aunque desde luego no es necesario que yo llegue a tener alguna vez en mi
pensamiento la idea de Dios, sin embargo, si efectivamente ocurre que dé en pensar
en un ser primero y supremo, y en sacar su idea, por así decirlo, del tesoro de mi
espíritu, entonces sí es necesario que le atribuya toda suerte de perfecciones, aunque
no las enumere todas ni preste mi atención a cada una de ellas en particular. Y esta
necesidad basta para hacerme concluir (luego de haber reconocido que la existencia
es una perfección) que ese ser primero y supremo existe verdaderamente. [Des13]
El argumento parece muy sencillo. Podemos presentarlo de este modo:
Paso
Contenido
Justificación
1
Supongamos que no existe un ser supremamente perfecto
Un ser supremamente perfecto tiene todas las perfecciones
La existencia es una perfección
Existe un ser supremamente perfecto
Contradicción
Rechazamos el supuesto de 1, o sea,
aceptamos que existe un ser supremamente perfecto
Supuesto para llegar a una contradicción
Premisa (analíticaa )
2
3
4
5
6
Premisa (analítica, según Descartesb )
Por 2 y 3
Por 1 y 4
Porque el supuesto de 1 nos llevó a contradicción en 5.
a “Analítica”
quiere decir que su verdad solo depende de su significado.
explicación usual de esta analiticidad reside en decir que siempre es más perfecto lo que existe que lo que no
existe. Es un lugar común de la jerarquización ontológica medieval, la que llega a concebir grados de existencia.
b La
Esta reconstrucción intenta seguir la retórica de Descartes, quien dice “no repugna menos
concebir un Dios (es decir, un ser supremamente perfecto) al que le falte la existencia...” y así
parece querer inducirnos a partir de ese supuesto que sostiene la posición atea y a descubrir con
repugnancia una contradicción. Pero en realidad, todo el argumento está expresado en las premisas
2 y 3 y la conclusión 4.
Veamos algunas de las objeciones que ha recibido.
11.6.2
Objeciones
Falta probar la posibilidad de Dios
Leibniz [Lei83] consideró que el argumento no llegaba a probar la existencia de Dios por un
detalle: según él, se está asumiendo la posibilidad de la existencia de Dios sin probarla. Si Dios
11.6 Excurso filosófico: Una versión del argumento ontológico
235
fuese un ser imposible (es decir, si su caracterización fuese contradictoria), entonces se podría
“probar” cualquier cosa acerca de él, en el mismo sentido en que podemos probar
Si un número es distinto de sí mismo, entonces ese número es omnipotente.
Es fácil ver que esto es así traduciendo a L PO con el siguiente diccionario:
Nombre o predicado
Constante de individuo o letra de relación
x un número
x es omnipotente
Nx
Ox
∀x((Nx ∧ ¬x = x) → Ox)
Es trivial ver que se trata de una fórmula verdadera bajo toda interpretación, todas las instancias
del universal arrojan como resultado un condicional con antecedente falso.
La objeción leibniciana es buena, como el lector podrá observar, en el sentido de que tiene
razón en cuanto a que Descartes no ha probado que Dios exista, porque podría ser que la forma de
caracterizar a Dios fuese inconsistente, y además hay buenas razones para creer que las “perfecciones” pueden chocar entre sí2 . Leibniz cree, por otra parte, que Descartes ha probado lo siguiente:
Si la existencia de Dios es posible, entonces Dios existe.
Veremos en breve si esto es correcto o no.
Abre las porteras
Hay una respuesta estándar a ciertas versiones del argumento ontológico que consiste en decir
que si el argumento es correcto, uno análogo demostraría la existencia de cosas que en principio no
parece razonable aceptar que existan. Esta respuesta apareció por primera vez con el argumento
ontológico original, el de San Anselmo, en la pluma de un monje llamado Gaunilo, de quien lo
único que se sabe es que pergeñó el contraargumento. Como Anselmo mandó que su texto con el
argumento ontológico fuera reproducido con la respuesta de Gaunilo y su respuesta a la respuesta,
su nombre se ha conservado en la memoria de la posteridad. Gaunilo dijo que aceptar el argumento
de Anselmo llevaría a aceptar la existencia de unas islas perfectas. Lo mismo se podría decir
aquí. Aceptado el argumento de Descartes, uno podría afirmar que existe el filósofo supremamente
estúpido, porque siempre será más estúpido algo que exista que algo que no exista.
Sin embargo, aunque esto parezca un contraargumento potente, tiene dos debilidades. Una es
que siempre se puede argumentar que el caso de Dios es diferente a los de islas o filósofos, que la
peculiar naturaleza de Dios hace que el argumento funcione sobre él y no sobre otras cosas (esto
sostiene Descartes en su respuesta a la objeción de Gassendi y sostuvo Anselmo contra Gaunilo).
La otra, que parece más grave, es que no es una respuesta directa al argumento, no muestra ninguna
2 La
explicitación del conflicto entre dos atributos que se supone caracterizan a Dios se atribuye a Epicuro: “¿Es
que Dios quiere prevenir el mal, pero no es capaz? Entonces no es omnipotente. ¿Es capaz, pero no desea hacerlo?
Entonces es malévolo. ¿Es capaz y desea hacerlo? ¿De dónde surge entonces el mal? ¿Es que no es capaz ni desea
hacerlo? ¿Entonces por qué llamarlo Dios?” [Lac18] y está sutilmente delineado por Cervantes en estas maravillosas
líneas: “Al culpado que cayere debajo de tu juridición considérale hombre miserable, sujeto a las condiciones de la
depravada naturaleza nuestra, y en todo cuanto fuere de tu parte, sin hacer agravio a la contraria, muéstratele piadoso
y clemente, porque aunque los atributos de Dios todos son iguales, más resplandece y campea a nuestro ver el de la
misericordia que el de la justicia.” [Cer80]
Capítulo 11. L PO y lenguaje natural
236
falla en él. Es lo que se llama “poner en mala compañía” el argumento. Afirma que si ese argumento
es correcto, hay otros, que nos parecen malos, que son buenos. Pero desde el punto de vista lógico
esto dista de ser una buena respuesta. Al menos, quien la esgrime debe estar preparado para que el
proponente del argumento ontológico le conteste: “Sí, ¿y?”.
¿Es la existencia un predicado?
Comúnmente se supone que Kant dio una respuesta que redujo a polvo todas las versiones
conocidas en su tiempo de los argumentos ontológicos, incluida la que estamos examinando. Esa
respuesta puede resumirse diciendo que la existencia no es un predicado. Este autor dedica el
capítulo cuarto de la tercera sección del libro segundo de su obra cumbre, Crítica de la razón pura,
al problema, y lo titula De la imposibilidad de una prueba ontológica de la existencia de Dios.
Dejemos la palabra a Kant:
Poner un triángulo y suprimir en cambio sus tres ángulos, es contradictorio; no lo
es, empero, suprimir el triángulo junto con sus tres ángulos. Exactamente lo mismo
ocurre con el concepto de ente absolutamente necesario: si se suprime su existencia, se
suprime la cosa misma, con todos sus predicados; ¿de dónde puede provenir entonces
la contradicción? Externamente nada hay que pueda contradecirse, puesto que la cosa
no ha de ser necesaria externamente; tampoco internamente, puesto que mediante la
supresión de la cosa misma habéis suprimido al propio tiempo todo lo interior. Dios
es todopoderoso; esto es un juicio necesario. La omnipotencia no puede suprimirse si
ponéis una divinidad [...] Pero si decís: Dios no es, no se da la omnipotencia ni ningún
otro de los predicados de él, pues todos ellos se han suprimido junto con el sujeto,
y en este pensamiento no hay la menor contradicción. [...] yo no puedo hacerme el
menor concepto de una cosa que, de suprimirse con todos sus predicados, dejaría una
contradicción, y sin la contradicción [...] no tengo ningún atributo de imposibilidad.
[Kan28]
Actualmente no hay consenso acerca de esta cuestión. Hay filósofos que creen que la argumentación kantiana es correcta, mientras otros creen que la existencia puede ser tratada como un
predicado. Desde nuestro punto de vista, el centrado en la lógica de primer orden, es claro que
tenemos un cuantificador existencial, y que no tratamos a la existencia como un predicado3 . De
hecho, los dominios de las interpretaciones son no vacíos, de forma que siempre “existe algo”,
y no solemos tomar la existencia como un predicado lógico. Pero nada obsta para que podamos
considerar un dominio de objetos entre los que podamos hacer distinciones a través de predicados,
como por ejemplo “existentes realmente”, “existentes solo idealmente”, etc. Por eso, si aceptamos
la argumentación kantiana, debemos rechazar el argumento cartesiano sobre la base de que en él no
son factibles estas distinciones, lo que nos lleva a terrenos complicados. Lo usual para rechazar estas
distinciones es decir que si las aceptamos, surgen dificultades inadmisibles para tratar enunciados
como
Los unicornios realmente existentes existen.
pero esto nos lleva a grandes discusiones semánticas. Sin embargo, la falla del argumento en la
versión cartesiana es tan profunda que aun concediendo que la existencia es un predicado se puede
mostrar que no es válido.
3 Es
de notar que para Frege la existencia es un predicado, solo que de segundo orden, es decir, un predicado que se
predica de predicados. Concretamente, la extensión del concepto correspondiente es la clase de conceptos de extensión
no vacía.
11.6 Excurso filosófico: Una versión del argumento ontológico
11.6.3
237
La falacia
El argumento en la versión de Descartes es una falacia bastante burda, pero para descubrirla y
evidenciarla es de ayuda cierta familiaridad con la lógica de primer orden.
Aceptemos que la existencia es un predicado y trabajemos con el siguiente diccionario:
Nombre o predicado
Constante de individuo o letra de relación
x existe
x es supremamente perfecto
Ex
Sx
Está claro que Descartes quiere demostrar que un ser supremamente perfecto existe, o sea que
quiere llegar a lo que se expresa como
1 ∃x(Sx ∧ Ex)
La reconstrucción del argumento comienza así:
Supongamos que no existe un ser supremamente perfecto. O sea, supongamos
¬∃x(Sx ∧ Ex)
o, lo que es equivalente
∀x(Sx → ¬Ex)
Si se observa la marcha del argumento, esta suposición solo juega un papel retórico. La
contradicción pretendida surge al demostrar, a partir de las premisas, que un ser supremamente
perfecto existe. Por eso podemos concentrarnos en considerar cómo es que Descartes llega a 1 a
partir de sus premisas, que son a priori.
Aceptemos la premisa que se expresa con
La existencia es una perfección.
Es claro que a partir de esa premisa sola no podemos extraer la existencia de un ser supremamente perfecto, porque no dice nada acerca de seres supremamente perfectos. Para que el argumento
funcione es necesaria la premisa restante:
S Un ser supremamente perfecto tiene todas las perfecciones.
que es muy convincente. Ahora bien, es convincente como una definición de “ser supremamente
perfecto” o al menos como una caracterización de él. Es muy claro que de la existencia es una
perfección y S surge
Un ser supremamente perfecto existe (tiene existencia).
Y este es todo el argumento. Pero veamos qué ha pasado: Descartes entiende que esa conclusión
es lo que se expresa como ∃x(Sx ∧ Ex). Sin embargo, la premisa S solo fue aceptada como una
caracterización de “ser supremamente perfecto”, lo que se podría expresar así:
∀x(Sx → T T Px)
Capítulo 11. L PO y lenguaje natural
238
donde claramente, T T Px está por “x tiene todas las perfecciones”. Ahora bien, de que la existencia
es una perfección aceptamos
Todo objeto que tenga todas las perfecciones tiene la perfección de la existencia, es decir,
existe.
o sea
∀x(T T Px → Ex)
Y es evidente que todo lo que se puede inferir de esto es que
Para todo objeto, si es un ser supremamente perfecto, entonces existe.
Pero esto es
∀x(Sx → Ex)
lo que no contradice en modo alguno la suposición inicial, es decir, el conjunto
{∀x(Sx → Ex), ∀x(Sx → ¬Ex)}
es satisfacible. En particular, cualquier interpretación en la cual la denotación del predicado S sea
vacía, es decir, donde no haya seres supremamente perfectos, hace verdaderas las dos fórmulas.
¿Por qué parece convincente el argumento de Descartes entonces? Por una razón muy burda:
Cuando aceptamos como premisa que un ser superior tiene todas las perfecciones lo aceptamos
como un universal, pero cuando llegamos a la conclusión, Descartes quiere que la leamos no como
un universal, sino como una afirmación de existencia. Es algo tan trivial como que leemos
Un ser supremamente perfecto existe
lo que funciona como una caracterización, como si dijera
Existe un ser supremamente perfecto
lo que es una aserción de existencia.
Y no se trata de que Descartes nos haya querido engañar, sino de que seguramente estaba
convencido de la corrección de este razonamiento falaz.
12. Consecuencia semántica
NA vez establecida la semántica de la lógica de primer orden, consideraciones análogas a las
que se hicieron para el caso de la lógica proposicional nos llevan a definir la consecuencia
semántica para lenguajes de primer orden en una forma que se expresa casi de la misma
manera que para el lenguaje de la lógica proposicional.
U
12.1
Definición y primeros ejemplos
Definición 12.1.1 — Consecuencia semántica en lógica de primer orden. Sea Γ un
conjunto de sentencias de L PO y A una sentencia de L PO. A es consecuencia semántica de
Γ si y solo si todo modelo de Γ es también modelo de A.
Notación 12.1. Usaremos la misma notación para la consecuencia semántica en lógica de primer
orden que en lógica proposicional, esto es, Γ |= A. Si fuese necesario distinguirlas, utilizaremos los
símbolos subindizados |=L P y |=L PO . Sin embargo, esto será extraordinario ya que los contextos
casi siempre dejan claro cuál relación se está considerando.
La identidad estructural de ambas definiciones se debe a que estamos frente a una manera
estándar de formalizar la noción de consecuencia lógica: definir rigurosamente la consecuencia
semántica. Para eso se define un lenguaje formal al que se le da una semántica, se definen los
modelos, y la definición de consecuencia semántica se expresa de esta manera en que ya lo hicimos
dos veces, con independencia del soporte formal y semántico que hayamos establecido.
Por supuesto, el hecho de que la definición se exprese de en forma muy similar para la lógica
proposicional y para la lógica de primer orden (la expresión es en español, nuestro metalenguaje
tanto al tratar con lógica proposicional como con lógica de primer orden) no significa que la
definición sea la misma ya que los conceptos involucrados - los de fórmula, sentencia y modelo- no
son los mismos en ambas lógicas.
Recordemos que en el marco de la lógica de primer orden, un modelo de una sentencia A es una
interpretación M que consta de un conjunto no vacío y una función de denotación y que otorga el
valor de verdad V a la sentencia bajo las estipulaciones vistas en 10.3.5.
Capítulo 12. Consecuencia semántica
240
O sea, decir que una sentencia A es consecuencia semántica de un conjunto Γ en el marco
del lenguaje de primer orden, es lo mismo que decir que elijamos como elijamos el conjunto y la
función de denotación para interpretar, siempre que la interpretación asigne valor verdadero a las
sentencias de Γ asignará valor verdadero a la sentencia A.
Observe que se trata de algo mucho más rico que la noción análoga para lógica proposicional.
En esta los modelos y contramodelos quedaban determinados por asignaciones de valores de
verdad a las letras proposicionales, mientras que en el lenguaje de primer orden, hay que tener en
cuenta qué sucede con las interpretaciones, que como vimos pueden ser pensadas en términos de
estructuras, objetos mucho más complejos que cualquier cosa que hayamos encontrado en lógica
proposicional. Esto hará de la evaluación de la relación de la consecuencia semántica para la lógica
de primer orden algo de dificultad mucho mayor que para la lógica proposicional1 .
Ahora mostraremos algunos ejemplos. Para no arrastrar la pesada notación del lenguaje formal,
escribiremos las constantes de individuo con las primeras letras del abecedario, a, b, c, ...; las
variables con las últimas, v, x, y, z, las letras de relación con mayúsculas P, Q, R, S,... La aridad de
estas últimas quedará clara por la cantidad de variables o constantes de individuo que las sigan.
Ejemplo 12.1 Demostrar que
{∀x((Sx ∧ ¬Ax) → Hx), ∀x(Lx → Sx), ∃x(Lx ∧ ¬Hx)} |= ∃xAx
Consideremos una interpretación M cualquiera tal que
1. M [∀x((Sx ∧ ¬Ax) → Hx)] =V
2. M [∀x(Lx → Sx)] =V
3. M [∃x(Lx ∧ ¬Hx)] =V
Los puntos 1, 2 y 3 imponen que M sea modelo del conjunto dado. Queremos mostrar que esas
condiciones imponen también M (∃xAx) =V.
Sea M el dominio de M . Por 3, se tiene, considerando M + , una interpretación que extiende a
M sobre un lenguaje que agrega constantes de individuo para denotar cada elemento de M, que, de
acuerdo a la semántica del cuantificador existencial:
i) M + [(La ∧ ¬Ha)] =V para alguna constante de individuo a del lenguaje extendido.2 Esto
implica, por la semántica de la conjunción, que
ii) M + (La) =V y
iii) M + (¬Ha) =V, por lo que, según la semántica de la negación
iv) M + (Ha) =F
Considerando 2, por la semántica del cuantificador universal, sabemos que para toda constante del lenguaje extendido, y en particular para a, tenemos que la sustitución de la variable
universalmente cuantificada por ella arroja una fórmula verdadera en M + :
v) M + [(La → Sa)] =V, que junto con ii), dada la semántica del condicional implican
vi) M + (Sa) =V
1 Como ya se advirtió, en un segundo curso de lógica para estudiantes de filosofía se debería aprender que es posible
programar una computadora para que dado un conjunto de fórmulas de L P y una fórmula de L P, determine si la
fórmula es o no consecuencia semántica del conjunto en todos los casos, pero que no es posible que una computadora
resuelva en todos los casos el problema análogo para L PO.
2 Por supuesto, la constante podría pertenecer al lenguaje original. Lo que es seguro es que pertenece al lenguaje
extendido.
12.1 Definición y primeros ejemplos
241
Considerando ahora 1 y iv), y razonando del mismo modo que cuando tratamos 2, llegamos a
que
vii) M + [((Sa ∧ ¬Aa)] =F, que junto con vi), por la semántica de la conjunción obliga a
ix) M + (¬Aa) =F, con lo que, por la semántica de la negación es
x) M + (Aa) =V, o sea que la sustitución de la constante de individuo a en la fórmula Ax arroja
una fórmula verdadera en M + . Eso demuestra que
xi) M (∃xAx) =V, según la semántica del cuantificador existencial.
Como M es cualquier modelo del conjunto {∀x((Sx ∧ ¬Ax) → Hx), ∀x(Lx → Sx), ∃x(Lx ∧ ¬Hx)}
(no le impusimos ninguna otra condición), queda probado que todo modelo del conjunto lo es de la
fórmula ∃xAx.
Para demostrar que una fórmula no es consecuencia semántica de un conjunto basta, por
supuesto, encontrar un único modelo: uno que lo sea del conjunto y no lo sea de la fórmula.
Ejemplo 12.2 Mostrar que {∃xPx, ∃xQx} 2 ∃x(Px ∧ Qx)
Desde el punto de vista heurístico, nos puede convenir trabajar con puntos o círculos que
representen los elementos del dominio, a los que les asignaremos los predicados P y Q en el caso
de que en nuestro modelo del conjunto los tengan.Si no asignamos P y Q a un mismo punto, la
interpretación otorga valor F a la fórmula ∃x(Px ∧ Qx).
Está claro que todo modelo del conjunto con un solo elemento será también modelo de la
fórmula. Por lo tanto, probemos con dos puntos, o sea, busquemos un modelo del conjunto cuyo
dominio tenga dos elementos (los llamaremos u y v) y no sea modelo de ∃x(Px ∧ Qx).
u
v
Para que la fórmula ∃xPx tome valor V bajo la interpretación, es necesario que al menos uno de
los elementos del conjunto tenga la propiedad P. Hagamos que el elemento u cumpla esa condición.
P
u
v
Para que en estas condiciones la fórmula ∃xQx tome valor V, es necesario que uno de los elementos
tenga la propiedad Q. Si suponemos que es u
PQ
u
v
Obtenemos un modelo de la fórmula ∃x(Px ∧ Qx), que no es lo que nos interesa. Si asignamos Q al
elemento b
P
u
Q
v
Vemos que tenemos representado un modelo del conjunto que no es modelo de ∃x(Px ∧ Qx).
Podemos por lo tanto afirmar que la interpretación M definida por
M = {u, v}
PM = {u}
QM = {v}
es modelo del conjunto y contramodelo de la fórmula, lo que demuestra que no hay relación de
consecuencia semántica.
Capítulo 12. Consecuencia semántica
242
12.2
Propiedades de la consecuencia semántica en primer orden
Podemos repasar los resultados que obtuvimos para la relación de consecuencia semántica en
lógica proposicional y ver si se cumplen para la lógica de primer orden. Es lo que haremos en
esta sección, que será breve debido a que los resultados son muy similares y las demostraciones
análogas.
Es claro que dado cualquier conjunto de sentencias y cualquier sentencia, esta es consecuencia
semántica del conjunto o no lo es. Con respecto a las analogías que pueden establecerse con la
relación de consecuencia semántica en lógica proposicional, tenemos lo siguiente:
1. Si Γ es insatisfacible, entonces Γ |= A para toda sentencia A
2. Si κ es una contradicción, entonces Γ |= κ si y solo si Γ es insatisfacible.
Teorema 12.2.1
La demostración es idéntica al caso de la lógica proposicional, como la de los teoremas siguientes:
Teorema 12.2.2 ν es una fórmula válida si y solo si |= ν
Teorema 12.2.3 — Monotonía. Si Γ |= A, entonces para todo ∆, Γ ∪ ∆ |= A.
Teorema 12.2.4 — Deducción. Para todo conjunto Γ y todas sentencias A y B,
Γ, A |= B si y solo si Γ |= (A → B)
Teorema 12.2.5 — “Absurdo”. Para todo conjunto Γ y toda sentencias A,
Γ |= A si y solo si Γ, ¬A es insatisfacible.
En lógica proposicional teníamos el importantísimo teorema 6.6.1 (página 115), del condicional
asociado, que nos permitió reducir el problema de evaluar la relación de consecuencia semántica
entre un conjunto finito y una fórmula a evaluar la tautologicidad de una fórmula, cosa que es
realizable mediante el procedimiento mecánico de las tablas de verdad.
Si razonamos en forma análoga en lógica de primer orden, obtenemos el
Teorema 12.2.6 {A1 , ..., An } |= B si y solo si (A1 ∧ ... ∧ An ) → B es una fórmula válida.
Sin embargo, este último teorema no reviste la misma importancia que el del condicional
asociado para la lógica proposicional. Esto es debido a que no existe un procedimiento mecánico
para evaluar la relación de consecuencia semántica en lógica de primer orden.
De manera que enfrentados al problema de determinar si un conjunto y una fórmula dados
están en relación de consecuencia semántica, podemos intentar, como hicimos en los primeros
ejemplos de este capítulo, trabajar directamente con interpretaciones. Es de notar que el método de
las tablas de verdad es completamente inútil, porque no disponemos de tablas aplicables sobre los
cuantificadores, como sí las tenemos para aplicar sobre los conectivos proposicionales. El trabajo
sobre interpretaciones no es sencillo. Veamos un ejemplo de error que se podría cometer fácilmente.
Supongamos que sabemos que
M (∃xQx) =V
Tal vez uno esté tentado a razonar así:
La fórmula ’dice’ que que en el dominio hay un elemento que cumple Q. Ese elemento
12.2 Propiedades de la consecuencia semántica en primer orden
243
es denotado por alguna constante en M + a la que llamaré a y por lo tanto infiero que
M + (Qa) =V.
Esto es un grave error, por lo siguiente:
Supongamos que se parte de
1. M (∃xPx) =V
2. M (∃xQx) =V
Aplicando el razonamiento anterior a 1, aceptaríamos que
3 M + (Pa) =V
Pero ahora debería ser evidente que no podemos inferir de 2) que
4 M + (Qa) =V
Como no lo podemos inferir en este caso, debemos concluir que 4) no se sigue de 2). ¿Y por qué
no lo podemos inferir en este caso? La respuesta es que la inferencia no es correcta porque si bien
2) nos asegura que un individuo tiene la propiedad Q, nada nos asegura que sea un individuo que
tenga además la propiedad P, como se indica en lo inferido en 3) a partir de 1).
El error es, en términos informales, idéntico a partir de las premisas
Al menos uno es rubio.
Al menos uno es alto.
y razonar así:
Como al menos uno es alto, estoy seguro de que hay un individuo, (al que llamaré
Juan), que es alto y puedo decir que Juan es alto.
Ahora bien, como al menos un individuo es rubio, puedo tomar un individuo del
dominio (lo llamaré Juan) y asegurar que es rubio. Por lo tanto Juan es rubio”.
Y este razonamiento es claramente incorrecto, porque de que hay al menos un alto y hay al
menos un rubio hemos llegado a algo que nos permite inferir que hay uno que es alto y rubio a la
vez. En el fondo, lo que ocurre es que para cualquier constante a se tiene
{∃xPx} 2 Pa
Esto es solamente un ejemplo, pero basta para que nos percatemos de que las inferencias
que se deben hacer al razonar sobre interpretaciones son bastante delicadas, y si no queremos
naufragar al hacerlas, va a convenir desarrollar un procedimiento que recoja la idea intuitiva de
validez argumental pero desde otro ángulo. A partir de ese procedimiento se llegará a la noción
de consecuencia sintáctica para la lógica de primer orden,como veremos en breve. Es debido a
estas dificultades en el tratamiento de la consecuencia semántica y al apartamiento –que ya hemos
observado en el caso de la lógica proposicional– entre los razonamientos comunes y los que se
hacen en términos de interpretaciones, que no insistiremos en la evaluación de esta relación como
control de la corrección argumental, salvo en algunos casos sencillos, a lo que dedicaremos la
próxima sección.
Capítulo 12. Consecuencia semántica
244
12.3
La consecuencia semántica y la corrección argumental
Mutatis mutandis, todo lo que hemos dicho acerca de corrección argumental y consecuencia
semántica en el caso de la lógica proposicional es aplicable aquí. O sea, dado un argumento en
lenguaje natural en el que descubrimos esta estructura
Premisa 1
..
.
Premisa n
Conclusión
y tal que las premisas son traducibles a L PO como sentencias P1 , ..., Pn y la conclusión como la
sentencia C, si logramos determinar que
{P1 , ..., Pn } |= C
podemos decir que el argumento es válido.
Sin embargo, debido a las dificultades que ya mencionamos existen para evaluar la relación de
consecuencia semántica con los conocimientos de que disponemos, veremos solo la aplicación de
este método en algunos casos sencillos.
Ejemplo 12.3 Nuestro primer ejemplo será el argumento profesoral más conocido del mundo:
reivindicaremos a generaciones de profesores que aburrieron a generaciones de estudiantes con el
argumento
Todos los hombres son mortales.
Sócrates es hombre.
Sócrates es mortal.
mostrando con instrumental de la lógica de primer orden, que es válido.
Para hacerlo, debemos traducir las oraciones a sentencias de L PO, para lo que consideraremos
el siguiente diccionario:
Nombre o predicado
... es hombre
... es mortal
Sócrates
Constante de individuo o letra de relación
H
M
s
La primera oración (Todos los hombres son mortales) es la más difícil de traducir, pero ya lo
hemos hecho en 9.1 (página 193), y allí referimos al lector. Allí dimos diferentes posibilidades de
traducción, entre las cuales elegiremos esta:
∀x(Hx → Mx)
La traducción de la restante premisa es, claramente, Hs y la de la conclusión es Ms. Por lo
tanto, el argumento será declarado válido al establecer
{∀x(Hx → Mx), Hs} |= Ms
Sea M tal que
12.3 La consecuencia semántica y la corrección argumental
245
1. M [∀x(Hx → Mx)] =V
2. M (Hs) =V
Por 1 tenemos que
3. M [(Hs → Ms)] =V (ya que s es constante del lenguaje, no es necesario extenderlo, y al
sustituir la variable por cualquier constante da una fórmula verdadera, por la semántica del
cuantificador universal)
3 y 2 implican M (Ms) =V, dada la semántica del condicional. Esto demuestra que todo modelo
del conjunto de premisas es modelo de la conclusión, por lo que el argumento es válido.
Ejemplo 12.4 El siguiente argumento es válido:
Todos insultan a cualquiera que insulta.
Juan insulta a Pedro.
María insulta a Diego.
Tomemos el siguiente diccionario
Nombre o predicado
Constante de individuo o letra de relación
... insulta a ...
Juan
Pedro
María
Diego
I
j
p
m
d
Al traducir a L PO obtenemos
∀x(∃yIxy → ∀zIzx)
I jp
Imd
La validez quedará establecida si demostramos
{∀x(∃yIxy → ∀zIzx), I j p} |= Imd
Sea M una interpretación tal que
1. M (∀x(∃yIxy → ∀zIzx)) =V
2. M (I j p) =V
Por 2 y la semántica del existencial tenemos
3. M (∃yI jy) =V
y por 1 y la semántica del universal
4. M (∃yI jy → ∀zIz j) =V
3 y 4 y la semántica del condicional implican
Capítulo 12. Consecuencia semántica
246
5. M (∀zIz j) =V
de donde, por la semántica del universal
5. M (Id j) =V
por lo que la semántica del existencial asegura
6. M (∃yIdy) =V
por 1 tenemos
7. M (∃yIdy → ∀zIzd) =V
y por 6 y 7
8. M (∀zIzd) =V
con lo que, finalmente
8. M (Imd) =V
lo que prueba la existencia de la relación de consecuencia semántica entre el conjunto de premisas
y la conclusión.
12.4
Excurso filosófico: Lógica aristotélica y crítica de Russell
En este excurso estudiaremos la lógica tradicional o aristotélica, con propósitos de contrastación
con la lógica que presentamos en el curso (si bien hemos presentado dos lógicas, la proposicional
y la de primer orden, es obvio que podemos considerar que la última incluye a la primera en un
sentido muy claro, aunque no compartan el lenguaje).
12.4.1
La lógica aristotélica
Con la expresión “lógica aristotélica” no nos referiremos exactamente a la lógica tal cual la
presentó Aristóteles, sino solo a su parte medular, la silogística, y a los desarrollos –principalmente
medievales– de esa teoría.
Términos
La primera observación que se debe hacer es que la lógica aristotélica es una lógica de términos.
Se considera que los términos son los componentes de la proposición, en el siguiente sentido:
Los esquemas inferenciales que toma en cuenta esta lógica contienen esquemas de proposición
del tipo
Todos los A son B
Algún C es D
Ningún E es F, etc.
Obviamente, A, B, C, D, E y F son metavariables. Pero no están por el mismo tipo de cosas que
por las que están G y H en
12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell
247
Si G, entonces H
En este último esquema G y H están por proposiciones, mientras que en los primeros, las letras
están por lo que se llama “términos”. Si decimos
Todos los hombres son mortales.
estamos usando el término “hombre” y el término “mortal”. Los términos pueden ser singulares o
generales. Los generales son los que asociamos a clases. Los singulares son los que asociamos a
individuos como los nombres propios, o los generales precedidos de demostrativos como “este” o
“aquel”.
Proposiciones categóricas
La lógica aristotélica se centra en las llamadas proposiciones categóricas. En ellas se encuentran
los siguientes componentes:
1.
2.
3.
4.
5.
Un cuantificador (Todos o algunos)
Un término que funge de sujeto
La cópula (el verbo ser en alguna flexión)
Una negación (opcional)
Un término que funge de predicado
De aquí surge la siguiente clasificación de las proposiciones categóricas explícitamente cuantificadas, donde Σ y Π son términos generales (sigma y pi para recordar, respectivamente, sujeto y
predicado):
Afirmativa universal
Negativa universal
Afirmativa particular
Negativa particular
Todos los Σ son Π
Ningún Σ es Π (Todo Σ es no Π)
Algún Σ es Π
Algún Σ es no Π
Forma A
Forma E
Forma I
Forma O
Las formas afirmativas A e I toman su nombre de las primeras vocales de la palabra latina
affirmo, mientras que las formas negativas E y O las toman de las vocales de nego.
En cuanto a las restantes formas de las proposiciones categóricas, son estas, siendo σ un término
singular:
Afirmativa indefinida
Negativa indefinida
Afirmativa singular
Negativa singular
Σ es Π
Σ es no Π
σ es Π
σ es no Π
Para propósitos lógicos, estos cuatro últimos tipos de proposiciones se consideran casos de los
cuatro primeros, tomándose las indefinidas como particulares y las singulares como universales3 .
3 Por
ejemplo, Sócrates es mortal, una afirmativa singular, se considera como Todos los Sócrates son mortales, y
Herramienta es martillo, una afirmativa indefinida, como Alguna herramienta es martillo, y no como Toda herramienta
es martillo.
Capítulo 12. Consecuencia semántica
248
El cuadrado de oposición
El cuadrado de oposición es un diagrama que muestra las relaciones lógicas entre proposiciones
de las formas A, E, I y O con los mismos términos como sujeto y predicado. Es este:
Ningún Σ es Π
Todos los Σ son Π
S
U
B
A
L
T
E
R
N
A
E
CONTRARIAS
A
C
C
I
O
O
N
N
T
T
R
R
A
A
D C
I
D C
T
T
O
O
R
R
I
I
A
A
S
S
O
SUBCONTRARIAS
Algún Σ es Π
S
U
B
A
L
T
E
R
N
A
Algún Σ es no Π
Para interpretarlo se debe tener en cuenta que según la lógica aristotélica:
Proposiciones contrarias no pueden ser ambas verdaderas, pero pueden ser ambas falsas (A
y E).
Proposiciones subcontrarias pueden ser ambas verdaderas, pero no ambas falsas (I y O).
Proposiciones contradictorias no pueden ser ni ambas verdaderas ni ambas falsas; en todos
los casos, en un par de proposiciones contradictorias, una es verdadera y la otra es falsa (A y
O, por un lado, y E e I por otro).
La proposición subalterna de una universal es la subcontraria de su contradictoria. Por lo
dicho anteriormente, si una universal es verdadera, su contradictoria es falsa, y la subcontraria
de esta última es verdadera. (I es subalterna de A y O es subalterna de E).
El compromiso existencial
Acabamos de decir que una proposición de la forma I, o sea Algún Σ es Π, es subalterna de
la proposición de forma A Todos los Σ son Π y por lo tanto, la lógica aristotélica considera que
siendo verdadera esta última, lo será la primera, de modo que la inferencia con premisa de forma A
y conclusión correspondiente de forma I será considerada válida. Pero esto no está de acuerdo con
el uso que hacemos en L PO. Si fuéramos a traducir obtendríamos
Forma
Lógica aristotélica
Lógica de primer orden
A
I
Todos los Σ son Π
Algún Σ es Π
∀x(Σx → Πx)
∃x(Σx ∧ Πx)
y está claro que {∀x(Σx → Πx)} 2L PO ∃x(Σx ∧ Πx), o sea que hemos encontrado una inferencia
que la lógica aristotélica considera válida y la lógica moderna inválida. Ahora bien, una interpretación M asigna valor verdadero a ∀x(Σx → Πx) y falso a ∃x(Σx ∧ Πx) si y solo si ΣM = 0,
/ o sea, si
no existen individuos que sean Σ.
12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell
249
Ejercicio 12.1 Demostrar {∀x(Σx → Πx), ¬∃x(Σx ∧ Πx)} |= ¬∃xΣx
Por ejemplo, dado que no hay unicornios, la proposición
Todos los unicornios son veloces.
es tenida por falsa en la lógica aristotélica y por verdadera en L PO. O sea, las proposiciones de
tipo A tienen compromiso existencial en la lógica aristotélica. Afirmar una de ellas compromete
lógicamente con la existencia de ciertas entidades.
Por otro lado, las proposiciones de la forma I, Algún Σ es Π, son tenidas como falsas en la
lógica aristotélica en cualquiera de los dos casos siguientes:
1. Existen individuos que son Σ pero ninguno de ellos es Π.
2. No existen individuos que son Σ.
por lo que las contradictorias de estas, las de la forma E, Ningún Σ es Π, serán verdaderas en
cualquiera de esos casos, con lo que las proposiciones de esta forma no tienen compromiso
existencial. Pero entonces, no habiendo individuos que sean Σ, y por lo tanto siendo Ningún Σ es Π
verdadera, parece absurdo afirmar que su subalterna, Algún Σ no es Π es verdadera.
Por si esto fuera poco, esta última proposición, que tiene compromiso existencial, se considera
contradictoria de la de forma A, Todos los Σ son Π, de modo que en el caso en que no existan
individuos que sean Σ son ambas falsas, lo que no puede suceder en un par de contradictorias.
Por supuesto que todos estos problemas se evitan si se postula que la lógica aristotélica no
trabaja con términos no denotativos. Seguramente esta haya sido la intención de los antiguos
lógicos, quienes veían en la lógica una herramienta para trabajar sobre discursos acerca de la
realidad.
La lógica de primer orden tiene también algo como el compromiso existencial, dado por
{∀xPx} |= ∃xPx. Esto se debe a que los dominios de las interpretaciones son no vacíos. Existe una
lógica pensada para no tener compromisos existenciales, la llamada lógica libre, cuyos teoremas
valen para interpretaciones cuyo dominio es cualquiera, inclusive el vacío4 . Por supuesto, en esa
lógica {∀xPx} 2 ∃xPx.
Teoría de la conversión
La conversión simpliciter de una proposición categórica es el intercambio de su sujeto por
su predicado y recíprocamente. Las proposiciones de tipo I conservan su valor de verdad al ser
sometidas a conversión simpliciter, como el lector observará.
Las proposiciones de forma A no conservan su valor de verdad bajo conversión simpliciter: si
bien
1. Todos los uruguayos son americanos.
es verdadera
Todos los americanos son uruguayos.
es falsa. Pero si 1 es verdadera, su subalterna de la forma I
Algunos uruguayos son americanos.
también lo será. Y esta proposición conserva su valor de verdad bajo conversión simpliciter, dando
4 Su nombre refiere, justamente, a que está libre de compromisos existenciales. Max Dickman, un renombrado lógico,
le manifestó al autor que el resultado más notorio de trabajar en esa lógica es la necesidad de agregar en cada teorema
una excepción generalmente trivial para los dominios vacíos.
Capítulo 12. Consecuencia semántica
250
Algunos americanos son uruguayos.
El ejemplo se puede generalizar, porque toda proposición de forma A implica su subalterna de
forma I. Esta operación de pasar a la subalterna y someter esta a conversión simpliciter se llama
conversión per accidens.
Diremos que una proposición es convertible si su verdad implica la verdad de la proposición
que se obtiene a someterla a conversión simpliciter o per accidens. En general tenemos
Forma
Convertible simpliciter
Convertible per accidens
A
E
I
O
No
Sí
Sí
No
Sí
Sí
No
No
Silogismos categóricos
Los silogismos categóricos son argumentos con dos premisas y una conclusión, siendo esas tres
proposiciones categóricas; y en los que aparecen tres términos. Un ejemplo:
Todos los filósofos son tontos
Algunos filósofos no son simpáticos
Algunos tontos no son simpáticos
En él las tres proposiciones constituyentes son categóricas, y aparecen tres términos, filósofos,
tontos y simpáticos. El núcleo de la lógica aristotélica versa sobre esta clase de argumentos. Veamos
algo de terminología:
Los tres términos que aparecen en el silogismo reciben nombres. Uno es el término mayor, otro
el término medio y el restante el término menor. Es la conclusión la que da la información acerca
de cuáles son estos términos, según el cuadro siguiente:
Término mayor
Término medio
Término menor
Predicado en la conclusión
Ausente en la conclusión
Sujeto en la conclusión
Así, el el silogismo recién expuesto, el término mayor es simpáticos, el medio filósofos y el
menor tontos.
De acuerdo a esto, también se clasifican las premisas en premisa mayor y premisa menor:
Premisa mayor
Premisa menor
Contiene el término mayor
Contiene el término menor
En nuestro ejemplo la premisa mayor es Algunos filósofos no son simpáticos y la menor Todos
los filósofos son tontos. Observe que la cuestión de cuál es la premisa mayor y cuál la menor no
tiene nada que ver con el orden en que se presentan.
Figuras, modos y reducción
La figura de un silogismo queda definida por las funciones que cumple el término medio en las
premisas, en cada una de las cuales puede ser sujeto o predicado. Con dos elecciones posibles para
cada una de las dos premisas, hay cuatro figuras posibles:
12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell
Figura
Término medio en premisa mayor
Término medio en premisa menor
Primera
Segunda
Tercera
Cuarta
Sujeto
Predicado
Sujeto
Predicado
Predicado
Predicado
Sujeto
Sujeto
251
En nuestro ejemplo, el término medio, filósofos, es sujeto en ambas premisas, de modo que
nuestro silogismo es de la tercera figura.
Por otro lado, cada una de las tres proposiciones categóricas de un silogismo puede adoptar
una de las cuatro formas A, E, I, O, de manera que en cada figura hay 43 maneras de disponerse
un silogismo. La disposición del nuestro es OAO, considerando el orden premisa mayor, premisa
menor, conclusión. Combinando con las 4 figuras, obtenemos 4.64= 256 modos de los silogismos.
La teoría silogística tiene como centro la determinación de los modos válidos.
En cada figura hay 6 modos válidos, lo que da en total 24 modos válidos. De ellos, algunos se
obtienen por subalternación de la conclusión a partir de otro válido. Por ejemplo, si un silogismo
válido concluye una proposición de forma A, el silogismo con las mismas premisas y conclusión
subalterna de la conclusión del primero (que tendrá forma I) también será válido. Así, un silogismo
de modo AAA en la primera figura será váĺido, y el que se obtiene tomando la subalterna de la
conclusión, de modo AAI en la primera figura, también será válido. Este último modo se llama
modo subalterno.
En el medioevo los 24 modos válidos recibieron estos nombres:
Modos válidos de silogismos
Primera figura
Segunda figura
Tercera figura
Cuarta figura
Barbara
Celarent
Darii
Ferio
Barbari
Celaront
Cesare
Camestres
Festino
Baroco
Cesaro
Camestrop
Darapti
Disamis
Datisi
Felapton
Bocardo
Ferison
Bramantip
Camenes
Dimaris
Fesapo
Fresison
Camenop
Cinco de ellos están en tipografía especial. Son modos subalternos. Ahora bien, esos nombres
no son producto de un capricho pintoresco sino que codifican muchísima información. En todos
ellos, las vocales indican en orden, la forma de la premisa mayor, la premisa menor y la conclusión.
Nuestro silogismo ejemplo, con forma OAO en tercera figura, es válido, y es un ejemplo de Bocardo.
El resultado central de la teoría de los silogismos es el siguiente:
Si se acepta axiomáticamente la validez de los cuatro modos no subalternos listados de la
primera figura, la validez de los restantes –excepto Baroco y Bocardo– se puede demostrar a
través de la teoría de la reducción, que es una aplicación de la teoría de la conversión sobre sus
componentes.
Sobre la validez de Baroco y Bocardo hablaremos luego de exponer la teoría de la reducción,
que está codificada de forma admirable en los pintorescos nombres que los medievales dieron a los
modos válidos.
La demostración de que un silogismo diferente de los cuatro no subalternos de la primera figura
es válido consistirá en una transformación del mismo en uno de esos cuatro siguiendo reglas de
conversión. La codificación en los nombres, increíblemente ingeniosa, es la siguiente:
252
Capítulo 12. Consecuencia semántica
Dado el nombre de un modo de silogismo a transformar en uno de los aceptados como válidos
de la primera figura (excepto Baroco y Brocardo):
La primera letra es la misma que la del modo de primera figura aceptado como válido al que
será reducido. Ejemplo: Fresison será reducido a Ferio.
La letra “s” luego de una vocal (pero no si es final) indica: Convierta la proposición indicada
por la vocal precedente simpliciter.
Ejemplo: Tomamos un silogismo Fresison. Tiene forma EIO y está en la cuarta figura, de
modo que el término medio está en posición de predicado en la premisa mayor y de sujeto en
la menor. La premisa mayor es E, y como está seguida por una “s” se deben intercambiar
sujeto y predicado. Lo mismo con la premisa menor, que es I. Ambas operaciones mantienen
la verdad. Se obtiene un silogismo que solo será válido si el de partida lo era, y será de forma
EIO con término medio en posición de sujeto en la premisa mayor y de predicado en la
menor, o sea, Ferio de primera figura, el cual se ha aceptado axiomáticamente como válido.
La letra “p” luego de una vocal (pero no si es final) indica: Convierta la proposición indicada
por la vocal precedente per accidens.
Ejemplo: Tomamos un silogismo Fesapo. Es de forma EAO en la cuarta figura, de modo
que el término medio está en posición de predicado en la premisa mayor y de sujeto en la
menor. Como indica la primera letra de su nombre, será reducido a Ferio. La premisa mayor
se convertirá simpliciter obteniendo una proposición E con el término medio en posición de
sujeto y la premisa menor se convertirá per accidens, o sea, de la A con término medio en
posición de sujeto se pasará a la subalterna I y esta se convertirá simpliciter, obteniendo una
I con término medio en posición de predicado. El resultado es un silogismo de la forma EIO
de la primera figura, o sea Ferio, que solo será válido si el de partida lo era.
Si el nombre termina en “s” o en “p” significa que la conclusión debe ser convertida simpliciter
o per accidens, respectivamente.
Ejemplo: Tomamos un silogismo Disamis. Es de forma IAI en tercera figura, o sea que el
término medio es sujeto en ambas premisas. Será convertido a Darii, como indica su primera
letra. La premisa mayor se convierte simpliciter, dejando el término medio en posición de
predicado, y la conclusión, de forma I, también se convierte simpliciter, lo que hace que
el término mayor pase a ser el menor, y consecuentemente, la que era premisa menor es la
mayor. Se obtiene un silogismo de forma AII de la primera figura, o sea, Darii. Todas las
transformaciones conservan la verdad.
La letra “m” en un nombre indica que las premisas se deben cambiar (mutare) de orden para
que la premisa mayor sea la primera en el silogismo obtenido. (Como ejemplo se puede ver
el anterior de reducción de Disamis a Darii).
La “c” en un nombre (excepto si es inicial) indica que no se puede reducir directamente
a uno de la primera figura, sino que debe darse un prueba indirecta o por contradicción
(contradictione). Estos son los casos de Baroco y Bocardo, que veremos seguidamente.
La reducción de Baroco y Bocardo es especial. Ambos serán “reducidos” a Barbara de la primera
figura, aunque esta “reducción” funciona así: Baroco es de forma AOO y Bocardo de forma OAO.
En ambos la conclusión es de forma O. Se asume la premisa A y la contradictoria de la conclusión,
que es también de forma A. Esas dos proposiciones de forma A son las premisas de un silogismo
Barbara cuya conclusión contradice la premisa O del Baroco o Bocardo dado. Así, si las premisas
del Baroco o Bocardo son ambas verdaderas, la contradictoria de su conclusión debe ser falsa, y
por ende, su conclusión verdadera.
12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell
253
Ejemplifiquemos con
Todos los filósofos son tontos
Algunos filósofos no son simpáticos
Algunos tontos no son simpáticos
que ya sabemos es de modo Bocardo. Si asumimos su premisa A, Todos los filósofos son tontos y la
contradictoria de su conclusión, que es Todos los tontos son simpáticos, tenemos las premisas de un
Barbara con conclusión Todos los filósofos son simpáticos, que es contradictoria de la premisa O de
nuestro Bocardo, Algunos filósofos no son simpáticos.
De este modo, aceptando la validez de Barbara, surge que si ambas premisas del Bocardo son
verdaderas, la contradictoria de su conclusión debe ser falsa (porque si fuera verdadera, junto con
la premisa A de Bocardo implicaría la falsedad de la premisa O), y por lo tanto su conclusión debe
ser verdadera.
En el medioevo se se crearon versos que servían como sistemas mnemotécnicos conteniendo
estos nombres extraordinariamente informativos, con las figuras en que se encuentran. La versión
que se da en [Ald43] es la siguiente (cursivas en el original):
Barbara, Celarent, Darii, Ferioque prioris:
Cesare, Camestres, Festino, Baroko secundae:
Tertia, Darapti, Disamis, Datisi, Felapton,
Bokardo, Ferison habet: Quarta insuper addit
Bramantip, Camenes, Dimaris, Fesapo, Fresison.
Quinque subalterni, totidem generalibus orti,
Nomen habet nullum, nec, si bene colligis,
usum.
12.4.2
Alcance de la lógica aristotélica
La lógica aristotélica puede tratar con argumentos de más de dos premisas, donde todas las
proposiciones en juego son categóricas, llamados sorites (palabra que en griego quiere decir el que
amontona).
Un ejemplo de sorites, propuesto por Lewis Carroll en [Car]
1
2
3
4
5
6
7
Todos los policías de la ronda comen con nuestra cocinera.
Ningún hombre de pelo largo puede dejar de ser poeta.
Amos Judd no ha estado nunca en prisión.
A todos los primos de nuestra cocinera les gusta el cordero frío.
Solo los policías de la ronda son poetas.
Solo sus primos comen con nuestra cocinera.
Todos los hombres con el pelo corto han estado en prisión.
Conclusión
A Amos Judd le gusta el cordero frío.
La validez de este sorites surge de la de los siguientes silogismos (observe cómo se trata la
premisa 5, que prima facie no tiene una de las formas consideradas):
Todos los policías de la ronda comen con nuestra cocinera. (1)
Solo los policías de la ronda son poetas.(5)
Todos los poetas comen con nuestra cocinera.(8)
254
Capítulo 12. Consecuencia semántica
Todos los poetas comen con nuestra cocinera. (8)
Ningún hombre de pelo largo puede dejar de ser poeta.(2)
Todos los hombres de pelo largo comen con nuestra cocinera.(9)
Todos los hombres de pelo largo comen con nuestra cocinera.(9)
Solo sus primos comen con nuestra cocinera.(6)
Todos los hombres de pelo largo son primos de nuestra cocinera.(10)
Todos los hombres de pelo largo son primos de nuestra cocinera.(10)
A todos los primos de nuestra cocinera les gusta el cordero frío.(4)
A todos los hombres de pelo largo les gusta el cordero frío.(11)
Aamos Judd no ha estado nunca en prisión.(3)
Todos los hombres con el pelo corto han estado en prisión.(7)
Amos Judd no tiene el pelo corto (lo tiene largo).(12)
Amos Judd tiene el pelo largo.(12)
A todos los hombres de pelo largo les gusta el cordero frío.(11)
A Amos Judd le gusta el cordero frío.
Es claro que la lógica aristotélica se puede considerar un fragmento muy pequeño de la lógica
de primer orden, y que se encuentra constreñida a considerar proposiciones categóricas.
12.4.3
Implicaciones filosóficas según Russell
La lógica aristotélica fue absolutamente dominante en el mundo occidental por lo menos desde
el siglo V hasta el XIX. En la época helenística, una de las grandes escuelas filosóficas del período,
la estoica, desarrolló una avanzada lógica que hoy puede reinterpretarse como nuestra lógica
proposicional, pero estos trabajos estuvieron sepultados por el olvido y fueron mal entendidos
cuando se redescubrieron, de modo que recién en el siglo XX se valoraron como un importante
precedente de investigación lógica.
En el siglo V Boecio tradujo al latín dos libros del Organon de Aristóteles, las Categorías y el
Peri Hermeneias, que formaron parte del núcleo de lo que se llamó la Logica vetus. En el siglo XIII
se tradujo al latín el resto del Organon, configurando la Logica nova. De modo que Aristóteles es el
teórico que configura y enmarca absolutamente el pensamiento lógico durante los diez siglos que
dura la edad media. Ya hemos visto la opinión de Kant a fines del siglo XVIII, acerca de que la
Lógica parecía haber salido completa de la cabeza de Aristóteles. Sin embargo, pocos años después
de que Kant explicitara esa idea, un inglés, George Boole, ideó un sistema algebraico apto para
tratar problemas lógicos. Fue este el primer paso en una dirección que llevaría a un cambio radical
en la disciplina: su matematización. El punto culminante en este camino se dio con Frege, quien
creó una lógica radicalmente diferente a la aristotélica. La lógica de primer orden es un fragmento
de la fregeana, ya que esta admitía los más diversos órdenes, pero lo central en su innovación es la
introducción de las relaciones. Hemos visto que la lógica aristotélica funcionaba en una sintonía
muy especial con la gramática. En lógica aristotélica los conceptos –que hoy entendemos como
gramaticales– de sujeto y predicado se entienden también como genuinamente lógicos.
Frege “despegó” la lógica de la gramática y eso, según Russell, tuvo profundísimas implicaciones filosóficas. De hecho, Russell acusa, en cierto modo, a la lógica aristotélica de haber promovido
mala filosofía, en particular, mala metafísica. Su argumentación, que está expuesta en Logic as the
Essence of Philosophy, recogida en [Rus09], es la siguiente:
12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell
255
La lógica tradicional –aristotélica– considera solamente proposiciones de la forma S es P,
quizá modificadas con negadores. Este tipo de proposiciones atribuyen una cualidad, designada
por el predicado (gramatical) P a un objeto, designado por el sujeto (gramatical) S. El resultado de
considerar satisfactoria y universal una lógica que trata únicamente con ese tipo de proposiciones
es la convicción de que todas las proposiciones que versan sobre la realidad son reductibles a
algunas de ese tipo. Ahora bien, ¿es posible reducir toda proposición a otra que exprese que un
sujeto posee una propiedad? Si esto fuera posible, comportaría la reducción de las relaciones a
propiedades de los términos que aparecen aparentemente relacionados. Ciertamente, eso es posible
en algunos casos. Por ejemplo, una relación de equivalencia (ver 13.1.1 en la página 259) puede ser
entendida en términos de una propiedad común poseída por los objetos relacionados. Una relación
simétrica y no transitiva (ejemplo paradigmático es la desigualdad) puede ser entendida en términos
de posesión de diferentes propiedades por parte de los objetos relacionados.
Pero hay un tipo de relaciones que resiste todos los intentos de reducción a atribución de
propiedades: son las antisimétricas, esto es, las relaciones R tales que se tiene (expresado en
L PO)
∀x∀y(Rxy → ¬Ryx)
o sea en las que si un objeto está relacionado con otro, este último no está relacionado con el
primero. Ejemplos de relaciones antisimétricas son mayor que, anterior a, etc. No hay forma de
reducir la relación mayor que a la posesión de propiedades de los objetos que relaciona. Si a es
mayor que b, sabemos que tienen una propiedad diferente (la magnitud de la que se habla, con
respecto a la cual a es mayor que b). Pero esa mera diferencia no indica la calidad de mayor en a,
porque también se daría en caso de que b fuese el mayor. Ni la posesión de las mismas propiedades
ni la posesión de distintas propiedades puede dar cuenta de la relación mayor que. De modo que, en
general, las relaciones antisimétricas no son reductibles a propiedades de los objetos que relacionan.
La consecuencia de esto es que la lógica aristotélica está obligada a renunciar todo trato con
proposiciones que expresen ese tipo de relaciones, debido a las constricciones que se impone sobre
la forma de las proposiciones que trata. Por supuesto, esto no tiene nada intrínsecamente negativo,
no es necesario que una teoría lógica sirva para todos los casos.
Pero consideremos qué sucederá si alguien considera que esa lógica es la Lógica, la única
lógica adecuada. Es bastante obvio que tenderá a considerar que las proposiciones que versan sobre
relaciones no reductibles a atribución de propiedades son pseudoproposiciones, objetos lingüísticos
no conectados con la realidad. Impulsará una ontología amoblada únicamente con aquellos objetos
a los que refieran los términos S y P, excluyendo las relaciones de este tipo. Y habrá una fortísima
presión para afirmar cosas como la irrealidad del tiempo (debido a que el tiempo impone la relación
antisimétrica de prioridad), o en general, a desconfiar de la ciencia como descripción adecuada
del mundo, ya que en ella pululan las postulaciones de relaciones no capturables en proposiciones
categóricas. En definitiva, Russell considera que la lógica aristotélica es limitada en cuanto al tipo
de argumentos que puede validar (lo que parece más allá de toda controversia) y es, o ha sido
históricamente, fuente de mala metafísica (lo que es al menos discutible).
13. Consecuencia sintáctica
N este capítulo desarrollaremos un sistema de deducción para la lógica de primer orden.
Tendrá las características del que estudiamos para la lógica proposicional, o sea, será un
sistema de deducción natural. Como la lógica de primer orden recibe en la estructura de
su sintaxis y en su semántica una herencia directa de la lógica proposicional, todas las reglas que
regulan la introducción y eliminación de los conectivos proposicionales pasarán a nuestro sistema.
Lo que necesitamos son nuevas reglas que afecten los símbolos lógicos de L PO que no tienen
análogo en L P, o sea, la igualdad, el cuantificador universal y el cuantificador existencial.
A diferencia de lo que sucede en la lógica proposicional, en la de primer orden las interpretaciones no otorgan valor de verdad a todas las fórmulas. Es por eso que nuestro sistema solo operará con
sentencias. Si bien la definición de derivación, que es totalmente análoga (formalmente idéntica) a
la vista al estudiar la lógica proposicional, será dada más adelante por motivos de autocontención
del capítulo, usaremos el concepto en el entendido de que el lector ya lo conoce. Presentaremos
las derivaciones mediante diagramas de Fitch, cuyas convenciones estructurales el lector también
conoce.
E
13.1
13.1.1
Las reglas de inferencia
La igualdad
Nuestro objetivo ahora es encontrar reglas sintácticas que nos indiquen bajo qué condiciones
podemos inferir una igualdad y qué podemos inferir de una igualdad dada.
Comencemos por lo primero, las condiciones bajo las que podemos inferir una igualdad. Es
claro que la igualdad es una relación, y que relaciona a cada individuo consigo mismo. Esto es algo
constitutivo de la igualdad, llamado reflexividad y no se necesita ninguna condición o premisa para
inferirlo. Correlativamente, la semántica de L PO indica que una sentencia del tipo
a=a
es válida.
Por lo tanto, aceptaremos que
Capítulo 13. Consecuencia sintáctica
258
En una secuencia inferencial, siempre se puede agregar una igualdad en la que ambos miembros
son el mismo.
Como nuestra sintaxis hace que una sentencia de L PO que sea una igualdad sea necesariamente de la forma
ci = c j
establecemos esta regla:
Regla Reflexión
cn = cn
que expresa que en una derivación siempre se puede introducir una línea formada por una constante
de individuo seguida por el signo de igualdad seguido por la misma constante de individuo.
Supongamos ahora que nos es dado que a es igual a b. ¿Qué se puede inferir de ello? Obviamente, que b es igual a a. Este aspecto, también constitutivo de la igualdad, se llama simetría. Por
eso podemos afirmar que
Si un elemento de una secuencia inferencial es una igualdad, se puede agregar a la secuencia
otra igualdad con los mismos miembros presentados en orden inverso al de la primera.
Eso lo recogemos en la siguiente regla:
Regla Simetría
ci = c j
c j = ci
Otra situación en la que podemos inferir una igualdad es aquella en la que sabemos que a es
igual a b, y que b es igual a c. También constitutivo del concepto de igualdad es que en ese caso, a
es igual a c, lo que se llama transitividad. De aquí surge que
En una secuencia inferencial, luego de dos igualdades tales que el primer miembro de una es el
segundo de la otra, se puede agregar una igualdad cuyos miembros son los miembros restantes
de las anteriores.
La regla correlativa es
Regla Transitividad
ci = c j
c j = ck
ci = ck
Quizá parezca que hemos dicho todo lo que hay para decir acerca de la igualdad. Pero reflexionando un poco veremos que no es así. Las tres propiedades de la relación de igualdad que hemos
consignado; reflexividad, simetría y transitividad no parecen suficientes para caracterizarla. Hay
muchas relaciones que cumplen las tres propiedades pero no son la igualdad.
Ejemplo 13.1 La relación ≡ en L PO es reflexiva, simétrica y transitiva:
Recordemos que A ≡ B si y solo si todo modelo de A es modelo de B y recíprocamente.
Entonces
A ≡ A para toda fórmula A.
13.1 Las reglas de inferencia
259
Si A ≡ B, entonces B ≡ A cualesquiera sean las fórmulas A y B.
Si A ≡ B y B ≡ C, entonces A ≡ C cualesquiera sean las fórmulas A, B y C.
Este tipo de relaciones son tan importantes que merecen una
Definición 13.1.1 Relación de equivalencia Una relación que cumple reflexividad, simetría y
transitividad se llama relación de equivalencia.
Las relaciones de equivalencia aparecen siempre en aquellos contextos en los que nos interesa
“la igualdad bajo algún aspecto”. Por ejemplo, la equivalencia entre fórmulas aparece naturalmente
cuando nos interesa considerar la igualdad de comportamiento semántico entre ellas. Pero por
supuesto, que dos fórmulas se comporten del mismo modo bajo nuestra semántica (esto es, tengan
los mismos modelos), no garantiza que sean iguales bajo otros aspectos, por ejemplo, sintácticamente. Entonces la igualdad que estamos buscando se nos muestra un poco elusiva, porque lo que
queremos con nuestra igualdad es expresar, mediante a = b que llamamos a y llamamos b al mismo
objeto, no meramente que llamamos a y también b a objetos que comparten alguna característica.
Este último punto de vista parece ofrecernos una salida. Inmediatamente pensamos que lo
que deseamos es expresar que el objeto llamado a y el objeto llamado b comparten todas las
características o propiedades. Esta línea de razonamiento nos impulsaría a postular una regla de
este tipo, donde P es cualquier letra de predicado unaria:
Definición de igualdad
∀P(Pa ↔ Pb)
a=b
Esta idea, la de definir la igualdad diciendo que dos objetos son iguales si y solo si comparten todas
las propiedades, surge de un principio llamado identidad de los indescernibles que se acredita a
Leibniz, y afirma que si dos objetos comparten las mismas propiedades, son el mismo. Lo recíproco
es trivial. Sin embargo, por atractiva que resulte, es muy obvio que no la podemos usar. Lo que
hemos escrito sobre la barra no es una fórmula de L PO, nuestro lenguaje no tiene tanto poder
expresivo como para consignar que dos individuos comparten exactamente las mismas propiedades,
ya que no permite cuantificar sobre variables de relación, sino únicamente sobre variables de
individuo1 . De modo que parece que estamos como al principio. Sin embargo, como suele suceder,
una idea que no funciona perfectamente deja algo que sí nos resulta extremadamente útil.
Supongamos que sabemos que a = b, y que a “cumple algo”. Ese “cumple algo” será expresado
en nuestro lenguaje a través de una sentencia en la que aparecerá la constante que denote a. Pero
como a y b denotan el mismo individuo, al sustituir las ocurrencias de a por ocurrencias de b, se
obtendrá una formula equivalente a la anterior.
Es decir
Si en una secuencia inferencial se tiene una igualdad y una sentencia en la que se expresa algo
relativo a uno de los miembros de la igualdad, se puede agregar a la cadena una sentencia que
expresa lo mismo respecto al otro miembro de la igualdada .
a Observe la vaguedad de toda esta expresión. La precisión necesaria solo se puede obtener en los correlatos
formales de lo que intentamos expresar en lenguaje natural, y su justificación rigurosa en términos semánticos se
verá en la parte dedicada a la metateoría.
1 En
lógica de segundo orden, donde se puede cuantificar sobre predicados, es posible definir la igualdad como se ha
mostrado. Es interesante que para hacerlo no se necesite el bicondicional sino que baste el condicional. Es que un objeto
no puede tener todas las propiedades de otro y ser distinto de ese otro.
Capítulo 13. Consecuencia sintáctica
260
Escribiendo F(ci ) por una sentencia con ocurrencias de la constante ci y F ∗ (ci /c j ) por una de
las fórmulas que se obtiene de F(ci ) al sustituir algunas de las ocurrencias de ci por ocurrencias de
c j , tenemos la siguiente regla:
Regla Sustitución
ci = c j
F(ci )
F ∗ (ci /c j )
Con esto hemos completado la parte del sistema deductivo que se encarga de regular la igualdad.
13.1.2
Los cuantificadores
En esta sección buscaremos las reglas de introducción y eliminación de los cuantificadores.
Las sentencias cuantificadas “interesantes” son de la forma ∀xn F(xn ) o ∃xn F(xn ), donde F(xn )
es una fórmula cuya única variable libre es xn 2 . Llamaremos a esas fórmulas F(xn ) condiciones
y diremos que el individuo denotado por ck “cumple” la condición F(xn ) si atribuimos valor de
verdad verdadero a la sentencia F(ck ), que es el resultado de sustituir todas las ocurrencias libres
de xn por ck en F(xn ).
También diremos que F(ck ) es el resultado de instanciar la fórmula ∀xn F(xn ) o ∃xn F(xn ) en la
constante ck , o que es una instanciación de estas fórmulas cuantificadas.
El cuantificador universal
La regla de eliminación del cuantificador universal es de una evidencia tal que no ofrece
dificultad alguna. Surge de que claramente, si afirmamos algo de todos los individuos, podemos
afirmar eso mismo de cualquiera de ellos en particular3 .
En una cadena inferencial, donde figura una aserción sobre todos los individuos, se puede
agregar la misma aserción sobre cualquiera de ellos.
Esto nos lleva a la siguiente regla:
Regla E∀
∀xn F(xn )
F(ck )
que expresa que de una fórmula universal se puede inferir cualquiera de sus instanciaciones.
La búsqueda de una regla de introducción del cuantificador universal es más compleja. Necesitamos conocer bajo qué circunstancias podemos inferir una aserción universal. Quizá la primera
idea que se nos venga a la mente es que lo podemos hacer cuando hemos hecho una verificación
exhaustiva sobre todos los individuos y hemos corroborado que todos ellos cumplen la condición
que queremos afirmar de todos ellos. Por supuesto, esto es correcto, pero no nos va a servir, porque
las interpretaciones pueden tener tienen dominios infinitos y no podemos verificar, uno por uno,
sobre infinitos individuos.
De manera que quizá lo mejor sea dirigir nuestra atención a la disciplina en la que los dominios
infinitos aparecen naturalmente, y en la que se infieren aserciones que afectan a todos los elementos
de esos dominios: la matemática.
2 Si
son sentencias cuantificadas y no son de esta forma, se trata de casos de cuantificación vacua.
3 El lector debe estar muy atento a no entender esto como una falacia de composición. Cuando decimos que afirmamos
algo de todos los individuos, queremos decir que lo afirmamos de cada uno de ellos –nuestros cuantificadores ranguean
sobre individuos– y no del conjunto que ellos forman. Es una tontería pensar en un ser humano como un conjunto de
células, y afirmar que dado que el conjunto de células piensa, cada una de las células piensa.
13.1 Las reglas de inferencia
261
Consideremos entonces una demostración matemática simple en la que se concluya una sentencia universal. Demostremos lo siguiente:
Para todo número natural, su cuadrado da resto 0 o da resto 1 al ser dividido entre 4.
Demostración: Sea n un natural cualquiera. Como todos los naturales, n cumple alguna las
siguientes posibilidades:
1.
2.
3.
4.
n da resto 0 al ser dividido entre 4.
n da resto 1 al ser dividido entre 4..
n da resto 2 al ser dividido entre 4.
n da resto 3 al ser dividido entre 4.
Veamos que en todos los casos se cumple que n2 da resto 0 o da resto 1 al ser dividido entre 4:
1. En este caso, existe k natural tal que n = 4k. Por lo tanto, n2 = 4.4k2 , con lo que n2 da resto
0 al ser dividido entre 4, y por lo tanto da resto 0 al ser dividido entre 4 o da resto 1 al ser
dividido entre 4.
2. En este caso, existe k natural tal que n = 4k +1. Por lo tanto, n2 = (4k +1)2 = 16k2 +8k +1 =
4(4k2 + 2k) + 1, con lo que n2 da resto 1 al ser dividido entre 4, y por lo tanto da resto 0 al
ser dividido entre 4 o da resto 1 al ser dividido entre 4.
3. En este caso, existe k natural tal que n = 4k + 2. Por lo tanto, n2 = (4k + 2)2 = 16k2 + 16k +
4 = 4(4k2 + 4k + 1), con lo que n2 da resto 0 al ser dividido entre 4, y por lo tanto da resto 0
al ser dividido entre 4 o da resto 1 al ser dividido entre 4.
4. En este caso, existe k natural tal que n = 4k + 3. Por lo tanto, n2 = (4k + 3)2 = 16k2 + 24k +
9 = 16k2 + 24k + 8 + 1 = 4(4k2 + 6k + 2) + 1, con lo que n2 da resto 1 al ser dividido entre
4, y por lo tanto da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4.
Por lo tanto, n2 da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4.
Como n es cualquiera, se concluye que para todo número natural, su cuadrado da resto 0 al ser
dividido entre 4 o da resto 1 al ser dividido entre 4.
Examinemos con cuidado la demostración, que es tenida por los matemáticos como concluyente.
Es claro que en ella aparecen elementos que deberían tener una prueba previa, como que todo
natural cumple alguna de las cuatro posibilidades numeradas. Supongamos razonablemente que eso
está probado, y se puede incluir en cualquier cadena inferencial. Esquematizando la demostración
tendríamos:
Paso
Contenido
1
Suponemos que n es un natural cual- Supuesto.
quiera.
n da resto 0 o da resto 1 o da resto 2 o Por un universal previamente demostrada resto 3 al ser dividido entre 4.
do, instanciado en n, bajo el supuesto
de 1.
Suponemos que n da resto 0 al ser divi- Supuesto para eliminar la disyunción4
dido entre 4.
de 2, bajo el supuesto de 1.
n2 da resto 0 al ser dividido entre 4 o da Verificado algebraicamente. Bajo los suresto 1 al ser dividido entre 4.
puestos de 1 y de 3.
2
3
4
4 Si
Justificación
fuésemos a seguir estrictamente la regla sintácticas que hemos dado para eliminar la disyunción, deberíamos
suponer, por ejemplo, primero una disyunción de dos disyunciones y luego hacer los supuestos en orden. El razonamiento
coloquial nos permite suponer los cuatro disyuntos separados sin preparativos.
Capítulo 13. Consecuencia sintáctica
262
5
6
7
8
9
10
11
12
Suponemos que n da resto 1 al ser dividido entre 4.
n2 da resto 0 al ser dividido entre 4 o da
resto 1 al ser dividido entre 4.
Suponemos que n da resto 2 al ser dividido entre 4
n2 da resto 0 al ser dividido entre 4 o da
resto 1 al ser dividido entre 4.
Suponemos que n da resto 3 al ser dividido entre 4.
n2 da resto 0 al ser dividido entre 4 o da
resto 1 al ser dividido entre 4.
n2 da resto 0 al ser dividido entre 4 o da
resto 1 al ser dividido entre 4.
Para todo natural, su cuadrado da resto
0 al ser dividido entre 4 o da resto 1 al
ser dividido entre 4.
Supuesto para eliminar la disyunción de
2, bajo el supuesto de 1.
Verificado algebraicamente. Bajo los supuestos de 5 y de 1.
Supuesto para eliminar la disyunción de
2, bajo el supuesto de 1.
Verificado algebraicamente. Bajo los supuestos de 7 y de 1.
Supuesto para eliminar la disyunción de
2, bajo el supuesto de 1.
Verificado algebraicamente. Bajo los supuestos de 9 y de 1.
Por haber estudiado todos los casos posibles (eliminación de la disyunción de
2 en 3-4, 5-6, 7-8 y 9-10. Bajo el supuesto de 1.
¡Libre de supuestos!
¿Qué nos permite dar el paso 12? Intuitivamente, responderíamos que podemos dar el paso 12
porque establecimos el 11 bajo el supuesto de que n es un natural cualquiera, arbitrario, que esa es
toda la clave. O sea, en resumen, lo que se establece de un natural cualquiera vale para todos los
naturales. Y en general, podríamos decir que lo que se establece de un individuo cualquiera vale
para todos los individuos. Cualquier condición restrictiva que hubiésemos impuesto al principio, en
1 (por ejemplo, Sea n un natural mayor que 10, o Sea n un natural primo, o Sea n=17) hubiera
invalidado la conclusión universal. Hasta acá hemos establecido una versión coloquial de lo que
buscamos:
En una secuencia inferencial en la que un elemento establece que un individuo arbitrario, es
decir, un individuo del cual no se tiene otra información más que su pertenencia al dominio en
cuestión, cumple una condición cualquiera; se puede agregar una sentencia que afirma que todos
los individuos del dominio cumplen la condición.
De modo que parece que podemos establecer una regla de este tipo:
F(ck )
Siendo ck una constante cualquiera
∀xn F(xn )
Pero una ligera reflexión muestra que esa propuesta es disparatada. Si aceptamos que de cualquier
fórmula de la forma F(ck ) podemos inferir ∀xn F(xn ), debemos aceptar que es correcto lógicamente
inferir a partir de que en un dominio un individuo, denotado con ck cumple la condición F, que
todos los individuos del dominio la cumplen. Sería como aceptar, a partir de que 100 es múltiplo de
10, que todos los naturales son múltiplos de 10.
¿Qué es lo que falla en nuestra propuesta de regla? Justamente, lo que falla es que no nos
detuvimos a considerar que la constante ck debe ser apta para denotar a cualquier individuo, tal
como la n de nuestro ejemplo de razonamiento. Es decir, la ausencia de restricciones sobre el
individuo que pueda ser denotado por la constante se debe traducir en restricciones sobre la
13.1 Las reglas de inferencia
263
constante a elegir. En particular, tenemos que evitar que el individuo que la constante pueda denotar
“esté obligado” a cumplir condiciones de cualquier tipo (excepto, por supuesto, la pertenencia al
dominio). Para esto, es necesario que no aparezca ni en las premisas ni en supuestos abiertos. Por
otro lado, es necesario que no aparezca en la propia fórmula universal que se obtiene (lo que se
asegura al sustituir la constante por la variable cuantificada universalmente en todas las ocurrencias
de la constante). Veamos con algunos ejemplos el tipo de error que se cometería si no se respetaran
esas restricciones:
A) Si permitíeramos que la constante figurase en premisas, estaríamos validando un argumento
como
Sócrates es mortal.
Todos son mortales.
B) Si permitiéramos que la constante figurase en supuestos abiertos, aceptaríamos como buena
una secuencia inferencial así:
Paso
Contenido
1
2
Suponemos que Sócrates es filósofo.
Aceptamos, bajo el supuesto de 1, que
todos son filósofos.
3
Justificación
Supuesto.
Por la “regla” de introducción de universales, en la que hemos permitido que
se universalice a partir de una constante
que figura en supuestos abiertos.
Aceptamos que si Sócrates es filósofo, Por la subsecuencia de 1 a 2, libre de
entonces todos son filósofos.
supuestos.
C) Si permitíeramos que la constante figurase en la fórmula universal obtenida, consideraríamos
buena esta secuencia inferencial:
Paso
Contenido
Justificación
1
Juan es igual a Juan.
2
Para todo objeto, Juan es igual a ese
objeto
No es premisa, lo introducimos en la
secuencia por reflexividad.
Por la “regla” de introducción de universales, en la que hemos permitido que
se universalice a partir de una constante que figura en la fórmula universal
obtenida. El problema, está claro, si lo
miramos en su representación formal,
es que la constante a partir de la cual se
universaliza, “Juan”, figura en el universal obtenido, y esto es debido a que no
se sustituyó uniformemente por una variable. Se podría haber obtenido “Todos
son iguales a sí mismos”.
De este modo, la regla de introducción del cuantificador universal será:
Capítulo 13. Consecuencia sintáctica
264
Regla I∀
ck ausente de premisas
supuestos abiertos y ∀xn F(xn ).
F(ck )
∀xn F(xn )
Veamos algunos ejemplos de aplicación de las reglas que hemos incorporado hasta ahora.
Ejemplo 13.2 En nuestro primer ejemplo mostraremos una derivación que asegura que toda
fórmula de la forma ∀xn xn = xn es un teorema5 , lo que fue mencionado al examinar las restricciones
a la regla de introducción del universal.
1
ck = ck
Reflexión
2
∀xn xn = xn
I∀ , 1
Ejemplo 13.3 En nuestro segundo ejemplo, mostraremos mediante una derivación la corrección
del argumento más socorrido de todos los tiempos:
Todos los hombres son mortales.
Sócrates es hombre.
Sócrates es mortal.
En el ejemplo 12.3 habíamos traducido las premisas y la conclusión a nuestro lenguaje que
recuerda a L PO, y lo que nos interesa es mostrar una derivación con conjunto de premisas
{∀x(Hx → Mx), Hs} que termina en Ms. Esta es una:
1
∀x(Hx → Mx)
2
Hs
3
(Hs → Ms)
E∀ , 1
4
Ms
E→ , 2, 3
Listo, el famoso razonamiento queda así vindicado. Observemos que en esta derivación no se
usó la regla I∀ . ¿Podemos usarla sobre la última línea obteniendo lo siguiente?
1
∀x(Hx → Mx)
2
Hs
3
(Hs → Ms)
E∀ , 1
4
Ms
E→ , 2, 3
5
∀xMx
I∀ , 4
5 Observe
el lector que se trata de un esquema de fórmula, ya que xn no es un término del lenguaje. Para cada
elección de la variable obtenemos un teorema. En el esquema de derivación la primera línea tampoco es una fórmula,
sino un esquema de fórmula, ya que ck no pertenece al alfabeto de L PO
13.1 Las reglas de inferencia
265
Es claro que esto es un grave error. A partir de una sentencia que interpretamos como el aserto
de que Sócrates es mortal, inferimos una que interpretamos como el aserto de que todo es mortal.
El problema está, obviamente, en que no se ha respetado la restricción que la regla I∀ impone. En
este caso, se introduce el universal para que cuantifique sobre una variable que viene a ocupar el
lugar de una constante en la línea 4, pero esa constante aparece en una premisa, en la 2. Por lo tanto,
esto que se ha presentado no es una derivación, no hay regla alguna que permita obtener la línea 5.
En nuestro siguiente ejemplo, nos gustaría mostrar cómo justificar que podemos introducir un
universal que afirma que todos los individuos cumplen una condición, si hemos verificado que cada
uno de los individuos la cumple. O sea, mostrar que un razonamiento del tipo:
Hay exactamente dos individuos.
El individuo a es diferente al individuo b.
El individuo a es alto.
El individuo b es alto.
Todos los individuos son altos.
es correcto. Pero observemos que al traducir esto a nuestro símil de L PO obtenemos, escribiendo
A por “... es alto” obtenemos, en una traducción muy directa:
∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y))
¬a = b
Aa
Ab
∀xAx
lo que nos obliga a encontrar las reglas que regulan el comportamiento del cuantificador existencial.
A ello nos dedicaremos ahora.
El cuantificador existencial
Hay una cierta simetría en las reglas que gobiernan ambos cuantificadores. Así como era muy
sencillo determinar la regla de eliminación del cuantificador universal, y complicado determinar
la de introducción, nos será muy sencillo determinar la regla de introducción del cuantificador
existencial y hallar una regla aceptable de eliminación para ese cuantificador nos resultará más
arduo.
Es muy claro que si sabemos que un individuo particular cumple una condición, podemos
inferir que existe un individuo que cumple esa condición. O sea:
En una secuencia inferencial, en la cual un elemento afirma que un individuo particular cumple
una condición, se puede agregar una sentencia que afirma que existe un individuo que cumple
esa condición.
Esto nos lleva a la siguiente
Regla I∃
F(ck )
∃xn F(xn )
y no hay restricción alguna sobre esta regla.
El problema interesante es la determinación de una regla adecuada de eliminación del cuantificador existencial. ¿Qué podemos inferir de que un individuo cumple una condición? Planteada así,
Capítulo 13. Consecuencia sintáctica
266
en abstracto, la pregunta parece muy difícil de responder. Quizá podríamos pensar que sabiendo
que existe un individuo que cumple una condición, podemos inferir que uno particular lo hace. Es
decir, una regla del tipo
∃xn F(xn )
F(ck )
Pero esto sería un terrible error, equiparable al comentado al final de la sección 12.2, de inferir
que Juan es rubio a partir de saber que alguno es rubio. ¿Por qué debería ser Juan y no otro, siendo
perfectamente posible que Juan no sea rubio? Esa forma de razonar está muy desencaminada.
Entonces, ¿qué se puede inferir a partir de una afirmación existencial? Consideremos algún
razonamiento que incluya una afirmación así entre sus premisas, y observemos cómo inferimos
enfrentados con ella.
Si sabemos
1. Existe un culpable.
2. Si Juan es culpable, Pedro es culpable
3. Si Juan no es culpable, nadie más lo es.
podemos inferir que Juan y Pedro son culpables. ¿Cómo? Un razonamiento posible sería este:
Paso
Contenido
Justificación
1
2
Aceptamos que hay un culpable.
Aceptamos que si Juan es culpable, Pedro es culpable.
Aceptamos que si Juan no es culpable,
nadie más lo es.
Suponemos que hay un individuo indeterminado, al que llamamos “Hache”,
que es culpable.
Premisa.
Premisa.
3
4
5
Suponemos que Juan no es culpable.
6
Aceptamos que nadie que no sea Juan
es culpable.
Aceptamos que Juan no es culpable y
nadie que no sea Juan es culpable.
Aceptamos que nadie es culpable.
Aceptamos que Hache no es culpable.
Deberíamos aceptar que Hache es culpable y Hache no es culpable.
Aceptamos que Juan es culpable.
7
8
9
10
9
10
11
Premisa.
Supuesto para extraer consecuencias de
la existencia de un culpable establecida
en 1, no nos comprometemos con quién
es el culpable, solo suponemos que hay
uno.
Queremos llegar a una contradicción para aceptar que Juan es culpable. Bajo
supuesto de 4.
De 3 y 5. Bajo supuestos de 4 y 5.
De 5 y 6, bajo supuestos de 4 y 5.
De 7, bajo supuestos de 4 y 5.
De 8, bajo supuestos de 4 y 5.
Contradicción extraída de 4 y 9, bajo
supuestos de 4 y 5.
Rechazamos el supuesto de 5, que ha
llevado a contradicción. Bajo el supuesto de 4.
Aceptamos que Pedro es culpable.
De 9 y 2. Bajo el supuesto de 4.
Aceptamos que Juan es culpable y Pe- De 9 y 10. Bajo el supuesto de 4.
dro es culpable
13.2 El sistema de deducción natural para L PO
12
267
Aceptamos que Juan es culpable y Pe- ¡Libre de supuestos! Lo aceptamos pordro es culpable.
que es una consecuencia extraída de la
mera suposición de que existe un culpable cualquiera, y en 1 afirmamos que
existe uno.
¿Cuál es la clave de este razonamiento? Observemos que partimos de suponer que un individuo
al que solamente le damos un nombre (Hache) es culpable, es decir, cumple la condición de la que
el existencial afirma que al menos un individuo cumple. Por supuesto, es obvio que no podríamos
razonar correctamente si supusiéramos que el individuo fuese alguno particular, es decir, nombrado
en las premisas, o en algún supuesto abierto, o inclusive en la propia aserción existencial de la que
partimos. Por otro lado, lo que concluimos bajo ese supuesto y luego extraemos como conclusión
libre de él (obsérvese que la demostración termina con dos líneas iguales, solo que una obtenida
bajo el supuesto de 4 y la otra libre de él) no menciona para nada a ese individuo Hache. Es claro
que si lo hiciera, la conclusión dependería de la suposición de que Hache es culpable (Si no depende
de eso, ¿de dónde diablos habríamos sacado ese nombre, “Hache”, para introducirlo en algún
elemento de la secuencia?). Con esto in mente, podemos afirmar lo siguiente:
En una secuencia inferencial, si luego de una aserción existencial se encuentra una subsecuencia
iniciada en una instanciación del existencial con un individuo no mencionado en las premisas ni
en supuestos abiertos ni en la aserción existencial y terminada en una aserción independiente
del individuo que sirve para la instanciación del existencial mencionado, se puede agregar la
aserción final de la subsecuencia a la secuencia.
Que nos da la siguiente regla:
Regla E∃
∃xn F(xn )
[F(ck )]
..
.
ck ausente de las premisas,
supuestos abiertos, F(xn ) y A
A
A
Ejercicio 13.1 Hallar ejemplos de razonamientos incorrectos que serían dados por buenos si no
tuviéramos en cuenta las restricciones a la constante ck en la regla E∃ .
Hemos encontrado todas las reglas que conformarán nuestro sistema. Ahora haremos una
presentación sistemática de él.
13.2
El sistema de deducción natural para L PO
En la parte precedente de este capítulo hemos hallado las reglas de inferencia características del
sistema de deducción natural para L PO, las que junto con las reglas que habíamos hallado para
L P conformarán nuestro sistema. Las presentamos conjuntamente:
Capítulo 13. Consecuencia sintáctica
268
Reglas del sistema de deducción natural para L PO
Regla Reflexión
Regla Simetría
ci = c j
Regla Transitividad
ci = c j
Regla Sustitución
ci = c j
cn = cn
c j = ci
c j = ck
F(ci )
ci = ck
F ∗ (ci )
Regla E∀
∀xn F(xn )
Regla I∀
F(ck )
F(ck )
∀xn F(xn )
ck no figura en premisas ni en
supuestos abiertos ni en xn F(xn ).
Regla E∃
∃xn F(xn )
ck no figura en premisas
ni en supuestos abiertos
Regla I∃
F(ck )
[F(ck )]
..
.
ni en A ni en F(xn ).
∃xn F(xn )
A
A
Regla E↔ i
A↔B
B
Regla E↔ d
A↔B
A
Regla I↔
A→B
B→A
A
B
A↔B
Regla E∧ i
A∧B
Regla E∧ d
A∧B
Regla I∧
A
A
B
B
A∧B
Regla E¬
¬¬A
Regla I¬
[A]
A
..
.
B ∧ ¬B
¬A
Regla E→
A→B
A
Regla I→
[A]
..
.
B
B
A→B
13.3 Consecuencia sintáctica
269
Regla E∨
A∨B
Regla I∨ d
A
Regla I∨ i
A
[A]
..
.
B∨A
A∨B
C
[B]
..
.
C
C
Al igual que hicimos al estudiar el sistema formal para la lógica proposicional, ofrecemos la
siguiente
Definición 13.2.1 — Derivación. Sean Γ un conjunto de sentencias y A una sentencia. Una
derivación de A a partir de Γ es una sucesión de sentencias en la que cada sentencia:
O bien pertenece a Γ
O bien es un supuesto cancelado
O bien es el resultado de aplicar alguna de las reglas a sentencias o subsecuencias
anteriores en la sucesión
y además la última sentencia es A.
Estamos ahora en condiciones de definir una de las relaciones centrales de la lógica que estamos
estudiando, la de consecuencia sintáctica.
13.3
Consecuencia sintáctica
Al igual que en la lógica proposicional, presentamos otro modo –además de la consecuencia
semántica– de capturar la corrección lógica. La definición es estructuralmente idéntica a la ya vista
para la lógica proposicional.
Definición 13.3.1 — Consecuencia sintáctica. Sea Γ un conjunto de sentencias de L PO
y A una sentencia de L PO. A es consecuencia sintáctica de Γ si y solo si existe una derivación
de A a partir de Γ.
Notación 13.1. Si A es consecuencia sintáctica de Γ, escribimos Γ ` A
En caso de que sea necesario distinguir entre las dos nociones de consecuencia sintáctica,
la correspondiente a la lógica proposicional y la correspondiente a la lógica de primer orden,
escribiremos `L P y `L PO .
13.4
Heurística
En esta sección veremos, a través del estudio de varios ejemplos, algunas ideas a tener en cuenta
al intentar construir derivaciones.
La primera consideración que debe hacerse es, obviamente, que se debe atender muy especialmente a las restricciones impuestas sobre las constantes en juego en las reglas I∀ y E∃ . No se
abundará en ejemplos de errores cometidos por no respetarlas, sino que se encarecerá al lector no
olvidar el punto.
Ejemplo 13.4 Demostrar {∀x(Px → Qx), Pa} ` ∃xQx
Capítulo 13. Consecuencia sintáctica
270
El plan para la derivación surge de inmediato: La premisa universal puede ser instanciada en
cualquier constante, eliminando el cuantificador. Si la instanciamos en a, obtenemos un condicional
que podemos eliminar ya que la premisa restante es su antecedente. Obtenemos el consecuente,
instanciado en a, y aplicando introducción del existencial queda demostrado lo pedido.
1
∀x(Px → Qx)
2
Pa
3
Pa → Qa
E∀ , 1
4
Qa
E→ , 2, 3
5
∃xQx
I∃ , 4
En este ejemplo observamos algo que es bastante frecuente: como muchas veces se parte de las
premisas usando reglas de eliminación y se llega a la conclusión por reglas de introducción, al tener
premisas y conclusión cuantificadas es frecuente encontrar una parte en el medio de la derivación
en la que se opere a nivel proposicional. Así, las líneas 2, 3 y 4 de la derivación anterior no son
fórmulas universales ni existenciales.
Nos gustaría poder contar con algunas reglas derivadas. Las que surgen de las relaciones de
consecuencia sintáctica que iremos mostrando en los próximos ejemplos son muy útiles:
Ejemplo 13.5 {∀xF(x)} ` ¬∃x¬F(x), siendo F(x) una fórmula con x como única variable libre:
La derivación no es difícil pero nos permite observar algo interesante. En principio, como
la fórmula que deseamos obtener en la línea final de la derivación es una negación, parece razonable comenzar suponiendo ∃x¬F(x), con la idea de llegar a una contradicción y completar el
procedimiento con la regla I¬ . Hasta aquí tenemos
1
2
∀xF(x)
∃x¬F(x)
Ahora deberíamos proceder a eliminar el cuantificador universal de 1 o el existencial de 3.
¿Cuál? Parece que en este caso sería indiferente. Examinemos la posibilidad de instanciar primero el
universal y luego el existencial, en un supuesto que aparece abajo en la línea 4. Llegamos fácilmente
a
1
∀xF(x)
2
∃x¬F(x)
3
F(a)
4
¬F(a)
5
F(a) ∧ ¬F(a)
E∀ , 1
I∧ , 3, 4
Y hemos obtenido lo que buscábamos, una contradicción. Pero estamos bajo el supuesto de
4, la instanciación del existencial de 2. Debemos cerrar ese supuesto, pero no lo podemos hacer
13.4 Heurística
271
agregando F(a) ∧ ¬F(a) y acudiendo a la regla E∃ aplicada a 2 y la subderivación 4-5 porque la
constante a, usada para instanciar el existencial, aparece en la contradicción que queremos sacar
de bajo el supuesto. De modo que parece que habría que intentar otra cosa. Pero no es necesario
retroceder, venimos en buen camino. A partir de la contradicción F(a) ∧ ¬F(a) podemos obtener
cualquier sentencia para agregar a la derivación, usando ECQ, de manera que aprovechamos eso
para obtener otra contradicción que no contenga ocurrencias de la constante a. Quizá el lector esté
pensando que esto no tiene sentido alguno, pero sí lo tiene. El respeto a las restricciones impuestas
en las reglas es la garantía de la corrección inferencial. La derivación continuaría así, siendo b una
constante diferente de a que no aparece en F(x), lo que asegura que se pueda aplicar la regla E∃ en
la línea 7:
1
∀xF(x)
2
∃x¬F(x)
3
F(a)
E∀ , 1
4
¬F(a)
5
F(a) ∧ ¬F(a)
I∧ , 3, 4
6
F(b) ∧ ¬F(b)
ECQ, 5
7
8
F(b) ∧ ¬F(b)
¬∃x¬F(x)
E∃ , 2, 4–6
I¬ , 2–7
Ejercicio 13.2 Presentar un esquema de derivación que demuestre la misma relación de con-
secuencia sintáctica que el anterior en el que la primera instanciación sea de un existencial.
Ejemplo 13.6 {¬∃x¬F(x)} ` ∀xF(x), siendo F(x) una fórmula con x como única variable libre:
Dado que la premisa es una negación, no parece sensato comenzar pensando en aplicar eliminación sobre ella. Si consideramos la posibilidad de llegar a la conclusión mediante la regla
I∀ , debemos estar dispuestos a obtener F(a) libre de supuestos. Veamos esa línea de ataque al
problema. Comenzamos suponiendo ¬F(a), y esto nos lleva inmediatamente a una contradicción
luego de introducir un existencial. Obtenido F(a), terminamos la derivación como se planificó.
1
¬∃x¬F(x)
2
¬F(a)
3
∃x¬F(x)
I∃ , 2
4
∃x¬F(x) ∧ ¬∃x¬F(x)
I∧ , 3, 1
5
¬¬F(a)
I¬ , 2–4
6
F(a)
E¬ , 5
7
∀xF(x)
I∀ , 6
Capítulo 13. Consecuencia sintáctica
272
Ejercicio 13.3 En el esquema de derivación anterior, la constante a debe cumplir algo que no
se mencionó. ¿Qué?
Ejemplo 13.7 {¬∀x¬F(x)} ` ∃xF(x), siendo F(x) una fórmula con x como única variable libre.
Luego de haber pensado sobre los ejemplos anteriores, el lector comprenderá la siguiente derivación
sin problemas.
1
¬∀x¬F(x)
2
¬∃xF(x)
3
F(a)
4
∃xF(x)
I∃ , 3
5
∃xF(x) ∧ ¬∃xF(x)
I∧ , 4, 2
6
¬F(a)
I¬ , 3–5
7
∀x¬F(x)
I∀ , 6
8
∀x¬F(x) ∧ ¬∀x¬F(x)
I∧ , 7, 1
9
¬¬∃xF(x)
I¬ , 2–8
10
∃xFx
E¬ , 9
Ejercicio 13.4 ¿Hay restricciones sobre la constante a en el esquema de derivación anterior?
Explique la diferencia, si la hay, con el esquema de derivación mencionado en el ejercicio 13.2.
Ejemplo 13.8 {∃xFx} ` ¬∀x¬F(x), siendo F(x) una fórmula con x como única variable libre.
Para demostrarlo presentamos esta derivación:
1
∃xF(x)
2
∀x¬F(x)
3
F(a)
4
¬F(a)
E∀ , 2
5
F(a) ∧ ¬F(a)
I∧ , 3, 4
6
F(b) ∧ ¬F(b)
ECQ, 5
7
8
F(b) ∧ ¬F(b)
¬∀x¬F(x)
E∃ , 1, 3–6
I¬ , 2–7
13.4 Heurística
273
El lector apreciará la necesidad de la línea 6, impuesta por las restricciones de la regla E∃ .
De los cuatro últimos ejemplos podemos extraer las siguientes reglas derivadas, que suelen
llamarse en forma indistinta interdefinición de cuantificadores6 .
Interdefinición de cuantificadores
∀xF(x)
¬∃x¬F(x)
¬∀x¬F(x)
∃xF(x)
¬∃x¬F(x)
∀xF(x)
∃xF(x)
¬∀x¬F(x)
Ejemplo 13.9 En este ejemplo buscaremos una derivación que asegure la corrección de la
inferencia que realizamos para presentar la regla de eliminación del existencial, la que tendrá
algunas complicaciones que resultarán muy instructivas para el lector. Observe cómo nuestro
sistema se adapta a “imitar” en mayor o menor medida nuestro modo de inferir, y cómo hay
partes del razonamiento que resultan “amplificadas” al vernos obligados a describirlas en sus
pasos mínimos. Es un buen momento para que el lector comience a considerar los costos de la
formalización. Una inferencia relativamente breve y elemental tiene como contrapartida formal
una derivación relativamente extensa y compleja en términos de su estructura, asunto en el que
profundizaremos con el próximo ejemplo. Por supuesto, esta extensión y complejidad pueden
deberse a las constricciones impuestas por nuestra lógica y nuestro sistema deductivo, y quizá haya
sistemas en que la contrapartida formal sea más breve y más simple.
Usaremos el diccionario
Nombre o predicado
Constante de individuo o letra de relación
... es culpable
Juan
Pedro
C
j
p
con lo que una traducción del argumento es
Existe un culpable.
Si Juan es culpable, Pedro es culpable.
Si Juan no es culpable, nadie más lo es.
∃xCx
C j → Cp
(¬C j → ∀y(¬y = j → ¬Cy))
Juan es culpable y Pedro es culpable.
C j ∧Cp
La derivación comienza así, intentando “copiar” nuestro razonamiento7 :
1
∃xCx
2
C j → Cp
3
(¬C j → ∀y(¬y = j → ¬Cy))
4
Ch
5
¬C j
6
∀y(¬y = j → ¬Cy)
6 Muestran
E→ , 3, 5
que la potencia deductiva del sistema es la misma si le quitamos uno de los cuantificadores.
al lector estudiar esta parte teniendo en cuenta el razonamiento hecho, que se encuentra en 13.1.2
7 Encarecemos
Capítulo 13. Consecuencia sintáctica
274
En este punto se nos presenta una complicación. En nuestro razonamiento en lenguaje natural,
de lo que vendría a ser las líneas 5 y 6 obtuvimos que nadie es culpable. Tenemos que buscar un
modo de llegar a una fórmula que exprese eso en nuestra derivación. Un buen intento podría ser el
de obtener una fórmula cuantificada universalmente que así lo afirme, a través de una introducción
del cuantificador universal. Para eso deberíamos obtener una fórmula de la forma ¬Ck, sin que
k aparezca en las premisas o en supuestos abiertos. Así, parece razonable introducir el supuesto
Ck para obtener una contradicción, extraer la fórmula ¬Ck y aplicar sobre ella introducción del
cuantificador universal.
7
Ck
Debemos llegar a una contradicción entre 5, 6 y 7. La semántica viene en nuestra ayuda, en
este intento de aplicar el microscopio de Frege a algo que hemos pasado sobrevolando en nuestro
razonamiento en lenguaje natural. Pensemos así:
Jota no es culpable (5), todos los que no son Jota no son culpables (6) y Ka es culpable
(7). Pero o bien Ka es Jota o bien Ka no es Jota. Si Ka es Jota, entonces Ka no es
culpable, por (5); y si Ka no es Jota, entonces Ka no es culpable, por (6). En cualquier
caso, Ka no es culpable, o sea que Ka no es culpable. Pero además Ka es culpable,
por (7), con lo que hay una contradicción.
Es claro entonces cómo continuar la derivación. Se introduce la instancia de LTE k = j ∨ ¬k = j
(lo podemos hacer porque hemos demostrado que todas las instancias son teoremas en la sección
7.2) y se elimina la disyunción obteniendo la contradicción que nos permite negar el supuesto Ck.
Luego se introduce el cuantificador universal, obteniendo ∀x¬Cx, lo que nos viene a dejar en el
paso 8 de nuestro razonamiento en lenguaje natural. Eso es en la línea 18 en la parte del diagrama
que presentamos a continuación:
8
k = j ∨ ¬k = j
9
k= j
10
¬Ck
Sustitución, 5, 9
11
Ck ∧ ¬Ck
I∧ , 7, 10
12
¬k = j
13
(¬k = j → ¬Ck)
E∀ , 6
14
¬Ck
E→ , 12, 13
15
Ck ∧ ¬Ck
I∧ , 7, 14
16
Ck ∧ ¬Ck
Es teorema, instancia de LTE
E∨ , 8, 9–11, 12–15
17
¬Ck
I¬ , 7–16
18
∀x¬Cx
I∀ , 17
Se observa que se pudo aplicar la introducción del cuantificador universal en la línea 18 porque la
constante k no figura en las premisas ni en supuesto abierto alguno (los supuestos de las líneas 9 y
13.4 Heurística
275
12, que tenían ocurrencias de esa constante, fueron cerrados en la línea 16, y el supuesto de la línea
7, donde también ocurría k, fue cerrado en la línea 17).
A partir de aquí la derivación transcurre siendo una copia casi fiel de nuestra inferencia, salvo
por la introducción y eliminación de la negación, que quedan ocultas en el lenguaje natural. El
diagrama de Fitch completo es este:
1
∃xCx
2
C j → Cp
3
(¬C j → ∀y(¬y = j → ¬Cy))
4
Ch
5
¬C j
6
∀y(¬y = j → ¬Cy)
E→ , 3, 5
7
Ck
8
k = j ∨ ¬k = j
9
k= j
10
¬Ck
Sustitución, 5, 9
11
Ck ∧ ¬Ck
I∧ , 7, 10
12
¬k = j
13
(¬k = j → ¬Ck)
E∀ , 6
14
¬Ck
E→ , 12, 13
15
Ck ∧ ¬Ck
I∧ , 7, 14
Ck ∧ ¬Ck
16
Es teorema, instancia de LTE
E∨ , 8, 9–11, 12–15
17
¬Ck
I¬ , 7–16
18
∀x¬Cx
I∀ , 17
19
¬Ch
E∀ , 18
20
Ch ∧ ¬Ch
I∧ , 4, 19
21
¬¬C j
I¬ , 5–20
22
Cj
E¬ , 21
23
Cj
E∃ , 1, 4–22
24
Cp
E→ , 2, 23
25
C j ∧Cp
I∧ , 23, 24
Ejemplo 13.10 En este ejemplo final mostraremos, para un caso particular, que la enumeración
Capítulo 13. Consecuencia sintáctica
276
completa permite concluir universalmente. Retomemos el argumento ya mencionado
Hay exactamente dos individuos.
El individuo a es diferente al individuo b.
El individuo a es alto.
El individuo b es alto.
Todos los individuos son altos.
y mostremos que es correcto.
Escribiendo A por “... es alto” deberíamos demostrar:
{∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y)), ¬a = b, Aa, Ab} ` ∀xAx
Será un ejemplo interesante de extremo apartamiento entre la deducción que podemos realizar
en lenguaje natural y las derivaciones que nuestro sistema nos permite ofrecer como contrapartida
formal de ella. Seguramente se deba a que la traducción de “Hay exactamente dos individuos” a
una sentencia de L PO sepulta lo que “dos” significa bajo cuantificadores e igualdad, y nuestros
modos normales de razonar funcionen de otra manera, que seguramente sea mejor capturada (en
este caso) con otras lógicas.
Presentamos la derivación en un diagrama de Fitch sin comentarios, encarecemos al lector
intentar comprenderla.
1
∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y))
2
¬a = b
3
Aa
4
Ab
5
∃y(¬c = y ∧ ∀z(z = c ∨ z = y))
6
(¬c = d ∧ ∀z(z = c ∨ z = d))
7
∀z(z = c ∨ z = d)
E∧ , 6
8
a = c∨a = d
E∀ , 7
9
b = c∨b = d
E∀ , 7
10
a=c
11
b=c
12
a=b
Transitividad, 10, 11
13
a = b ∧ ¬a = b
I∧ , 12, 2
14
(a = c ∧ b = d) ∨ (a = d ∧ b = c)
ECQ, 13
15
b=d
16
a = c∧b = d
I∧ , 10, 15
17
(a = c ∧ b = d) ∨ (a = d ∧ b = c)
I∨ , 16
13.4 Heurística
277
(a = c ∧ b = d) ∨ (a = d ∧ b = c)
18
19
E∨ , 9, 11–14, 15–17
a=d
20
b=c
21
a = d ∧b = c
I∧ , 19, 20
22
(a = c ∧ b = d) ∨ (a = d ∧ b = c)
I∨ , 21
23
b=d
24
a=b
Transitividad, 19, 23
25
a = b ∧ ¬a = b
I∧ , 24, 2
26
(a = c ∧ b = d) ∨ (a = d ∧ b = c)
ECQ, 25
27
28
(a = c ∧ b = d) ∨ (a = d ∧ b = c)
(a = c ∧ b = d) ∨ (a = d ∧ b = c)
E∨ , 9, 20–22, 23–26
E∨ , 8, 10–18, 19–27
29
a = c∧b = d
30
a=c
E∧ , 29
31
b=d
E∧ , 29
32
Ac
Sustitución, 30, 3
33
Ad
Sustitución, 31, 4
34
¬Ae
35
e = c∨e = d
36
e=c
37
Ae
Sustitución, 32, 36
38
Ae ∧ ¬Ae
I∧ , 37, 34
39
e=d
40
Ae
Sustitución, 33, 39
41
Ae ∧ ¬Ae
I∧ , 40, 34
Ae ∧ ¬Ae
42
E∀ , 7
E∨ , 35, 36–38, 39–41
43
¬¬Ae
I¬ , 34–42
44
Ae
E¬ , 43
45
∀xAx
I∀ , 44
46
a = d ∧b = c
47
a=d
E∧ , 46
48
b=c
E∧ , 46
49
Ac
Sustitución, 48, 4
Capítulo 13. Consecuencia sintáctica
278
50
Sustitución, 47, 3
Ad
51
¬Ae
52
e = c∨e = d
53
e=c
54
Ae
Sustitución, 49, 53
55
Ae ∧ ¬Ae
I∧ , 54, 51
56
e=d
57
Ae
Sustitución, 50, 56
58
Ae ∧ ¬Ae
I∧ , 57, 51
Ae ∧ ¬Ae
59
E∀ , 7
E∨ , 52, 53–55, 56–58
60
¬¬Ae
I¬ , 51–59
61
Ae
E¬ , 60
62
∀xAx
I∀ , 61
63
∀xAx
E∨ , 28, 29–45, 46–62
64
∀xAx
E∃ , 5, 6–63
65
∀xAx
E∃ , 1, 5–64
Invitamos al lector a encontrar una derivación de la misma fórmula a partir del mismo conjunto
que sea más corta y que nos recuerde más un razonamiento que pudiéramos hacer en lenguaje
natural para obtener la conclusión.
Este ejemplo muestra que la idea de que la lógica de primer orden no refleja siempre nuestra
forma de razonar –aun en casos en que tiene la potencia suficiente para brindar las conclusiones–
es muy atendible8 .
13.5
Propiedades de la consecuencia sintáctica
La relación de consecuencia sintáctica en L PO tiene propiedades idénticas a las vistas para
la consecuencia sintáctica en L P.
Luego de reformular la definición
Definición 13.5.1 — Conjuntos consistentes, conjuntos inconsistentes. Sea Γ un conjunto
de sentencias de L PO. Γ es inconsistente si existe una sentencia A tal que Γ ` (A ∧ ¬A), y es
consistente en caso contrario.
8 Boolos, en [Boo98], afirma que la lógica de primer orden es incompleta desde el punto de vista práctico. El lector
entenderá mejor qué quiere decir esto luego de leer la parte final del libro, dedicada a la metateoría, pero la idea que
subyace es que hay inferencias que hacemos muy fácilmente y sin embargo traducidas a derivaciones en primer orden,
resultan en objetos enormes, inmanejables, como por ejemplo derivaciones que tienen más símbolos que átomos el
universo.
13.6 Excurso filosófico: Contextos indirectos
279
las resumimos en los siguientes teoremas, de los que no ofrecemos demostraciones porque son
idénticas a las del caso proposicional:
Teorema 13.5.1 Si Γ es inconsistente, entonces Γ ` B, sea cual sea la sentencia B.
Teorema 13.5.2 — Monotonía. Si Γ ` A, entonces para todo conjunto de sentencias ∆, Γ∪∆ ` A.
Corolario 13.5.3 Si τ es un teorema, entonces Γ ` τ para todo conjunto Γ.
Teorema 13.5.4 — Deducción. Para todo conjunto de sentencias Γ y para cualesquiera fórmu-
las A y B, Γ, A ` B si y solo si Γ ` (A → B).
Teorema 13.5.5 — El “absurdo”. Para todo conjunto Γ y toda sentencia A, Γ ` A si y solo si
Γ, ¬A es inconsistente.
13.6
Excurso filosófico: Contextos indirectos
Las reglas del sistema de deducción natural que se aplican sobre la igualdad conllevan compromisos importantes que afectan la capacidad de nuestra lógica para tratar ciertas clases de
argumentos.
En el ya mencionado artículo Sobre sentido y denotación, Frege sostuvo que la referencia
de los enunciados es un valor de verdad, concretamente su valor de verdad. Así, según Frege, la
denotación de
2+2=4
es lo Verdadero, mientras que la de
La Tierra es un satélite de Mercurio
es lo Falso9 . Ciertamente, esto parece extraño, pero Frege tiene un argumento para considerarlo así.
Básicamente, es una consecuencia de su teoría composicional de la referencia:
Consideremos que no sabemos qué será la referencia de un enunciado como
1. El papa Francisco es argentino
y que aceptamos la teoría composicional de la referencia, es decir, que la referencia de ese compuesto
será función de la referencias de sus componentes. Aceptemos, además, con Frege y contra Russell,
como vimos en la sección 11.5, que la descripción definida el papa Francisco es denotativa, y que
afirmamos, razonablemente,
El papa Francisco = Jorge Bergoglio
Esa igualdad establecida indica que la referencia de sus dos miembros es la misma, es decir,
que hay un único objeto al que llamamos tanto “el papa Francisco” como “Jorge Bergoglio”.
Ahora bien, dado que consideramos que la referencia del enunciado que estamos analizando
es función de la referencia de sus componentes, debemos aceptar que si cambiamos uno de sus
9 Escribo
“lo Verdadero” y “lo Falso” para referirme a dos objetos que Frege creía efectivamente existen, con
indudable talante platónico. Lo Verdadero es la referencia de todas las proposiciones verdaderas, y lo Falso la referencia
de todas las proposiciones falsas, según su teoría.
Capítulo 13. Consecuencia sintáctica
280
componentes por algo que tenga la misma referencia, el enunciado resultante tendrá la misma
referencia que el original. Así, Frege establece que la referencia de 1 debe ser la misma que la del
enunciado
2. Jorge Bergoglio es argentino.
y Frege observa que lo que se ha conservado al pasar de 1 a 2 es el valor de verdad. Ambos
enunciados son verdaderos. Si hubiésemos partido de un enunciado falso, como por ejemplo
Jorge Bergoglio es judío.
la sustitución, que conserva la referencia, nos daría como resultado el enunciado
El papa Francisco es judío.
que también es falso.
Es de este modo que Frege postula que la referencia de los enunciados es su valor de verdad.
Pero pronto se enfrenta con un severo problema.
Para exponerlo, consideremos real la leyenda de Edipo, de modo de decir que los enunciados
que vamos a formular tienen referencia, aun en el marco fregeano10 . La madre de Edipo se llama
Yocasta, o sea que
Yocasta = la madre de Edipo
Edipo, huyendo de la que cree es su ciudad natal, Corinto, entra en Tebas luego de haber
vencido a la esfinge, es coronado rey y se casa con Yocasta, quien es su madre pero él lo ignora. En
ese entonces el enunciado
Edipo sabe que su esposa es Yocasta.
es claramente verdadero. Pero la sustitución por el otro miembro de la última igualdad considerada
arroja
Edipo sabe que su esposa es la madre de Edipo.
que en mejor español se expresa
Edipo sabe que su esposa es su madre.
y es falso. Justamente, cuando Edipo llegue a saber eso se producirá la anagnórisis y ese momento
no ha llegado11 .
¿Qué ha sucedido? ¿Cómo es que hemos pasado de un enunciado verdadero a uno falso al hacer
una sustitución de un sintagma por otro que tiene la misma referencia? ¿No indica esto que la regla
de sustitución que hemos establecido puede llevarnos a certificar como correctas inferencias que no
lo son?
La clave del asunto, en nuestro ejemplo, está en el verbo saber. Ese verbo introduce lo que
Frege llamó un contexto indirecto, en el cual la sustitución efectuada ofrece este resultado de no
conservación del valor de verdad. Muchos otros verbos lo hacen, como por ejemplo los verbos
querer, creer, opinar, pensar.
La consecuencia inmediata de esto es que nuestra lógica, con la regla de sustitución que hemos
dado, no puede tratar eficazmente situaciones en las que aparezcan contextos indirectos. Por este y
otros motivos se han desarrollado lógicas no clásicas, como las lógicas epistémicas (para aplicar
las cuestiones relativas a lo que se sabe), las doxásticas (sobre lo que se cree), etc. Sus reglas de
inferencia no integran estos esquemas sustitucionales.
10 Este
aspecto no tiene importancia, se elige la leyenda de Edipo para ilustrar el punto, pero se podría pensar un
ejemplo no ficticio
11 Para los lectores que conozcan elementos de la semántica fregeana y la poética aristotélica: ¿Será la anagnórisis,
desde el punto de vista fregeano, el reconocimiento de que dos sentidos incompatibles éticamente se asocian a la misma
referencia?
IV
Metateoría
14
Introducción . . . . . . . . . . . . . . . . . . . . . . . 283
15
Corrección . . . . . . . . . . . . . . . . . . . . . . . . . 285
15.1
15.2
La demostración
Consecuencias de la corrección
16
Compacidad y completitud . . . . . . . . 295
16.1
16.2
16.3
Compacidad
Completitud de L P
En L PO
Epílogo: Lógica, ¿para qué? . . . . . . . . 313
Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . 323
Índice alfabético . . . . . . . . . . . . . . . . . . . 329
14. Introducción
descrito dos lógicas, la proposicional y la de primer orden, con un sistema de
deducción natural para cada una. Las nociones centrales que hemos estudiado son las
de consecuencia semántica y consecuencia sintáctica. Ambas fueron introducidas como
correlato formal de una noción intuitiva, relacionada con la corrección o calidad argumental, que
puede nombrarse como consecuencia lógica.
No hemos prestado demasiada atención a un problema de enorme importancia: ¿Cuáles son
las relaciones entre la consecuencia semántica y la consecuencia sintáctica? Decimos que la
importancia del problema es muy grande porque por un lado, las dos nociones en juego son las más
importantes que hemos estudiado, y por otro, ambas fueron propuestas como correlato formal de la
misma noción informal.
Si se pudiera demostrar que hay casos de consecuencia semántica que no lo son de consecuencia sintáctica o al revés, se debería sospechar que alguna de estas nociones sobrerrepresenta o
subrepresenta el concepto intuitivo de consecuencia lógica.
Si, por el contrario, se pudiera demostrar que todos los casos de consecuencia semántica son
casos de consecuencia sintáctica, se estaría dando una cierta evidencia a favor de que la noción
intuitiva de consecuencia lógica ha sido bien representada formalmente.
Tanto la consecuencia semántica como la sintáctica son conceptos formales, y por eso, la tarea
de responder a la pregunta de las relaciones que mantienen entre sí es asunto de la propia lógica,
una ciencia formal. Es este un aspecto interesante de la lógica, que comparte con la matemática:
los estudios de segundo orden caen bajo el campo de la propia disciplina, del mismo modo que el
estudio de los sistemas matemáticos es parte de la matemática. Esos estudios de segundo orden
representan la parte más jugosa de la lógica, la que se encuentra en constante desarrollo en la
actualidad, y eso es así desde el siglo pasado. La metateoría es el estudio de los sistemas lógicos
desde ese punto de vista que más allá de establecer resultados en ellos, establece resultados generales
sobre ellos.
Se podría considerar que este campo es el propio de un segundo curso de lógica para estudiantes
de filosofía. Ciertamente, así es. Pero dedicaremos esta última parte del curso a presentar algunos
resultados metateóricos centrales, que deberían ser conocidos por cualquier estudiante de filosofía,
H
EMOS
Capítulo 14. Introducción
284
con independencia de si estudia sus justificaciones en detalle. Esos resultados estarán dedicados a
esclarecer, como dijimos, las relaciones entre los dos conceptos fundamentales que hemos estudiado,
la consecuencia semántica y la consecuencia sintáctica. Las preguntas centrales serán, entonces
¿Γ ` A implica Γ |= A? ¿Γ |= A implica Γ ` A?
De las respuestas a esas preguntas dependen las respuestas a otras, como ¿Son todos los
teoremas fórmulas válidas y recíprocamente? ¿Los conjuntos insatisfacibles son los mismos que
los inconsistentes?
Intentar responderlas nos obliga a salir de los sistemas en que hemos venido trabajando para
establecer resultados sobre ellos. En este sentido, algo hemos avanzado: hemos establecido teoremas
sobre nuestros sistemas, como monotonía, deducción y absurdo. Esos tres resultados valen tanto
para la consecuencia semántica como para la sintáctica. Pero por supuesto que eso no demuestra
que ambas relaciones sean extensionalmente iguales, es decir, que cada vez que se dé una se dará la
otra y recíprocamente.
Consideremos lo que comportaría una respuesta negativa a la primera pregunta destacada.
En tal caso, existiría un conjunto Γ y una fórmula A tales que Γ ` A pero Γ 2 A. O sea, nuestro
sistema deductivo nos permitiría obtener, a partir de Γ, una fórmula que puede ser falsa siendo
verdaderas todas las fórmulas de Γ. Sería un resultado extremadamente indeseable, especialmente
si adherimos a la tónica vista en este curso, donde se sugiere que las nociones semánticas tienen
preeminencia sobre las sintácticas, de modo que estas deben elegirse y disponerse en forma tal
que reflejen y respeten aquellas. Si nos encontrásemos en este caso, siempre desde esa tónica,
estaríamos fuertemente inclinados a abandonar el sistema formal, con la idea de sustituirlo por otro
que solo extraiga, como consecuencias sintácticas de un conjunto, fórmulas que sean consecuencias
semánticas de ese conjunto.
Definición 14.0.1 Sistema correcto
Un sistema deductivo en el que si Γ ` A entonces Γ |= A para todo Γ y A se dice correcto.
Nuestra tarea en el primer capítulo de esta parte será demostrar la corrección del sistema de
deducción natural para la lógica de primer orden, demostración que servirá también para la lógica
proposicional.
Consideremos ahora lo que comportaría una respuesta negativa a la segunda pregunta. Si ese
fuese el caso, existiría un conjunto Γ y una fórmula A tales que Γ |= A pero Γ 0 A. Esto indicaría
que nuestro sistema no tiene la potencia suficiente como para permitirnos obtener, a partir de Γ, toda
fórmula que sea verdadera si las de ese conjunto lo son. No parece una falla tan grave como la no
corrección, pero nos impulsaría, quizá, a fortalecer nuestro sistema con nuevas reglas de modo de
poder capturar mediante las consecuencias sintácticas de un conjunto todo lo que es consecuencia
semántica de él.
Definición 14.0.2 Sistema completo
Un sistema deductivo en el que si Γ |= A entonces Γ ` A para todo Γ y A se dice completo.
En el segundo capítulo de esta parte, luego de considerar con especial cuidado si la finitud de las
derivaciones impone constricciones demasiado fuertes a la consecuencia sintáctica, demostraremos
la completitud de la deducción natural para la lógica proposicional y consideraremos la cuestión
para la lógica de primer orden.
15. Corrección
OMO hemos dicho, en este capítulo demostraremos la corrección del sistema de deducción
natural para la lógica de primer orden, un resultado central y absolutamente deseable. Si
no se cumpliera, el propósito que teníamos al elegir reglas de inferencia para la deducción
natural que respetaran la consecuencia semántica se vería totalmente traicionado. Es decir, debemos
demostrar
C
Teorema 15.0.1 — Corrección. Si Γ ` A entonces Γ |= A para todo conjunto de sentencias Γ
y para toda sentencia A de L PO.
Llamemos correcta a una derivación de A a partir de Γ si A y Γ son tales que Γ |= A. Lo
que queremos demostrar entonces, es que todas las derivaciones en nuestro sistema son correctas.
Lo haremos por inducción en la longitud de las derivaciones, midiendo esa longitud mediante el
número de líneas que tienen. Es decir, mostraremos dos cosas:
1. Todas las derivaciones de longitud 1 son correctas.
2. Si todas las derivaciones de longitud n o menos son correctas, entonces todas las derivaciones
de longitud n + 1 son correctas.
Si logramos demostrar esos dos puntos, habremos conseguido nuestro objetivo, porque por 1 las
derivaciones de longitud 1 son correctas, y dado eso y 2, las de longitud 2 son correctas, y dado eso
y 2, las de longitud 3 son correctas, etc.
15.1
La demostración
Comencemos entonces demostrando el punto 1.
Supongamos que Γ ` A y hay una derivación de longitud 1 de A a partir de Γ. Esa derivación
solo puede tener la forma (mostrada en diagrama de Fitch)
1
A
286
Capítulo 15. Corrección
Esto significa que A es una premisa, o sea, que A es un elemento de Γ. Por tanto, Γ |= A y queda
demostrado que todas las derivaciones de longitud 1 son correctas.
Pasemos ahora a demostrar el punto 2. Para hacerlo, debemos recordar que en una derivación,
debido a la existencia de supuestos, una sentencia que se encuentra en una línea cualquiera j no es,
en general, consecuencia sintáctica del conjunto de partida Γ, sino que es consecuencia sintáctica
de Γ ∪ ∆, siendo ∆ el conjunto de los supuestos abiertos que están en las líneas entre 1 y j inclusive.
Recordado eso, supongamos que toda sentencia X que se obtiene a partir de Γ por una derivación de
n líneas o menos es tal que Γ |= X, y consideremos una derivación de A a partir de Γ de n + 1 líneas.
Nos preguntamos qué justifica la aparición de A como fórmula final en la derivación, y vemos que
tenemos solo las siguientes posibilidades (descartamos que A se haya introducido en la línea n + 1
como un supuesto, porque en ese caso no estamos frente a una derivación de A a partir de Γ, debido
a que las derivaciones tienen todos los supuestos cerrados):
1. A aparece en la línea n + 1 como premisa.
2. A aparece en la línea n + 1 como resultado de aplicar Reflexión.
3. A aparece en la línea n + 1 como resultado de aplicar Simetría.
4. A aparece en la línea n + 1 como resultado de aplicar Transitividad.
5. A aparece en la línea n + 1 como resultado de aplicar Sustitución.
6. A aparece en la línea n + 1 como resultado de aplicar I∧ .
7. A aparece en la línea n + 1 como resultado de aplicar E∧ .
8. A aparece en la línea n + 1 como resultado de aplicar I∨ .
9. A aparece en la línea n + 1 como resultado de aplicar E∨ .
10. A aparece en la línea n + 1 como resultado de aplicar I→ .
11. A aparece en la línea n + 1 como resultado de aplicar E→ .
12. A aparece en la línea n + 1 como resultado de aplicar I↔ .
13. A aparece en la línea n + 1 como resultado de aplicar E↔ .
14. A aparece en la línea n + 1 como resultado de aplicar I¬ .
15. A aparece en la línea n + 1 como resultado de aplicar E¬ .
16. A aparece en la línea n + 1 como resultado de aplicar I∀ .
17. A aparece en la línea n + 1 como resultado de aplicar E∀ .
18. A aparece en la línea n + 1 como resultado de aplicar I∃ .
19. A aparece en la línea n + 1 como resultado de aplicar E∃ .
Debemos mostrar que en todos esos casos se tiene Γ |= A.
1. A aparece en la línea n + 1 como premisa.
En este caso es trivial que Γ |= A, ya que A es un elemento de Γ.
2. A aparece en la línea n + 1 como resultado de aplicar Reflexión.
En este caso A es de la forma ci = ci , o sea, una fórmula válida. Por lo tanto, es consecuencia
semántica de todo conjunto y en particular de Γ.
3. A aparece en la línea n + 1 como resultado de aplicar Simetría.
15.1 La demostración
287
En este caso A es de la forma c j = ci y la derivación es así:
0
..
.
Γ
..
.
h
..
.
ci = c j
..
.
n+1
c j = ci
Simetría, h
Como la regla Simetría no cancela supuestos y la línea final se justifica mediante la línea h, esta
última no se encuentra bajo un supuesto cancelado. Por lo tanto, se tiene que hay una derivación de
h líneas que obtiene ci = c j a partir de Γ, y h 6 n. Por hipótesis, tenemos Γ |= ci = c j . O sea, toda
interpretación que es modelo de Γ asigna la misma denotación a las constantes ci y c j , por lo que
Γ |= c j = ci .
4. A aparece en la línea n + 1 como resultado de aplicar Transitividad.
En este caso A es de la forma ci = ck y la derivación es así:
0
..
.
Γ
..
.
h
..
.
ci = c j
..
.
l
..
.
c j = ck
..
.
n+1
ci = ck
Transitividad, h, l
Como la regla Transitividad no cancela supuestos y la línea final se justifica mediante las líneas
h y l, estas últimas no se encuentran bajo supuestos cancelados. Por lo tanto, se tiene que hay una
derivación de h líneas que obtiene ci = c j a partir de Γ, y una derivación de l líneas que obtiene
c j = ck a partir de Γ. Además, h 6 n y l 6 n. Por hipótesis, tenemos Γ |= ci = c j y Γ |= c j = ck . O
sea, toda interpretación que es modelo de Γ asigna la misma denotación a las constantes ci y c j , y la
misma denotación a las constantes c j y ck , por lo que asigna la misma denotación a las constantes
ci y ck , con lo que tenemos Γ |= ci = ck .
5. A aparece en la línea n + 1 como resultado de aplicar Sustitución.
Capítulo 15. Corrección
288
En este caso, A es de la forma F(c j ) y la derivación es así:
0
..
.
Γ
..
.
h
..
.
ci = c j
..
.
l
..
.
F(ci )
..
.
n+1
F ∗ (c j )
Sustitución, h, l
Como la regla Sustitución no cancela supuestos y la línea final se justifica mediante las líneas h
y l, estas últimas no se encuentran bajo supuestos cancelados. Por lo tanto, se tiene que hay una
derivación de h líneas que obtiene ci = c j a partir de Γ, y una derivación de l líneas que obtiene
F(ci ) a partir de Γ. Además, h 6 n y l 6 n. Por hipótesis, tenemos Γ |= ci = c j y Γ |= F(ci ). O
sea, toda interpretación que es modelo de Γ asigna la misma denotación a las constantes ci y c j , y
además es modelo de F(ci ). Debemos demostrar que una tal interpretación es también modelo de
F ∗ (c j ), donde esta última sentencia es el resultado de sustituir algunas de las ocurrencias de ci en
F(ci ) por c j .
Haremos esta demostración también por inducción, esta vez sobre la complejidad de la fórmula
F(ci ), demostrando que en todos los casos, Γ |= ci = c j y Γ |= F(ci ) implica Γ |= F † (c j ), donde
F † (c j ) es el resultado de sustituir una única ocurrencia de ci por c j en F(ci ). El resultado deseado,
para F ∗ (c j ) se obtiene por aplicación repetida de una única sustitución.
Comenzamos considerando el caso en que F(ci ) una sentencia atómica:
a F(ci ) es de la forma Rnl ck1 ...ci ...ckn , y F † (c j ) es Rnl ck1 ...c j ...ckn .
M
n
Sea M un modelo de Γ. Como Γ |= ci = c j , cM
i = c j y como Γ |= Rl ck1 ...ci ...ckn ,
M
M
M
M
n
M
M
M
Rnl cM
k1 ...ci ...ckn , por lo que también Rl ck1 ...c j ...ckn , lo que demuestra que Γ |=
†
F (c j ).
b F(ci ) es de la forma ci = ck , y F † (c j ) es c j = ck . Sea M un modelo de Γ. Como Γ |= ci = c j ,
M
M
M
M
M
cM
i = c j y como Γ |= ci = ck , ci = ck , por lo que c j = ck , lo que demuestra que
Γ |= F † (c j ).
Esto muestra que Γ |= ci = c j y Γ |= F(ci ) implica Γ |= F † (c j ) siempre que F(ci ) sea una fórmula
atómica.
Consideremos ahora el caso de fórmulas no atómicas. Nuestra hipótesis será que toda interpretación que sea modelo de una fórmula Z(ci ) con n conectivos lógicos o menos, y también sea
modelo de ci = c j , será modelo de Z † (c j ). Eso está probado para fórmulas atómicas, e implica en
general que si Γ |= Z(ci ), Γ |= ci = c j se cumplirá Γ |= Z † (c j ) (para fórmulas con n conectivos o
menos). Comencemos con las fórmulas cuantificadas y negadas:
a F(ci ) es de la forma ∀xA(x, ci ), con n + 1 conectivos lógicos. Suponemos Γ |= ∀xA(x, ci ),
Γ |= ci = c j , y debemos mostrar Γ |= ∀xA† (x, c j ).
Sea M un modelo de Γ. Como Γ |= ∀xA(x, ci ), para toda constante ck , M + (A(ck , ci )) = V ,
o sea Γ |= A(ck , ci ) para toda constante ck . Como A(ck , ci ) tiene n conectivos lógicos, por
hipótesis, se cumple Γ |= A† (ck , c j ) para toda constante ck , lo que implica Γ |= ∀xA† (x, c j ),
que es lo que queríamos demostrar.
15.1 La demostración
289
b F(ci ) es de la forma ∃xA(x, ci ), con n + 1 conectivos lógicos. Suponemos Γ |= ∃xA(x, ci ),
Γ |= ci = c j , y debemos mostrar Γ |= ∃xA† (x, c j ). La demostración es análoga a la anterior y
queda como ejercicio.
c F(ci ) es de la forma ¬A(ci ), con n+1 conectivos lógicos. Suponemos Γ |= ¬A(ci ), Γ |= ci = c j ,
y debemos mostrar Γ |= ¬A† (c j ).
Sea M un modelo de Γ. Como Γ |= ¬A(ci ), tenemos que M (A(ci )) = F. Mostraremos
que también tiene que ser M (A† (c j )) = F. Si fuera M (A† (c j )) = V , por hipótesis, y dado
que A tiene n conectivos lógicos, tendríamos que M (A(ci )) = V , lo que implicaría que
M (¬A(ci )) = F, con lo que Γ 2 ¬A(ci ). Por lo tanto es M (A† (c j )) = F para todo modelo
de Γ, lo que demuestra que Γ |= ¬A† (c j ).
Finalmente, veamos el caso de las fórmulas cuyo conectivo principal es binario:
F(ci ) es de la forma A(ci ) ∧ B1 , con n + 1 conectivos lógicos. Suponemos Γ |= A(ci ) ∧ B,
Γ |= ci = c j , y debemos mostrar Γ |= A† (c j ) ∧ B. Este caso es trivial porque al tener A(ci ) no
más de n conectivos lógicos y darse Γ |= A(ci ), se tiene por hipótesis que Γ |= A† (c j ) y por
lo tanto, teniendo también Γ |= B, resulta Γ |= A† (c j ) ∧ B
Los casos de los restantes conectivos binarios son análogos.
Esto termina el estudio del caso de una última línea justificada por Sustitución.
6. A aparece en la línea n + 1 como resultado de aplicar I∧ .
En este caso A es de la forma B ∧C y la derivación es así:
0
..
.
Γ
..
.
h
..
.
B
..
.
k
..
.
C
..
.
n+1
B ∧C
I∧ , h, k
Como la regla I∧ no cancela supuestos y la línea final se justifica mediante las líneas h y l, estas
últimas no se encuentran bajo supuestos. Por lo tanto, se tiene que hay una derivación de h líneas
que obtiene B a partir de Γ, y una derivación de k líneas que obtiene C a partir de Γ. Además, h 6 n
y k 6 n. Por hipótesis, tenemos Γ |= B y Γ |= C, de donde trivialmente surge que Γ |= B ∧C.
Los restantes casos donde no aparecen supuestos ni la última fórmula es cuantificada son
similares. Demostraremos entonces los casos con supuestos y cuantificados. Todos los demás
quedan como ejercicio para el lector.
9. A aparece en la línea n + 1 como resultado de aplicar E∨ .
1 Obviamente, si la ocurrencia de c que se sustituye está en en segundo conyunto, hay un argumento idéntico a este
i
que demuestra lo requerido.
Capítulo 15. Corrección
290
En este caso la derivación es así:
0
..
.
Γ
..
.
i
..
.
B ∨C
..
.
j
..
.
B
..
.
k
..
.
A
..
.
C
..
.
l
..
.
m
..
.
..
.
A
n+1
A
E∨ , i, j–k, l–m
La línea final cancela solamente los supuestos de las líneas j y l, de modo que las subderivaciones j − k y l − m no se encuentran bajo supuestos. Por lo tanto, tenemos
Γ ` B ∨C
Γ, B ` A
Γ, C ` A
y todas estas consecuencias sintácticas a través de derivaciones de n líneas o menos. Por hipótesis,
Γ |= B ∨C; Γ, B |= A y Γ, C |= A. En estas condiciones es claro que Γ |= A.
10. A aparece en la línea n + 1 como resultado de aplicar I→ .
En este caso A es de la forma B → C y la derivación es así:
0
..
.
Γ
..
.
i
..
.
B
..
.
j
..
.
C
..
.
n+1
B→C
I→ , i– j
La línea final cancela únicamente el supuesto de la línea i, por lo que la subderivación i − j
no se encuentra bajo otros supuestos. Tenemos entonces Γ, B ` C a través de una derivación de n
líneas o menos. Por hipótesis, Γ, B |= C, y el teorema de deducción implica que Γ |= B → C.
15.1 La demostración
291
10. A aparece en la línea n + 1 como resultado de aplicar I¬ .
En este caso A es de la forma ¬B y la derivación es así:
0
..
.
Γ
..
.
B
..
.
i
..
.
C ∧ ¬C
j
..
.
..
.
n+1
¬B
I¬ , i– j
La línea final cancela únicamente el supuesto de la línea i, por lo que la subderivación i − j no se
encuentra bajo otros supuestos. Tenemos entonces Γ, B ` C ∧ ¬C a través de una derivación de n
líneas o menos, de modo que por hipótesis Γ, B es insatisfacible. Por esto, todo modelo de Γ es
contramodelo de B y por tanto, modelo de ¬B. Se concluye que Γ |= ¬B.
10. A aparece en la línea n + 1 como resultado de aplicar I∀ .
En este caso A es de la forma ∀xB(x) y la derivación es así:
0
..
.
Γ
..
.
i
..
.
B(a)
..
.
n+1
∀xB(x)
I∀ , i
en la que a no aparece en las premisas ni en supuestos abiertos.
Como la última línea se obtiene a través de una regla que no cancela supuestos, B(a) no puede
depender de supuestos y por lo tanto tenemos Γ ` B(a) a través de una derivación de n líneas o
menos, por lo que según nuestra hipótesis, Γ |= B(a), donde a no aparece en ninguna fórmula de
Γ que se utilice en la derivación como premisa. Debemos demostrar que en estas condiciones se
cumple Γ |= ∀xB(x).
Lo haremos por contrarrecíproco. Supongamos que se cumple Γ 2 ∀xB(x), o sea que existe una
interpretación M que es modelo de todas las fórmulas de Γ y M (∀xB(x)) =F.
Esto nos indica que hay una constante c tal que M + (B(c)) =F.
A partir de M construyamos una nueva interpretación N de la siguiente manera: N tiene el
mismo dominio que M , y las denotaciones de los símbolos no lógicos son exactamente las mismas
+
que las que asigna M , con la única excepción de que aN = cM Como solo hemos cambiado el
individuo asignado a a y esta constante no aparece en las fórmulas de Γ, se tiene que bajo esta
nueva interpretación todas las fórmulas de Γ tienen el mismo valor de verdad que bajo M , o sea V.
+
Pero como a está asignado al elemento cM será N (B(a)) = M + (B(c))=F (ya que a no aparece
en B(x)), contradiciendo Γ |= B(a). Esto demuestra Γ |= ∀xB(x).
Capítulo 15. Corrección
292
Los casos en que la última línea aparece como aplicación de E∀ o I∃ son muy sencillos y se
dejan como ejercicio. Veamos el último caso posible:
19. A aparece en la línea n + 1 como resultado de aplicar E∃ .
En este caso la derivación tiene la forma:
0
..
.
Γ
..
.
i
..
.
∃xB(x)
..
.
j
..
.
B(a)
..
.
k
..
.
C
..
.
n+1
C
E∃ , i, j–k
con la constante a ausente de las premisas, de B(x) y de C.
La última línea cierra el supuesto de la línea j, que se extiende hasta la línea k. Tenemos, por lo
tanto, Γ ` ∃xB(x) y Γ, B(a) ` C a través de derivaciones de n líneas o menos. De acuerdo a nuestra
hipótesis, tenemos Γ |= ∃xB(x) y Γ, B(a) |= C, con a ausente de Γ, de B(x) y de C. Debemos
demostrar que en esas condiciones se tiene Γ |= C.
Sea M un modelo de Γ. Entonces:
1. Si M (B(a)) = V , como Γ, B(a) |= C se tendrá M (C) = V
2. Si M (B(a)) = F, supongamos M (C) = F y llegaremos a una contradicción:
Como Γ |= ∃xB(x), existe una constante c para la que M + (B(c)) = V . Consideremos la
interpretación N con el mismo dominio que M y que asigna las mismas denotaciones
+
a los símbolos no lógicos, excepto que aN = cM , por lo que N (B(a)) = V (ya que las
denotaciones de los símbolos no lógicos, excepto a, son las mismas que en M , y a no aparece
en B(x)). Como la constante a no aparece en las fórmulas de Γ, sus valores de verdad bajo
N son los mismos que bajo M o sea, V; como la constante a no aparece en C, su valor de
verdad bajo N es el mismo que bajo M , o sea F. Como la interpretación N es modelo de
Γ, B(a) y contramodelo de C, esto contradice Γ, B(a) |= C.
Por lo tanto, M (C) = V .
Con esto hemos demostrado uno de los teoremas centrales de nuestras lógicas, la corrección del
sistema de deducción natural para L PO. Es claro que de esta demostración surge el
Corolario 15.1.1 El sistema de deducción natural para L P es correcto.
15.2
Consecuencias de la corrección
Demostrar la corrección de un sistema cualquiera en que se ha definido una relación de
consecuencia semántica y una de consecuencia sintáctica es fundamental. Los sistemas incorrectos,
15.2 Consecuencias de la corrección
293
al menos para propósitos lógicos, divorcian tan fuertemente las nociones de “verdadero” y de
“demostrable” que ponen en riesgo su razón de ser, ya que lo demostrable se busca por su valor
cognitivo, y tradicionalmente el estado epistémico superior es el conocimiento, asociado a la verdad.
Por supuesto que este último punto es filosóficamente discutible, pero aunque así sea, es muy difícil
argumentar a favor de los méritos de sistemas incorrectos.
En nuestro caso, la búsqueda de la corrección era incipiente en la propia formulación de
las reglas, que aunque estaban destinadas a ser puramente sintácticas, fueron elegidas de acuerdo a criterios semánticos. La demostración que acabamos de hacer muestra que no cometimos
inadvertidamente algún error al elegirlas.
El teorema tiene algunas consecuencias inmediatas:
Corolario 15.2.1 Si τ es un teorema entonces τ es una fórmula válida (tautología en la lógica
proposicional).
Supongamos que Γ ` (A ∧ ¬A), o sea, Γ es inconsistente. Por corrección, Γ |= (A ∧ ¬A), lo que
ocurre si y solo si Γ es insatisfacible. Por lo tanto:
Corolario 15.2.2 Si un conjunto Γ es inconsistente, entonces es insatisfacible. .
lo que implica a su vez que de un conjunto satisfacible es imposible derivar una contradicción.
En el próximo capítulo consideraremos la cuestión recíproca, de si la existencia de la relación
de consecuencia semántica entre Γ y A asegura que exista una derivación de A a partir de Γ.
16. Compacidad y completitud
N este capítulo intentaremos responder preguntas que surgen muy naturalmente de lo que
hemos visto, como ¿Existen fórmulas válidas (o tautologías) que no son teoremas? ¿Existen
conjuntos consistentes insatisfacibles? Y, en general, ¿Siempre que Γ |= A se tendrá Γ ` A?
Como se dijo en la introducción a esta parte, una respuesta negativa a esta última pregunta, o sea, la
corroboración de la incompletitud de los sistemas, no parece conllevar los efectos catastróficos que
tendría la incorrección. Pero sí marcaría una limitación importante: sencillamente, habría relaciones
de consecuencia lógica (entendida como consecuencia semántica) más allá de las capacidades de
demostración que nos hemos dado. Si nos viésemos en ese caso, podrían suceder dos cosas: la
completitud podría alcanzarse agregando reglas al sistema, o la completitud no sería alcanzable
por este camino, y deberíamos resignarnos a la existencia de una brecha entre lo verdadero y lo
demostrable. El punto merece una consideración especial. Estamos acostumbrados a pensar que
lo verdadero y lo demostrable no siempre coinciden. Es por eso que no todos los culpables de un
delito son condenados, aunque sean acusados. Y ningún lector de este libro cree que la proposición
“Mi primer paso fue dado con la pierna derecha” sea demostrable, aunque claramente para muchas
personas eso es verdadero. Pero nuestro caso es diferente, no se trata de cuestiones fácticas, sino
formales. En caso de tener un sistema incompleto, sabríamos de la existencia de proposiciones
verdaderas debido a su forma y la de otras, sabidas verdaderas, pero tales que esa verdad escaparía
a nuestras posibilidades de evidenciarla si nos restringimos a nuestro sistema formal. Considerar
que la brecha se puede saltar agregando reglas nos pone en una tensión importante, debido a que
el hipotético agregado de reglas debería hacerse cuidando siempre de mantener la corrección. Si
resultara que nuestro sistema es incompleto y el “remedio” que proponemos es incluir la regla de
inferencia (que llamaremos “Completadora”)
E
Regla Completadora
A
A∧B
por supuesto que obtendríamos mágicamente un sistema completo, ya que toda fórmula será
consecuencia sintáctica de todo conjunto (demuéstrelo el lector). Pero obviamente, se habrá perdido
la corrección.
Capítulo 16. Compacidad y completitud
296
Ahora bien, ¿tenemos razones para creer que nuestros sistemas son completos? Tal vez el lector
no sepa qué responder. ¿Y tenemos razones para sospechar que no son completos? Quizá esta
pregunta sea tan difícil como la anterior. Veamos lo siguiente: Considere el conjunto infinito Γ de
proposiciones etiquetadas:
Lenguaje natural
Traducción a L PO
1
2
..
.
Existe al menos un objeto natural
Existen al menos dos objetos naturales
..
.
∃xNx
∃x∃y(¬x = y ∧ Nx ∧ Ny)
..
.
ω
El conjunto de los objetos naturales es finito
¿?
Lo que así representamos contiene un conjunto de infinitas proposiciones, cada una etiquetada
con un número natural. La j-ésima proposición expresa que hay al menos j objetos naturales. A
este conjunto le agregamos una proposición que etiquetamos con la última letra del alfabeto griego,
la que expresa que la cantidad de objetos naturales es finita. Dejemos de lado por el momento el
hecho de que no hemos traducido la proposición etiquetada como ω a L PO atribuyéndolo a
nuestra falta de habilidad para hacerlo, y supongamos que tenemos una adecuada traducción de
ella.
Ese conjunto de proposiciones es insatisfacible. Esto es así porque un modelo de la proposición
etiquetada como ω necesariamente hará que la denotación del predicado N sea un conjunto finito,
que tendrá por tanto una cantidad finita de elementos, digamos k. Pero entonces ese modelo de ω
será contramodelo de las proposiciones etiquetadas con los naturales mayores o iguales a k + 1, que
exigen a sus modelos que la denotación del predicado N sea un conjunto con más de k elementos.
Ahora bien, este conjunto de proposiciones es consistente. La razón para ello es la siguiente:
Supongamos que fuera inconsistente. Entonces habría una derivación de una contradicción a partir
del conjunto Γ. Pero las derivaciones son secuencias finitas de fórmulas, de modo que en esa
derivación habría una cantidad finita de premisas tomadas del conjunto. De ese subconjunto finito
de premisas se derivaría la contradicción, o sea, si el conjunto es inconsistente, tiene un subconjunto
finito inconsistente. Y por el corolario 15.2.2, ese subconjunto finito de proposiciones de Γ debe
ser insatisfacible. Pero es muy fácil ver que todos los subconjuntos finitos de Γ son satisfacibles.
Dado cualquier subconjunto finito Γ0 de proposiciones de Γ, para encontrar un modelo de él, en el
caso de que Γ0 no tenga proposiciones etiquetadas con un número natural, tome cualquier conjunto
como dominio, y asigne como denotación del predicado N al conjunto vacío. Si Γ0 contiene
proposiciones etiquetadas con números naturales, considere la proposición de las etiquetadas con
números naturales en Γ0 que tenga la etiqueta mayor (siempre habrá una, porque se está tomando un
subconjunto finito de proposiciones), y tome como modelo cualquier conjunto con tantos elementos
como el número de la etiqueta mayor, asignando como denotación del predicado N todo el conjunto.
Sin importar si la proposición ω está o no en Γ0 , esa interpretación será modelo de Γ0
Observe lo que esto implica: como el conjunto Γ es insatisfacible, tiene como consecuencia
semántica a una contradicción. Pero como es consistente, no tiene como consecuencia sintáctica a
una contradicción. ¿Hemos demostrado que nuestro sistema para L PO es incompleto?
16.1
Compacidad
Dilatemos un poco la respuesta a esta última pregunta, y consideremos otro aspecto que surge
de este ejemplo tan extraño que acabamos de examinar. Está muy claro que la “mostración” de que
no hay coincidencia entre la relaciones de consecuencia semántica y consecuencia sintáctica se
apoyó en forma absoluta en el hecho de que el conjunto Γ es infinito y las derivaciones son objetos
finitos, que contienen una cantidad finita de fórmulas.
16.1 Compacidad
297
Lo que está sucediendo en este caso es que tenemos un conjunto con esta extraña propiedad:
es insatisfacible pero todos sus subconjuntos finitos son satisfacibles. Es claro que una lógica que
permita expresar todas las proposiciones del conjunto Γ considerado cumplirá que en ella existirán
conjuntos con esa propiedad. Hay una definición técnica relativa a la cuestión:
Definición 16.1.1 Una relación de consecuencia semántica es compacta si la satisfacibilidad de
todo conjunto de fórmulas es equivalente a la satisfacibilidad de cada uno de sus subconjuntos
finitos.
Es decir, si la relación de consecuencia semántica es compacta, nunca ocurre que se toma
un conjunto finito satisfacible, se le van agregando fórmulas de a una, obteniendo luego de cada
agregado un conjunto satisfacible, y el resultado de agregar infinitas fórmulas es insatisfacible.
Si obtenemos un conjunto infinito insatisfacible, alguno de sus subconjuntos finitos debe serlo
también.
Lo primero que haremos será demostrar que la consecuencia semántica para L P es compacta.
16.1.1
Compacidad de L P
La idea de la demostración es bastante simple. Lo que debemos mostrar es que cualquier
conjunto Γ de fórmulas de L P tal que todos sus subconjuntos finitos son satisfacibles, es satisfacible. Lo haremos suponiendo que tenemos un conjunto Γ con esa característica de que todos
sus subconjuntos finitos son satisfacibles, y mostrando que hay un conjunto ∆ que es satisfacible e
incluye a Γ. Como todos los subconjuntos de un conjunto satisfacible son satisfacibles, el teorema
quedaría demostrado al evidenciar el conjunto ∆.
Para hacerlo, necesitamos un lema, que nos asegurará que ciertos conjuntos son satisfacibles.
Esos conjuntos serán llamados conjuntos de Hintikka. El plan de la demostración será entonces
definir lo que es un conjunto de Hintikka, mostrar que todos los conjuntos de Hintikka son
satisfacibles, y finalmente mostrar que, dado un conjunto Γ tal que todos sus subconjuntos finitos
son satisfacibles, existe un conjunto ∆ de Hintikka que incluye a Γ.
Para que se comprenda la idea de la demostración cabalmente, necesitamos motivar la definición
que daremos, y eso será nuestro próximo cometido.
Fórmulas de tipo A y fórmulas de tipo B
Advertencia importante En todo lo que sigue, se hará caso omiso del bicondicional. Se
tratará una fórmula de la forma A ↔ B como (A → B) ∧ (B → A), lo que es semánticamente
adecuado ya que son fórmulas equivalentes, y desde el punto de vista sintáctico se puede obtener
la primera a partir de la segunda y recíprocamente.
Observe que todas las fórmulas de la lógica proposicional tienen alguna de las siguientes
formas:
–
–
A1
A2
A3
A4
B1
B2
B3
pn
¬pn
¬¬X
X ∧Y
¬(X ∨Y )
¬(X → Y )
¬(X ∧Y )
X ∨Y
X →Y
En la tabla se observa que, excluyendo las letras proposicionales y las letras proposicionales
negadas, toda fórmula de L P se ha clasificado como de una forma A o de una forma B. Tenemos
cuatro formas de tipo A que se subindizan con los numerales del 1 al 4. El punto de esta clasificación
es el siguiente: cualquier interpretación que haga verdadera una fórmula de tipo A, hará verdaderas
una o dos fórmulas según la tabla siguiente, en la que, bajo la fórmula de tipo A considerada, se
muestran las que deben ser verdaderas si la primera lo es:
Capítulo 16. Compacidad y completitud
298
Forma A1
Forma A2
Forma A3
Forma A4
¬¬X
X ∧Y
¬(X ∨Y )
¬(X → Y )
X
X
Y
¬X
¬Y
X
¬Y
Como es muy sencillo comprobar, todas las fórmulas que se encuentran bajo la barra están
implicadas por la que se encuentra arriba de ella, y la complejidad de las fórmulas bajo la barra es
menor que la de la fórmula original, medida según la cantidad de conectivos lógicos. Además la
condición es recíproca: si la o las fórmulas que se encuentran bajo la barra son verdaderas en una
interpretación, la fórmula que se encuentra sobre ella también lo será.
Con respecto a las fórmulas que hemos clasificado como de tipo B no podemos decir lo mismo.
El hecho de que una interpretación las haga verdaderas no implica que otras fórmulas más simples
que ellas lo serán. Pero sí implica que al menos una de entre dos fórmulas será verdadera bajo esa
interpretación. Esto se muestra en la tabla siguiente
Forma B1
Forma B2
Forma B3
¬(X ∧Y )
X ∨Y
X →Y
¬X | ¬Y
X |Y
¬X | Y
donde bajo la barra horizontal se muestran, separadas por una barra vertical, las dos fórmulas de
las cuales al menos una será verdadera en todo modelo de la fórmula original, y que son menos
complejas sintácticamente que esta. Nuevamente, la condición es recíproca: si al menos una de las
fórmulas separadas por la barra vertical son verdaderas bajo una interpretación, también lo será la
fórmula que se encuentra sobre la barra horizontal.
Resumiendo e introduciendo algunos términos útiles:
Toda fórmula F de L P que no es una letra proposicional o una letra proposicional negada es
o bien de tipo A o bien de tipo B, y en el primer caso se pueden encontrar dos fórmulas α1 y
α2 a , y en el segundo dos fórmulas o β1 y β2 tales que:
1. α1 y α2 (β1 y β2 ) son menos complejas que F (midiendo la complejidad por la cantidad
de conectivos lógicos).
2. F de tipo A, es verdadera bajo una interpretación si y solo si α1 y α2 lo son, y F de tipo B
es verdadera bajo una interpretación si y solo si al menos una de entre β1 y β2 lo es.
a En
el caso de que F = ¬¬X, consideramos α1 = α2 = X, por uniformidad.
Con esto estamos en condiciones de definir los conjuntos de Hintikka, que serán la pieza
fundamental de nuestra demostración de la compacidad de L P.
Conjuntos de Hintikka
Definición 16.1.2 [Conjunto de Hintikka]
Sea ∆ un conjunto de fórmulas de L P. ∆ es un conjunto de Hintikka si y solo si se cumple:
1. Para ninguna letra proposicional p, tanto p como ¬p son elementos de ∆.
2. Si F es de tipo A y es elemento de ∆, entonces tanto α1 como α2 son elementos de ∆.
3. Si F es de tipo B y es elemento de ∆, entonces al menos una de β1 y β2 son elementos de
∆.
16.1 Compacidad
299
Como advertimos, el centro de todo este desarrollo está dado por el siguiente
Lema 16.1.1 [Lema de Hintikka] Todo conjunto de Hintikka es satisfacible.
Demostración: Sea ∆ un conjunto de Hintikka y sea I una interpretación tal que I(p) =V si la
letra proposicional p es elemento de ∆, e I(p) =F si la fórmula ¬p es elemento de S, y asigna V
a todas las otras letras proposicionales, aquellas que no son elementos de ∆ ni su negación lo es.
Es claro que I hace verdaderas a todas las fórmulas de ∆ que no son de tipo A ni B. Supongamos
que F es una fórmula de grado de complejidad mayor que las letras proposicionales o las letras
proposicionales negadas, y que todas las fórmulas de grado menor de complejidad que F son
verdaderas bajo I. Entonces F es de tipo A o de tipo B. Si es de tipo A, como ∆ es de Hintikka, α1 y
α2 están en ∆, y al ser de complejidad menor que F son ambas verdaderas bajo I, por lo que F es
verdadera bajo I. Si es de tipo B, como ∆ es de Hintikka, al menos una de entre β1 y β2 está en ∆, y
al ser de complejidad menor que F es verdadera bajo I, por lo que F es verdadera bajo I. Por lo
tanto, I es modelo de ∆ y ∆ es satisfacible.
16.1.2
El teorema de compacidad
Finalmente estamos en condiciones de demostrar el
Teorema 16.1.2 — Compacidad para la lógica proposicional. Sea Γ un conjunto de fór-
mulas de L P tal que todo subconjunto finito de Γ es satisfacible. Entonces Γ es satisfacible.
Demostración: La idea de la demostración es la ya adelantada: dado un conjunto Γ en las
condiciones del teorema, se construirá un conjunto ∆ que lo incluya y sea de Hintikka.
Sabemos que las fórmulas de L P son o bien letras proposicionales, o bien letras proposicionales negadas o bien fórmulas de tipo A o bien de tipo B. Consideremos ahora un conjunto S
cualquiera de fórmulas. Las siguientes propiedades son muy fácilmente demostrables:
i Si S es satisfacible, ninguna letra proposicional y su negación son ambas elementos de S.
ii Si S, F 1 es satisfacible y F es de forma A, entonces S, α1 , α2 es satisfacible.
iii Si S, F es satisfacible y F es de forma B, entonces a menos uno de S, β1 y S, β2 es satisfacible.
Sea entonces Γ un conjunto que cumple que todos sus subconjuntos finitos son satisfacibles.
Queremos demostrar que Γ es satisfacible. Si Γ es finito, no hay nada que agregar, ya que el propio
Γ es uno de sus subconjuntos finitos. Si Γ es infinito, dispongamos sus fórmulas en una secuencia
infinita
F1 , F2 , F3 , ..., Fn , ...
Vamos a construir otra secuencia infinita
G1 , G2 , G3 , ..., Gn , ...
entre cuyos términos se cuenten todas las fórmulas de Γ, y tal que el conjunto de todos sus términos
sea demostrablemente de Hintikka. El procedimiento es el siguiente:
En el primer paso damos el primer término de la secuencia a construir. Es G1 = F1
Lo que agreguemos a la secuencia a construir en el paso n + 1 dependerá exclusivamente de
la fórmula Gn , así:
• Si Gn es de tipo A, agregamos a la secuencia las fórmulas α1 y α2 (obtenidas de Gn ) y
Fn+1 .
Por ii, y debido a que todos los subconjuntos finitos de Γ son satisfacibles, si el conjunto
de los términos de la secuencia era satisfacible antes del agregado, lo será el de los de
la secuencia obtenida después del agregado.
1 Recuerde
el lector que S, F significa S ∪ {F}.
Capítulo 16. Compacidad y completitud
300
• Si Gn es de tipo B, y la secuencia construida en el paso n-ésimo es G1 , ..., Gn , ...,Gn+i ,
siendo el conjunto de esas fórmulas satisfacible, es necesario que el conjunto de las
fórmulas G1 , ..., Gn , ...,Gn+i , β1 , Fn+1 sea satisfacible o que el de las fórmulas, G1 , ...,
Gn , ...,Gn+i , β2 , Fn+1 lo sea (por iii, con β1 y β2 obtenidas de Gn , y la satisfacibilidad
de todos los subconjuntos finitos de Γ).
Si se da el primer caso, agregamos a la secuencia β1 y Fn+1 , si no se da, agregamos a la
secuencia β2 y Fn+1 .
• Si Gn no es de tipo A ni B, agregamos a la secuencia Fn+1
Por la forma de construcción, es claro que:
Cada Fi es elemento del conjunto de términos de G1 , G2 , G3 , ..., Gn , ..., ya que fue introducida
en el i-ésimo paso.
Para toda fórmula de la secuencia, si es de tipo A, en la secuencia figuran tanto α1 como α2 ,
y si es de tipo B en la secuencia figura β1 o β2 .
Como para cada i el conjunto de las fórmulas G1 , ..., Gi es satisfacible, no puede haber entre
los términos de la secuencia de las Gn una letra proposicional y su negación.
Estos tres puntos demuestran que el conjunto de términos de la secuencia G1 , ..., Gn ,... es de
Hintikka, y por lo tanto, satisfacible. Γ es subconjunto de él, y por ende, también satisfacible. Eso
termina la demostración.
Podríamos preguntarnos ahora si L PO también es compacta, pero diferiremos las consideraciones sobre ese punto para seguir concentrados en L P.
El resultado que acabamos de demostrar indica que L P no tiene la potencia necesaria para
expresar los enunciados del ejemplo con que abrimos el capítulo, en el que se sugería un conjunto
insatisfacible con todos sus subconjuntos finitos satisfacibles. Por supuesto, cuando decimos que
no tiene la potencia necesaria para expresar esos enunciados, queremos decir que no puede capturar
los aspectos formales que hacen que el conjunto sea insatisfacible. No es algo que sorprenda en lo
más mínimo, ya que no sabríamos cómo encontrar una traducción a L P adecuada en ese sentido
siquiera de uno de los enunciados propuestos. Pero lo hecho comporta una demostración terminante
de la limitación expresiva de ese lenguaje.
El siguiente problema que nos debería llamar la atención es la completitud o incompletitud
de L P. Quizá dentro de sus limitaciones expresivas, el sistema deductivo que nos hemos dado
para ese lenguaje sea capaz de obtener como consecuencia sintáctica a partir de un conjunto todo
aquello que sea consecuencia semántica de él. Esto es así, y al establecimiento de ese importante
resultado dedicaremos lo sigue.
16.2
Completitud de L P
Nuestro objetivo en esta parte será demostrar que Γ |=L P A implica Γ `L P A. La idea será
demostrar que dada cualquier tautología, existe una derivación de ella a partir del conjunto vacío.
Si logramos demostrar esto, quedará asegurado que dado un conjunto Γ finito de fórmulas de L P
y una fórmula A, si Γ |= A existe una derivación de A a partir de Γ. Veámoslo:
Sea Γ = {A1 , ..., An } y A una fórmula. Entonces, según lo visto en la sección 6.6, {A1 , ..., An } |= A
si y solo si el condicional asociado (A1 ∧ ... ∧ An ) → A es una tautología. Suponiendo que hemos
demostrado que existe una derivación de toda tautología a partir del conjunto vacío, ese condicional
se puede introducir en cualquier línea de una derivación usando la regla derivada de introducción
de teoremas. Esto nos permite construir la siguiente derivación:
16.2 Completitud de L P
301
1
A1
2
..
.
A2
..
.
n
An
n+1
..
.
A1 ∧ A2
..
.
I∧ , 1, 2
2n − 1
A1 ∧ A2 ∧ ... ∧ An
I∧ , n, 2n − 2
2n
(A1 ∧ ... ∧ An ) → A
Teorema
2n + 1
A
E→ , 2n − 1, 2n
con lo que queda claro que todas las consecuencias semánticas de conjuntos finitos son consecuencias sintácticas de ellos.
En caso de que Γ sea infinito y A sea consecuencia semántica de él, también –suponiendo que
todas las tautologías son teoremas– podremos encontrar una derivación de A a partir de Γ. Esto se
muestra con el siguiente razonamiento:
Si Γ |= A, entonces el conjunto Γ, ¬A es insatisfacible. Por compacidad, tenemos que un
subconjunto finito de Γ, ¬A; al que llamaremos Γ0 , ¬A es insatisfacible. Entonces ese conjunto
finito tiene como consecuencia semántica una contradicción, y por lo que acabamos de ver, es
inconsistente. El teorema del absurdo asegura que Γ0 ` A, lo que a su vez implica Γ ` A por
monotonía.
Por lo tanto la completitud de L P quedará demostrada apenas demostremos que toda tautología es un teorema.
16.2.1
La idea de la demostración
La idea de la demostración de este teorema proviene de [Smu95a], donde el resultado se
demuestra para otro sistema deductivo, las tablas analíticas. Lo que se presentará aquí es una
adaptación de la idea a nuestro sistema.
Demostraremos que dada cualquier tautología τ, existe una derivación a partir del conjunto
vacío que tiene esta forma:
1
..
.
¬τ
..
.
n
B ∧ ¬B
n+1
¬¬τ
I¬ , 1–n
n+2
τ
E¬ , n + 1
Por supuesto, esto se reduce a demostrar la existencia de la derivación de las líneas 1 a n, o sea,
a demostrar que dada cualquier tautología τ, hay una derivación de una contradicción a partir del
conjunto {¬τ}.
Capítulo 16. Compacidad y completitud
302
En ese intento, lo que haremos será lo siguiente: mostraremos que si en una derivación aparece
una fórmula de tipo A, se pueden agregar a la derivación líneas que contienen α1 y α2 , y si aparece
una fórmula de tipo B que no sea una disyunción, se puede agregar a la derivación una línea con la
disyunción de β1 y β2 . Para cada una de estas disyunciones se pueden introducir dos líneas, cada
una de las cuales tiene un disyunto como supuesto. Si repetimos el procedimiento debemos terminar
en algún momento, porque estamos produciendo fórmulas de complejidad cada vez menor, hasta
obtener un conjunto de letras proposicionales y letras proposicionales negadas. Veremos luego qué
podemos inferir de ello.
Comencemos considerando las fórmulas F de tipo A. Tenemos cuatro casos:
1. Si en una línea de una derivación aparece F de tipo A1 , entonces F = ¬¬X. La regla E¬ nos
permite agregar X, que es tanto α1 como α2 .
2. Si en una línea de una derivación aparece F de tipo A2 , entonces F = X ∧Y . La regla E∧ nos
permite agregar X, que es α1 y también Y que es α2 .
3. Si en una línea de una derivación aparece F de tipo A3 , entonces F = ¬(X ∨Y ). El siguiente
esquema muestra que podemos agregar ¬X, que es α1 y también ¬Y que es α2 :
1
¬(X ∨Y )
2
(¬X ∧ ¬Y )
De Morgan, 1
3
¬X
E∧ , 2
4
¬Y
E∧ , 2
4. Si en una línea de una derivación aparece F de tipo A4 , entonces F = ¬(X → Y ). El siguiente
esquema muestra que podemos agregar X, que es α1 y también ¬Y que es α2 :
1
¬(X → Y )
2
¬X
3
X
4
X ∧ ¬X
I∧ , 2, 3
5
Y
ECQ, 4
6
X →Y
I→ , 3–5
7
(X → Y ) ∧ ¬(X → Y )
I∧ , 6, 1
8
¬¬X
I¬ , 2–7
9
X
E¬ , 8
10
Y
11
X
12
Y
Repetición, 10
16.2 Completitud de L P
303
13
X →Y
I→ , 11–12
14
(X → Y ) ∧ ¬(X → Y )
I∧ , 13, 1
¬Y
15
I¬ , 10–14
En este punto podemos aclarar un poco la idea de la demostración. Si en el lenguaje solo
existieran fórmulas de tipo A, la demostración sería muy sencilla:
En ese caso, podríamos esperar que partiendo de una fórmula cualquiera, pudiésemos ir
obteniendo fórmulas más simples que serán verdaderas si la original lo es y recíprocamente y
agregándolas en líneas de una derivación. Ese proceso de ir reduciendo la complejidad de las
fórmulas debería detenerse en letras proposicionales o en letras proposicionales negadas. Pero si
la fórmula original fuese una contradicción en sentido semántico, o sea, si ninguna interpretación
la hiciera verdadera, tampoco habría interpretación alguna que hiciera verdadero al conjunto de
todas las letras proposicionales o letras proposicionales negadas obtenidas al final del proceso.
Para que eso suceda, es necesario que en ese conjunto se encuentre un par formado por una
letra proposicional y su negación. Y si ese proceso de ir agregando a la derivación fórmulas
cada vez más simples nos lleva a agregar un par así, por introducción de la conjunción podemos
obtener la contradicción deseada. Por supuesto, esto comportaría la derivación de la negación
de la contradicción en sentido semántico de la que partimos. Si esto fuera todo, tendríamos un
mecanismo sencillo para derivar cualquier tautología: partimos de su negación como supuesto,
seguimos el proceso indicado, llegamos a obtener una letra proposicional y su negación, aplicamos
introducción de la conjunción para obtener una contradicción en sentido sintáctico, seguida de
introducción de la negación, lo que nos da la tautología doblemente negada, y luego aplicamos
eliminación de la negación. Podemos verlo en un ejemplo:
Si quisiéramos demostrar la tautología ((p ∧ q) → p), partiríamos de
¬((p ∧ q) → p))
(16.1)
que es de forma A4 , por que que sabemos que hay una derivación comenzada en ella en la que
sucesivamente aparecen las fórmulas p ∧ q y ¬p:
1
..
.
¬((p ∧ q) → p))
..
.
i
..
.
p∧q
..
.
j
..
.
¬p
..
.
Como p ∧ q es de forma A2 sabemos que podemos agregar a la derivación las fórmulas p y q:
Capítulo 16. Compacidad y completitud
304
1
..
.
¬((p ∧ q) → p))
..
.
i
..
.
p∧q
..
.
j
..
.
¬p
..
.
k
..
.
p
..
.
l
..
.
q
..
.
Con lo que hemos llegado a un conjunto de letras y letras proposicionales negadas cuyos modelos
coinciden con los de la fórmula de partida. Pero ese conjunto es, en este caso, {p, ¬p, q}, el que es
insatisfacible. En un conjunto de letras y letras proposicionales negadas insatisfacible siempre tiene
que haber una letra y su negación, de modo que por regla I∧ podemos construir una contradicción
en sentido sintáctico y a partir de allí derivar la tautología que nos interesaba:
1
..
.
¬((p ∧ q) → p))
..
.
i
..
.
p∧q
..
.
j
..
.
¬p
..
.
k
..
.
p
..
.
l
q
l +1
p ∧ ¬p
I∧ , k, j
l +2
¬¬((p ∧ q) → p))
I¬ , 1–l + 1
l +3
(p ∧ q) → p
E¬ , l + 2
Si las cosas fuesen simples, la demostración de que todas las tautologías se pueden derivar
consistiría en demostrar que toda fórmula puede, en una derivación, generar un conjunto de letras
proposicionales o letras proposicionales negadas que será satisfacible si y solo si la fórmula lo es
del modo que acabamos de ejemplificar. Esto sería sencillo si las únicas formas de fórmulas fuesen
16.2 Completitud de L P
305
las que hemos nombrado con una A subindizada. Pero las cosas no son tan simples porque existen
las fórmulas de las formas que hemos nombrado con una B subindizada. De manera que tenemos
que atender lo que implica su aparición en una derivación.
Para las fórmulas de tipo B, el resultado que necesitamos es que si aparecen en un línea de una
derivación, entonces siempre se puede agregar a la derivación una línea que sea la disyunción de β1
y β2 , en el caso de que la fórmula no sea ya de tipo B2 , o sea, una disyunción.
Solo tenemos que demostrarlo para las fórmulas de tipo B1 y B3 :
1. Si en una línea de una derivación aparece F de tipo B1 , entonces F = ¬(X ∧ Y ). La regla
derivada De Morgan nos permite agregar ¬X ∨ ¬Y , que es la disyunción de β1 y β2 .
2. Si en una línea de una derivación aparece F de tipo B3 , entonces F = X → Y . El siguiente
esquema muestra que podemos agregar ¬X ∨Y , que es la disyunción de β1 y β2 :
1
X →Y
2
¬(¬X ∨Y )
3
X ∨ ¬X
LTE
4
X
5
Y
E→ , 4, 1
6
¬X ∨Y
I∨ , 5
7
(¬X ∨Y ) ∧ ¬(¬X ∨Y )
I∧ , 6, 2
8
¬X
9
¬X ∨Y
I∨ , 8
10
(¬X ∨Y ) ∧ ¬(¬X ∨Y )
I∧ , 9, 2
11
(¬X ∨Y ) ∧ ¬(¬X ∨Y )
E∨ , 3, 4–7, 8–10
12
¬¬(¬X ∨Y )
I¬ , 2–11
13
¬X ∨Y
E¬ , 12
La regla de eliminación de la disyunción nos exige hacer dos supuestos más simples que la
disyunción misma, a saber, los disyuntos de la disyunción dada. Si se llega a una consecuencia
común C a partir de esos supuestos, se elimina la disyunción, pudiéndose agregar C a la derivación.
Por supuesto, desde el punto de vista semántico, la disyunción será verdadera si y solo si al menos
uno de sus disyuntos lo es. Si logramos mostrar que, en una derivación sin premisas que tenga
como supuesto inicial la negación de una tautología cualquiera, si cada vez que encontramos una
fórmula de tipo A agregamos a la derivación las fórmulas que su tipo nos permite (lo que podemos
considerar reglas derivadas), y cada vez que encontramos una fórmula de tipo B, si no es de tipo B2
agregamos a la derivación la disyunción correspondiente (lo que también se puede considerar una
regla derivada), y cada vez que encontramos una disyunción abrimos un supuesto con su disyunto
izquierdo, y continuamos así hasta tener solamente letras proposicionales, y luego abrimos un
supuesto con su supuesto derecho, y continuamos así hasta solamente tener letras proposicionales
(haciendo las iteraciones que sean necesarias), llegaremos a que en cada subderivación bajo cada
supuesto se encuentra una letra proposicional y esa misma letra negada, habremos demostrado lo
que queremos.
Capítulo 16. Compacidad y completitud
306
–
–
A1
A2
A3
A4
B1
B2
B3
pn
¬pn
¬¬X
X ∧Y
¬(X ∨Y )
¬(X → Y )
¬(X ∧Y )
X ∨Y
X →Y
–
–
X
X
¬X
X
¬X ∨ ¬Y
¬X ∨Y
Y
¬Y
¬Y
[X]
..
.
[Y ]a
..
.
a Este
supuesto se agrega luego de terminar todas las subderivaciones dependientes del primero.
Antes de pasar a la demostración, mostremos un ejemplo, para aclarar la idea. Recapitulemos
qué agregamos a la derivación al encontrar cada fórmula.
Tomemos la tautología (p → (q → r)) → (((p → q) → (p → r)), y mostremos que hay una
derivación iniciada en el supuesto ¬(p → (q → r)) → (((p → q) → (p → r)), en la que aplicando el
procedimiento descrito, se llega a tener una letra proposicional y su negación en cada subderivación
abierta por supuestos (o en la propia derivación caso de no haber supuestos). A partir de esas letras
se pueden introducir contradicciones que cierran los supuestos abiertos en las disyunciones, de
modo que el supuesto inicial cierra en contradicción, y la regla I¬ seguida de E¬ termina dando la
tautología. La idea de la demostración es probar que esto sucede con toda tautología.
1
¬((p → (q → r)) → (((p → q) → (p → r)))
2
(p → (q → r))
A4 , 1
3
¬((p → q) → (p → r))
A4 , 1
Extrajimos lo que se puede agregar de la línea 1, y esta línea no volverá a ser usada hasta casi el
final, para introducir la negación del supuesto que contiene. La línea 2 tiene una fórmula de tipo B,
que debe ser convertida a una disyunción, y la línea 3 una de tipo A, que arroja otras dos líneas:
1
¬((p → (q → r)) → (((p → q) → (p → r)))
2
(p → (q → r))
A4 , 1
3
¬((p → q) → (p → r))
A4 , 1
4
(¬p ∨ (q → r))
B3 , 2
5
p→q
A4 , 3
6
¬(p → r)
A4 , 3
La primera fórmula que no hemos usado es la de la línea 4, una disyunción. Abrimos como
supuesto su disyunto izquierdo y continuamos el procedimiento hasta llegar a una letra proposicional
y esa misma letra negada, con lo que construimos una contradicción usando I¬ . Luego volvemos a
usar esa disyunción agregando el otro supuesto e iterando:
16.2 Completitud de L P
307
1
¬((p → (q → r)) → (((p → q) → (p → r)))
2
(p → (q → r))
A4 , 1
3
¬((p → q) → (p → r))
A4 , 1
4
(¬p ∨ (q → r))
B3 , 2
5
p→q
A4 , 3
6
¬(p → r)
A4 , 3
7
¬p
8
¬p ∨ q
B3 , 5
9
p
A4 , 3
Y hemos obtenido lo que buscábamos: una línea con una letra proposicional y otra con la misma
letra negada. Construimos la contradicción, cerramos el supuesto y abrimos otro con el disyunto
restante de 4:
1
¬((p → (q → r)) → (((p → q) → (p → r)))
2
(p → (q → r))
A4 , 1
3
¬((p → q) → (p → r))
A4 , 1
4
(¬p ∨ (q → r))
B3 , 2
5
p→q
A4 , 3
6
¬(p → r)
A4 , 3
7
¬p
8
¬p ∨ q
B3 , 5
9
p
A4 , 3
10
p ∧ ¬p
I∧ , 7, 9
11
q→r
Al volver a la fórmula de la línea 4 para tomar su otro disyunto como supuesto debemos
considerar nuevamente las fórmulas que le siguen , excepto las que quedaron en la subderivación
iniciada con el supuesto del primer disyunto y finalizada con la contradicción:
Capítulo 16. Compacidad y completitud
308
1
¬((p → (q → r)) → (((p → q) → (p → r)))
2
(p → (q → r))
A4 , 1
3
¬((p → q) → (p → r))
A4 , 1
4
(¬p ∨ (q → r))
B3 , 2
5
p→q
A4 , 3
6
¬(p → r)
A4 , 3
7
¬p
8
¬p ∨ q
B3 , 5
9
p
A4 , 6
10
p ∧ ¬p
I∧ , 7, 9
11
q→r
12
¬p ∨ q
B3 , 5
13
p
A4 , 6
14
¬r
A4 , 6
15
¬q ∨ r
B3 , 11
En este punto se llega a la línea 12, que tiene una disyunción, se debe tomar primero uno de
sus disyuntos, continuar hasta hallar contradicción, y luego el otro disyunto y seguir hasta una
contradicción. Luego de hacer todas las iteraciones necesarias se podrá cerrar el supuesto de la
línea 11.
1
¬((p → (q → r)) → (((p → q) → (p → r)))
2
(p → (q → r))
A4 , 1
3
¬((p → q) → (p → r))
A4 , 1
4
(¬p ∨ (q → r))
B3 , 2
5
p→q
A4 , 3
6
¬(p → r)
A4 , 3
7
¬p
8
¬p ∨ q
B3 , 5
9
p
A4 , 6
10
p ∧ ¬p
I∧ , 7, 9
16.2 Completitud de L P
309
11
q→r
12
¬p ∨ q
B3 , 5
13
p
A4 , 6
14
¬r
A4 , 6
15
¬q ∨ r
B3 , 11
16
¬p
17
p ∧ ¬p
18
q
19
¬q
20
q ∧ ¬q
I∧ , 13, 16
I∧ , 18, 19
El supuesto q de la línea 18 es el segundo disyunto de la fórmula de la línea 12. Nos permite
llegar a la contradicción q ∧ ¬q, pero como la regla de eliminación de la disyunción, que es la
que usaremos para cerrar todos estos supuestos, requiere que se llegue a la misma fórmula en las
subderivaciones en que se aplica, aplicamos ECQ para obtener la misma contradicción que ya
hemos obtenido anteriormente, de forma de poder luego cerrar los supuestos, y lo mismo hacemos
con la subderivación que se abre bajo el supuesto del segundo disyunto de la línea 15:
1
¬((p → (q → r)) → (((p → q) → (p → r)))
2
(p → (q → r))
A4 , 1
3
¬((p → q) → (p → r))
A4 , 1
4
(¬p ∨ (q → r))
B3 , 2
5
p→q
A4 , 3
6
¬(p → r)
A4 , 3
7
¬p
8
¬p ∨ q
B3 , 5
9
p
A4 , 6
10
p ∧ ¬p
I∧ , 7, 9
11
q→r
12
¬p ∨ q
B3 , 5
13
p
A4 , 6
14
¬r
A4 , 6
Capítulo 16. Compacidad y completitud
310
15
¬q ∨ r
B3 , 11
16
¬p
17
p ∧ ¬p
18
q
I∧ , 13, 16
19
¬q
20
q ∧ ¬q
I∧ , 18, 19
21
p ∧ ¬p
ECQ, 20
22
r
23
r ∧ ¬r
I∧ , 22, 14
24
p ∧ ¬p
ECQ, 23
p ∧ ¬p
25
26
27
p ∧ ¬p
p ∧ ¬p
E∨ , 15, 18–21, 22–24
E∨ , 12, 16–17, 18–25
E∨ , 4, 7–10, 11–26
28
¬¬((p → (q → r)) → (((p → q) → (p → r)))
I¬ , 1–28
29
(p → (q → r)) → (((p → q) → (p → r))
E¬ , 29
El lector observará dos cosas: la primera, que esto no es una derivación, sino la indicación de
la existencia de una derivación con determinadas características. La segunda, que la derivación
indicada, de formato rígido, es mucho más larga que lo necesario para demostrar esa tautología
(el lector puede probar suponiendo el antecedente de la tautología en cuestión y verá que no se
necesita algo tan largo).
Debe haber quedado claro que de lo listado a continuación, probaremos 3 usando 1 y 2:
1. Toda fórmula F que no es una letra proposicional o una letra proposicional negada es o bien
de tipo A o bien de tipo B, y en el primer caso se pueden encontrar dos fórmulas α1 y α2 , y
en el segundo dos fórmulas o β1 y β2 tales que:
a) α1 y α2 (β1 y β2 ) son menos complejas que F (la complejidad medida por la cantidad
de conectivos lógicos).
b) Si F es de tipo A, es verdadera bajo una interpretación si y solo si α1 y α2 lo son, y si
F de tipo es verdadera bajo una interpretación si y solo si al menos una de entre β1 y
β2 lo es.
2. Nuestras reglas de inferencia nos permiten, en cualquier derivación, agregar una línea con
α1 y otra con α2 luego de cualquier fórmula de tipo A, y una línea con la disyunción β1 ∨ β2
luego de cualquier fórmula de tipo B.
3. Dada una tautología τ cualquiera, existe una derivación que comienza con el supuesto ¬τ, y
llega a una contradicción solo dependiente de ese supuesto.
16.2.2
El teorema de completitud para L P
Teorema 16.2.1 — Completitud del sistema de deducción natural para la L P. Toda
tautología es un teorema.
16.2 Completitud de L P
311
Demostración: Ya sabemos que si partimos de una fórmula, y construimos una secuencia agre-
gando α1 y α2 por cada fórmula de tipo A que encontramos en la secuencia, y una de entre β1
y β2 por cada fórmula de tipo B que encontramos en la secuencia, “usando” todas las fórmulas
exactamente una vez para obtener α1 y α2 o una de entre β1 y β2 , es inevitable que la secuencia sea
finita. Esto es así porque en cada paso se agregan como máximo dos fórmulas de complejidad menor
que la fórmula que permite su introducción. En algún punto de la secuencia ya se habrán usado
todas las fórmulas de tipo A o B y la secuencia tendrá un último término. Como se verá y el lector
ya debería sospechar, los conjuntos de Hintikka tienen un papel fundamental en la demostración:
Sea una tautología cualquiera τ. Una derivación construida siguiendo estas normas carece de
premisas y tiene a τ en su última línea:
1. La primera línea contiene el supuesto ¬τ.
2. En cada paso, siempre que sea posible, se agregarán dos líneas, una con α1 y otra con α2
por cada fórmula de tipo A que haya en las líneas que fueron introducidas en el paso anterior
como aplicación de estas normas y una línea con la disyunción β1 ∨ β2 por cada fórmula de
tipo B que haya sido introducida en el paso anterior como aplicación de estas normas2 .
3. Cuando ya todas las fórmulas de tipo A que se van generando hayan a su vez generado líneas
con α1 y α2 y solo queden disyunciones o letras proposicionales o letras proposicionales
negadas sin generar nuevas líneas, se agregará como supuesto el primer disyunto de la primera
disyunción que aparezca en la secuencia y no haya generado una línea. Se iterará la norma 2
y luego la 3.
4. Cuando la iteración no sea posible porque en cada línea hemos ido reduciendo la complejidad
de las fórmulas que le daban origen, estaremos trabajando bajo los supuestos que son primeros
disyuntos de cada una de las disyunciones que encontramos o construimos. Ahora bien, el
conjunto de las líneas que incluimos por las normas es un conjunto que cumple que si una
fórmula de tipo A le pertenece, también le pertenecen α1 y α2 , y si una fórmula de tipo B
le pertenece, también le pertenece al menos una de entre β1 y β2 . Entonces, por el lema de
Hintikka, si el conjunto de líneas que hemos agregado no tiene una letra proposicional y
su negación, es satisfacible. ¡Pero el conjunto no puede ser satisfacible porque ¬τ es uno
de sus elementos! De modo que entre las líneas que agregamos hay una que contiene una
letra proposicional y otra que contiene a su negación. Usando la regla I∧ introducimos la
conjunción de las fórmulas de esas dos líneas, generando una contradicción.
5. Dejamos de trabajar sobre el último supuesto y abrimos otro, que sea el segundo disyunto de
la última disyunción usada, siempre en el mismo nivel en que estaba el primero.
6. Iteramos las normas 2, 3, 4 y 5 en la última subderivación abierta. De este modo, todos
los disyuntos de cada disyunción aparecerán como supuestos, ya que el proceso debe tener
fin porque siempre es se obtienen fórmulas de complejidad decreciente excepto cuando se
introducen las contradicciones, pero ahí termina localmente la subderivación, y bajo cada uno
de esos supuestos se derivará una contradicción, por el mismo argumento recién expuesto.
Se necesita que sea la misma en todas las subderivaciones, de modo que si es necesario, se
aplicará ECQ para obtener siempre la misma contradicción bajo todo supuesto. Mediante
la aplicación repetida de E∨ se obtendrán las contradicciones libres de los supuestos β1 y
β2 iterativamente, hasta que solo dependa esa contradicción del supuesto ¬τ. Entonces, la
aplicación de I¬ en la subderivación de 1 hasta la última línea que tenemos da ¬¬τ y la
aplicación de E¬ a esta fórmula termina la derivación de τ.
Los teoremas de corrección y completitud nos permiten afirmar que L P tiene un excelente
comportamiento:
2 Es decir, no se consideran las líneas necesarias para, apegándose a las reglas del sistema de deducción natural,
introducir las fórmulas pedidas sin usar reglas derivadas.
312
Capítulo 16. Compacidad y completitud
Γ |=L P A si y solo si Γ `L P A
Esto nos asegura, entre otras cosas, que el sistema de deducción natural para L P se comporta
bien en un sentido que nos preocupaba: es siempre posible, a partir de una contradicción en sentido
semántico, derivar una en sentido sintáctico. Otra consecuencia de la completitud es que para
demostrar que un conjunto no tiene como consecuencia sintáctica a una fórmula, basta encontrar
un modelo del conjunto que sea contramodelo de la fórmula.
Corrección y completitud comportan el colapso de nociones semánticas y sintácticas. Nociones
que habían sido definidas de formas muy diferentes, como tautologías y teoremas, conjuntos
satisfacibles y conjuntos consistentes, se revelan extensionalmente iguales.
16.3
En L PO
No demostraremos los resultados correspondientes a L PO porque si bien las ideas subyacentes son similares, la técnica matemática para ponerlas en uso es bastante más sofisticada. La razón
básica para ello es que, por ejemplo, de un universal ∀xPx se pueden inferir infinitas fórmulas de
tipo Pck , y al intentar construir un conjunto de Hintikka donde aparece un universal, (sería una
fórmula de tipo A) no podemos asegurar que el proceso de ir extrayendo fórmulas menos complejas
que la dada termine en una cantidad finita de pasos, por lo que es obligado considerar conjuntos
infinitos de fórmulas.
Sin embargo, aunque no los demostremos, los consignaremos. Por un lado, L PO es compacta,
y por otro, uno de los resultados cumbre de la lógica del siglo XX es el
Teorema 16.3.1 — Completitud de L PO, (Gödel, 1930). Para todo conjunto de sentencias
Γ y toda sentencia A, si Γ |=L PO A entonces Γ `L PO A
lo que permite afirmar
Corolario 16.3.2 τ es un teorema si y solo si es un fórmula válida
Corolario 16.3.3 Un conjunto de sentencias Γ es consistente si y solo si es satisfacible.
Pero hay algo extraño. ¿No mostramos al inicio del capítulo un conjunto consistente e insatisfacible, cuando vimos aquella lista de enunciados que referían a objetos naturales, en la cual el
j-ésimo enunciado expresaba que hay al menos j objetos naturales, y otro enunciado expresaba
que la cantidad de objetos naturales es finita?
La respuesta es que mostramos un conjunto de enunciados en español que sugieren esas características. Pero no mostramos un conjunto de sentencias de L PO que fuera a la vez consistente e
insatisfacible. Una consecuencia del teorema de Gödel es que no hay una traducción adecuada del
enunciado ω a L PO. ¿Qué sería una traducción adecuada? Naturalmente, sería una sentencia de
L PO que fuera verdadera bajo una interpretación M si y solo si M asignara como denotación
del predicado N un conjunto finito. O sea, estamos viendo un límite expresivo de L PO. No
podemos expresar todo con ese lenguaje. No es sorprendente, pero es bueno conocer qué cosas no
podemos expresar con él.
Por otra parte, en lógica de segundo orden sí se puede expresar la sentencia ω. Es claro entonces
que se deduce sin más que la lógica de segundo orden no es completa.
Epílogo: Lógica, ¿para qué?
UEGO de haber hecho este extenso recorrido, seguramente queden muchas preguntas pertinentes en la mente de cualquier estudiante de filosofía. Para despedirnos, tocaremos más
o menos brevemente cuatro cuestiones que naturalmente una persona que esté estudiando
filosofía y se enfrente a un curso de las características de este se haría. Ellas son acerca de cómo
puede profundizar en el estudio de la lógica alguien con intereses filosóficos, la relación entre la
lógica y la filosofía, la relación entre la lógica y la argumentación, y el valor formativo de la lógica.
L
¿Qué más se puede estudiar de lógica?
Al terminar este curso, el estudiante tiene los elementos necesarios para introducirse en las
diferentes ramas de la lógica. En caso de querer especializarse o simplemente profundizar en
determinados temas desde ciertas tradiciones, deberá estudiar aspectos de la lógica que no hemos
considerado. Con toda seguridad, esos estudios se harán en marcos más matematizados que el
que hemos intentado darle a este curso, pensado de modo que no tuviera como requisito una
formación matemática previa. Sin embargo, lo realizado es una buena preparación para esos modos
de exposición más compactos.
Por fuera de lo que hemos estudiado se extiende un vastísimo campo que incluye diversas ramas
de la disciplina. Mencionaremos como las más prominentes la teoría de modelos, que estudia las
estructuras que son modelos de diversas clases de sentencias en lenguajes formales; la teoría de
la prueba, que tiene como objeto de estudio las derivaciones, la teoría de la computabilidad, que
estudia las clases de problemas que se pueden resolver a través de un algoritmo o programa.
Un segundo curso de lógica para estudiantes de filosofía quizá debería atender a la tercera y la
primera de esas ramas, tratando temas clásicos de la teoría de la computabilidad como máquinas
de Turing, funciones recursivas y la no decidibilidad de la lógica de primer orden; de la teoría de
modelos, como completitud, compacidad y Teorema de Löwenheim-Skolem, e integrar todo eso a
través del estudio de los Teoremas de incompletitud de Gödel. Un excelente texto que cubre esos
tópicos y más es [BBJ07].
Varios de estos temas son de conocimiento imprescindible si se desea abordar desde cierta
óptica otras ramas de la filosofía, como por ejemplo, filosofía de la matemática, filosofía de la
314
Capítulo 16. Epílogo: Lógica, ¿para qué?
computación o filosofía de la mente. Inclusive es frecuente ver que estos resultados lógicos que
estamos mencionando aparezcan como elementos a tener en cuenta en filosofía de la física o
filosofía del lenguaje.
Estamos pensando en usos adecuados de estos resultados lógicos, introducidos en el debate
filosófico. Lamentablemente, es también muy común ver usos inadecuados de esos resultados,
inadecuación que se deja ver muchísimas veces por el simple parafraseo que autores irresponsables
hacen de ellos, que evidencia desconocimiento inclusive de los enunciados de los teoremas lógicos
que se citan como apoyo a asertos de otras disciplinas. En particular, los teoremas de incompletitud
de Gödel han sido objeto de un manoseo increíble, pero no han sido los únicos resultados víctimas
de pensadores que en ocasiones intentan hacer filosofía atando moscas por el rabo. El lector
interesado en estas cuestiones puede leer [Fra05] y [SB99].
Por eso, un valor añadido del estudio de la lógica más allá de este curso será la adquisición de la
capacidad de distinguir, entre la enorme oferta intelectual existente, los discursos serios que utilizan
elementos de lógica de los discursos que también lo hacen pero no resisten el menor análisis. Y
si no se hace un curso con esas características ni se estudian esos temas por cuenta propia, lo
mejor quizá sea el escepticismo acerca de la pertinencia de traer a cuento cuestiones lógicas que se
desconocen.
Lo dicho hasta ahora solo tiene en cuenta el marco de la lógica clásica. Para el tratamiento de
algunos problemas dentro de ciertas tradiciones, son fundamentales las lógicas no clásicas. En el
curso hemos mencionado la lógica intuicionista. Es impensable un estudio serio de la filosofía de la
matemática sin un conocimiento por lo menos somero de ella. Pero hay otras lógicas que interesan
a diversos filósofos: las lógicas modales son importantes en ciertos enfoques de la metafísica,
las lógicas epistémicas en ciertos enfoques de la teoría del conocimiento, e incluso las lógicas
deónticas en ciertos enfoques de la filosofía de la moral y del derecho. Por supuesto, no podemos
hacer referencias detalladas a cada una de estas lógicas y mucho menos a las tantas que existen y
no podemos mencionar aquí. Lo que sí podemos afirmar es que los conocimientos que este curso
pretendió aportar constituyen una base adecuada para dirigirse a cualquiera de estas ramificaciones.
El talante del estudiante marcará la conveniencia de que continúe con sus estudios de lógica. Si,
por ejemplo, quiere convertirse en un erudito en Nietzsche, me será difícil encontrar alguna razón
para impulsarlo dedicar horas de esfuerzo a la teoría de las máquinas de Turing. Pero si quiere
dedicarse al funcionalismo dentro de la filosofía de la mente, me resultará imposible no advertirle
que es absurdo pretender hacerlo sin estudiar al menos las bases de teoría de la computabilidad.
Lógica y filosofía
Más allá de las preferencias y de cómo están organizadas las carreras de grado de Filosofía,
¿qué relación hay entre la lógica y la filosofía?
Existe la fuerte tentación de responder esta pregunta en términos históricos. La lógica nació del
genio del mayor filósofo que ha existido, y fue cultivada durante miles de años por filósofos. Se la
consideraba una parte integral de la filosofía.
Esa respuesta, sin embargo, no nos aclara qué le aporta la lógica a la filosofía y además
desconoce la realidad actual. Hoy, la lógica como ciencia es una de las ramas de la matemática.
Esto tiene que ver con lo sucedido en el devenir histórico que hemos delineado. La lógica, luego de
su formalización, amplió su objeto de estudio –quizá haya quien defienda la idea de que lo cambió–
para abarcar los lenguajes formales, no solo las inferencias o argumentos. Y por esta vía llegó la
matematización de la lógica y su incorporación a la matemática como una de sus ramas.
Sin embargo, es la lógica y no otra ciencia la que nos puede servir en el control de la calidad de
las inferencias desde el punto de vista que hemos llamado “lógico” informalmente en los primeros
capítulos. El objeto original, la inferencia, nunca ha dejado de caer bajo el foco de la lógica. La
315
matematización solo ha significado que los instrumentos que se consideran más adecuados para ese
estudio son los matemáticos.
¿Y qué tiene que ver la inferencia, la argumentación, con la filosofía? Esta sí que parece una
pregunta tonta. Pero no lo es. Hay presiones contradictorias en esta cuestión. Por un lado, según
un relato muy extendido, los hombres no siempre hicieron filosofía, y que en algún momento sí
comenzaron a hacerla3 .
Más allá de la cuestión de si corresponde asignar ese punto augural a algunos jonios del siglo
VI a.C., una forma de verlo es que se comienzan a producir discursos que se distinguen de los
precedentes en que propenden a la obtención de creencias racionalmente justificadas y revisables.
Esto se suele llamar “paso del mythos al logos”, y por supuesto que es tremendamente controversial,
ya que parece implicar que la humanidad prefilosófica no buscaba tener creencias racionalmente
justificadas y corregibles. Pero el punto no es ese, sino que esta visión ha sido la dominante en la
historia de la filosofía durante muchísimo tiempo, y algo a favor debe tener, porque no consideramos
filósofos a ni a Hesíodo, ni a los autores del Popul Vuh o del Génesis, y sí a Tales o Anaximandro,
aunque sus objetos de discurso son similares.
De hecho, la situación es análoga hoy. Supongamos que pregunto a un fanático religioso cómo
debo conducir mi vida, y me responde que debo cumplir ciertos mandamientos divinos. Cuando
inquiero por sus razones para afirmar eso, me remite a un cierto libro que considera sagrado, donde
entre dudosas narraciones encuentro promesas de premios y castigos, pero ni un solo argumento.
No diríamos que su respuesta es filosófica. Pero si le hago la misma pregunta a un aristotélico, y me
responde que debo buscar la eudaimonía, y al ser cuestionado acerca de sus razones para afirmar
eso me da los argumentos de Aristóteles en Ética a Nicómaco, aceptaríamos que su respuesta es
filosófica.
Es decir, no es el tema lo que hace filosófico al asunto. Aparentemente, la forma en cómo se
trata el asunto es fundamental. También es cierto que no todo tema es filosófico. Nadie diría que
la cuestión de por qué el Palacio Salvo se mantiene firme cuando hay viento es filosófica, sino
física o de ingeniería, aunque se propongan excelentes razones para explicar su estabilidad. Pero
aparentemente, el modo de considerar el problema es parte fundamental en que lo consideremos
filosófico.
Y la pregunta que surge inmediatamente es ¿de qué otra cosa, aparte de la argumentación,
disponemos tanto para evidenciar la racionalidad de un discurso como para evaluarlo en ese
sentido? La respuesta parece ser que de ninguna otra, aparte de la contrastación empírica. Y esto
está relacionado con lo recién considerado, acerca de que hay temas que no son filosóficos. Si algo
se puede decidir por experimentación, no parece ser objeto de la filosofía sino de alguna de las
ciencias.
Entonces aparentemente hemos hallado una indisoluble ligazón entre lógica y filosofía, porque
la filosofía debe proveer razones para al menos algunos de sus asertos y la lógica es la ciencia
adecuada para evaluar la adecuación de esas razones ofrecidas.
Sin embargo, el problema es vidrioso. Por un lado, si somos lo suficientemente amplios como
para aceptar que filosofía es lo que en la academia se considera filosofía, nos encontraremos con
que hay algunas filosofías que no parecen depender de la argumentación. Por citar un ejemplo muy
conocido, hay producción filosófica en forma de aforismos. Los aforismos no suelen ser argumentos
ni estar apoyados en ellos. “Lo que no me mata me hace más fuerte”. Busque el lector en el contexto
de esta famosísima cita un argumento, y no lo encontrará. Es claro que el propio formato elegido no
es el más idóneo para el desarrollo argumental, aunque en ocasiones es posible extraer argumentos
de aforismos. Por otro lado, si va a buscar argumentos a favor de algo que parece tan trivial como
3 Este
punto de vista no recoge unanimidades, hay quien sostiene que la visión de la filosofía como una actividad
intelectual que surge en el mundo griego hace 2600 años es errónea, que los niños hacen filosofía –y de la buena–, que
hay filosofía de las tribus que no dominan la escritura, y que en definitiva, todo el mundo hace o tiene una filosofía.
316
Capítulo 16. Epílogo: Lógica, ¿para qué?
“Pienso, luego existo” en el contexto en el que apareció esta no menos famosa frase, los encontrará
en abundancia. No estoy diciendo que Descartes es un filósofo y Nietzsche no. Ambos son filósofos
muy respetados como tales. Pero es claro que la filosofía nietzscheana, al menos como se expone
en varias de sus obras, tiene una relación muy débil con la argumentación, si es que tiene alguna4 , y
que logra expresiones muy potentes pero desde el punto de vista emocional o poético, sin que la
fuerza de los argumentos tenga nada que ver con ello. Asunto diferente es que la exégesis posterior
busque argumentos a favor de las tesis ofrecidas por el autor, argumentos que este no dio, con
toda certeza porque no consideraba que fuese valioso darlos, ya que su concepción de la actividad
filosófica no la emparentaba con el uso de la razón argumentativa.
El caso de Nietszche no es único. Hay filósofos como Hegel que han sido acusados –por otros
filósofos– no ya de no argumentar, sino de expresarse en modos ininteligibles, de manera que si los
acusadores están en lo correcto, no tenemos esperanza de saber si quisieron argumentar o no5 .
Por lo tanto, parece que no es necesario que el filósofo esté preocupado por la argumentación, y
por ende, menos aun por la calidad argumental. Pero lo que sí es necesario es que el estudiante de
filosofía lo esté. El estudiante conocerá diversas tradiciones y autores, y es inevitable que buena
parte de lo que llegue a conocer en el transcurso de sus estudios sean textos argumentativos. Esto
es así porque la mayor parte de los filósofos sí han argumentado. Y parece natural que así sea.
En general, se argumenta cuando lo que se sostiene está bajo el manto de la duda. No solemos
argumentar a favor de lo que nadie duda. Las opiniones típicas de los filósofos a través de la
historia frecuentemente se apartan de lo que llamaríamos “opiniones normales” en un grado tal
que, arrancadas de un contexto argumentativo, serían tomadas como síntomas de locura. Y si esto
parece exagerado, piensen que esas opiniones incluyen asertos tales como que nada cambia, que
todo cambia, que el mundo exterior no existe, que todo lo existente es pensado por alguna mente,
que no tenemos motivos para creer en los resultados de una inducción, que no hay progreso en el
conocimiento, que el mundo real no es el físico sino otro que recordamos de vivencias prenatales...
cosas que quizá sean verdaderas, pero que mejor no decirlas con convicción a un psiquiatra, y
menos sin argumentar.
El estudiante, frente a esos textos argumentativos, naturalmente se preguntará por la calidad de
esos argumentos. Y seguramente intuirá que hay algunos increíblemente buenos y otros increíblemente malos. Encontrará que un mismo filósofo puede producir unos y otros, y que esa idea de la
calidad argumentativa no estará relacionada con la plausibilidad a priori de la tesis defendida6 . Y
esto nos lleva a la siguiente cuestión.
Lógica y argumentación
Parece entonces que la lógica es algo imprescindible para el estudiante de filosofía. Quizá lo
que el estudiante deba hacer, frente a cualquier argumento, sea sacar la lapicera, formalizarlo y
evaluar si la conclusión es consecuencia semántica o sintáctica de las premisas.
Este uso de la lógica es el que hemos mostrado en el curso, e inclusive lo hemos esquematizado
gráficamente en el inicio del capítulo 5. Lo llamaremos, siguiendo a Seoane en [Seo14], estrategia
traducción – cálculo.
4 No
en toda la obra de Nietzsche se da este alejamiento de la argumentación. Por ejemplo, en Genealogía de la
moral los argumentos son claramente discernibles. Sin embargo, el punto es que sus aforismos, o una obra como Así
habló Zaratustra, de altísimo valor poético y nulo valor argumentativo, se consideran obras de valor filosófico.
5 El lector puede divertirse mucho leyendo las opiniones de Schopenhauer sobre Hegel recogidas en El arte de
insultar.
6 Por ejemplo, la filosofía de Berkeley se encuentra bastante reñida con el sentido común, pero al leerlo al menos
por primera vez, uno tiene la sensación de que los argumentos que expone a favor de una visión del mundo tan extraña
son aplastantes. Otro tanto sucede con Hume, sus conclusiones escépticas son bastante heterodoxas fuera del mundillo
filosófico, pero sus argumentos suelen ser brillantes.
317
Creemos indudable que la estrategia traducción – cálculo permite, en algunas ocasiones, obtener
un conocimiento acerca del argumento bajo análisis que se presenta en forma perspicua a través de
la formalización y podría permanecer oculto si ella no se efectuase. Hemos intentado mostrar un
ejemplo de ello en 11.6.3, al analizar la versión cartesiana del argumento ontológico. Pero esto no
siempre es así, por varios motivos.
Supongamos que nos enfrentamos a un texto argumentativo y lo traducimos a un lenguaje
formal. Evaluamos la existencia de la relación de consecuencia semántica o sintáctica y nuestro
dictamen es que no existe esa relación. ¿Podemos estar seguros de que el argumento es inválido?
Una ligera reflexión nos muestra que no. Es posible que nuestra traducción no haya sido
adecuada. Un ejemplo sencillo es el intento de traducir un silogismo a la lógica proposicional. En
un caso así, advertimos que no estamos aplicando la estrategia traducción – cálculo adecuadamente,
y que una traducción adecuada sería a la silogística o a la lógica de primer orden. Pero, ¿bajo
cuáles condiciones podemos estar seguros de que nuestra traducción es adecuada? Eso depende
de la identificación en el argumento, expresado en lenguaje natural, de las constantes lógicas que
permiten su funcionamiento. Y, sin entrar a explorar las razones que se puedan esgrimir a favor o
en contra de que esta identificación sea siempre realizable, es claro que esa identificación, previa a
la formalización y necesaria para ella, es algo sobre lo que la lógica no tiene nada que decir, o
sea, es algo extralógico. Si entendemos que el aporte de la lógica a la evaluación argumental se
reduce a la aplicación de la estrategia traducción – cálculo, solo puede comenzar después de la
formalización del argumento.
Por otro lado, aunque muchos argumentos son los suficientemente simples como para que
advirtamos su corrección lógica sin necesidad de formalizarlos, muchos son tan complejos que
su formalización es por lo menos tan dudosa como el argumento mismo, aun cuando hayamos
identificado las constantes lógicas que están en juego en ellos. Varios factores coadyuvan para ello.
Podemos listar los siguientes:
Dado un argumento expresado en lenguaje natural, muchas veces no sabemos si está presentado como un argumento deductivo o inductivo. En muchos casos, el autor no está pretendiendo
dar razones concluyentes a favor de su tesis, sino simplemente dar razones para considerarla
plausible o muy probable.
Aun cuando el autor pretenda dar un argumento concluyente, frecuentemente no explicitará
todas las premisas. Normalmente, aquellas premisas que el autor considera son compartidas
por aquellos a quienes está dirigido su argumento, serán omitidas. Por ejemplo, sería raro
que un autor que publique un artículo en Nova et Vetera (una revista tomista) explicite en
sus argumentos premisas que aseguran la aceptación de una metafísica de tipo aristotélico,
premisas que son compartidas por todo el pensamiento tomista y tales que si no las consideramos, los argumentos serán tenidos por inválidos. En muchos casos, la explicitación absoluta
de todas las premisas de un argumento deductivo puede hacer que su expresión sea muy
larga, y esa explicitación es muy poco informativa. Por eso cuando se presentan argumentos
con la pretensión de que sean válidos, es normal que aparezcan como entimemas, es decir,
con premisas no explícitas. Por supuesto, cualquier reconstrucción adecuada del argumento
las debe considerar y allí se abre otro frente crucial en el que la lógica no tiene nada que
decir. No hay nada en la lógica que nos permita decidir cuál premisa se debe considerar en la
reconstrucción de un argumento, e incluso si debe agregarse alguna.
Los textos argumentativos pueden ser bastante enrevesados. Suponiendo que todo se encuentra en el texto, o sea, que está autocontenido –algo no muy frecuente– la identificación
de las premisas y de la conclusión no es un asunto mecánico. Debido a ello, uno puede
encontrar diversas reconstrucciones de un mismo argumento. Y este asunto puede ocupar
libros enteros. Por ejemplo, el libro [Cab99] discute largamente cómo debe entenderse uno
de los dispositivos filosóficos de mayor impacto y difusión en la modernidad, los argumentos
318
Capítulo 16. Epílogo: Lógica, ¿para qué?
trascendentales, fundamentales en los sistemas de cuño kantiano.
Aun cuando estemos seguros de que un argumento se ha presentado como deductivo y de
que hemos logrado una traducción adecuada, puede suceder que no sepamos con qué lógica
debemos evaluarlo. Como hemos visto, la evaluación argumental que hace un clásico no
está de acuerdo con la que hace un intuicionista en un campo tan poco proclive a producir
desacuerdos como la matemática, en el que se tiene especial cuidado en la explicitación de
las premisas o al menos en la explicitación de la forma de reconstruirlas, y no hay duda de
que solo se consideran dignos de atención los argumentos deductivos.
A veces, la aplicación de la estrategia traducción cálculo da resultados formidables. Buen ejemplo
de ello es lo que se logra en [Sob09], que la utiliza profusamente y se ha convertido en una obra
de referencia para los interesados en la evaluación de los argumentos acerca de la existencia de
Dios. Otras veces, da resultados por lo menos opacos. En opinión del autor, un ejemplo de ello
es [Bar00], donde se leen cosas como la siguiente, precediendo una pseudoformalización de un
argumento de Zenón:
Creo que es indispensable el tremendo carácter técnico de lo que sigue: sin un
argumento es digno de ser enunciado, es digno de ser enunciado de modo preciso, y
no he logrado encontrar un camino menos [sic] atractivo hacia la precisión que el que
sigo en este caso.
Y “el tremendo carácter técnico de lo que sigue” resulta, pocas líneas después, en
La apariencia de todo esto es formidable, pero solo expresa, bajo sus ropajes formales,
la verdad vulgar de que cualquier objeto está formado por las partes de sus partes.
En definitiva, no se ve que se extraigan frutos particularmente valiosos de la formalización, de
la que también es objeto, en ese libro, el poema de Parménides. Por supuesto que se podría argüir
que esto se debe a impericia de Barnes, pero no creo que sea el caso. Las reconstrucciones parecen
correctas, y se trata de un autor muy agudo. Mi opinión es que trabaja en terreno poco fértil para la
estrategia traducción cálculo.
Las limitaciones de esta estrategia para un tratamiento universal y uniforme de los argumentos
han llevado a algunos teóricos a la consideración de que la lógica, en realidad, es una herramienta
muy deficiente para la evaluación argumental7 . Sin embargo, como bien señala Seoane en la obra
citada, esto es un error, cuya génesis se encuentra en la idea de que el único aporte posible de la
lógica a la evaluación de los argumentos que normalmente se encuentran en lenguaje natural es la
aplicación de la estrategia referida.
Una consideración detenida de los modos posibles de utilización de la lógica que trascienden la
mera formalización y evaluación de la existencia de las relaciones de consecuencia semántica o
sintáctica nos llevaría demasiado lejos. Aquí resumiremos algunas de las sugerencias de Seoane
en el último capítulo de [Seo14], con el fin de mostrar algunas posibilidades que se abren a quien
intenta evaluar un argumento desde el conocimiento de la teoría lógica, sin ceñirse a la forma
tradicional de usarla.
Seoane advierte que si alguien se aproxima a un argumento con el interés exclusivo de saber
si el conjunto de premisas y la conclusión se encuentran en relación de consecuencia semántica,
solamente se centrará en el par formado por un conjunto de premisas y la una proposición. Y
aunque así hemos definido a los argumentos, la actividad argumentativa presenta una riqueza tal
que no se agota en esa especie de producto final. Supongamos que mi conjunto de premisas es
{Todos los hombres son mortales, Sócrates es hombre}
7 Esta consideración –errada, en mi opinión– ha estado en la base de muchos desarrollos de la moderna teoría de la
argumentación (que no debe confundirse con la lógica, por supuesto).
319
y mi conclusión es
Sócrates es mortal.
La consecuencia semántica está asegurada, y desde este estrecho enfoque no hay nada más que
decir. Pero supongamos que el argumento haya sido extraído del siguiente texto:
Aceptamos que todos los hombres son mortales y Sócrates es hombre. De esas dos premisas
se sigue que Platón quiere asesinar a Sócrates. Por lo tanto, concluimos que Sócrates es
mortal.
Este es un texto argumental que alguien exclusivamente interesado en la evaluación de la
consecuencia semántica dará por bueno, ya que esa relación se da entre el conjunto de las premisas
y la conclusión. Pero no es necesario ser lógico para darse cuenta de que se trata de un adefesio.
¿Qué puede decirnos la lógica acerca de esto?
Si enriquecemos un poco el modelo de evaluación argumental, no atendiendo solamente a la
existencia de la relación de consecuencia semántica entre el conjunto de las premisas y la conclusión,
podemos pensar en un considerar los pasos inferenciales que llevan del primero a la segunda. En
este caso, podemos considerar la relación de consecuencia sintáctica, y aun sin salir del esquema
traducción – cálculo, evaluar si el argumento permite traducir una derivación. Examinemos con
detalle qué pasaría en este caso.
Tomamos el siguiente diccionario:
Nombre o predicado
Constante de individuo o letra de relación
... es hombre
... es mortal
... quiere asesinar a ...
Sócrates
Platón
H
M
A
s
p
El argumento sugiere una secuencia inferencial que representamos en diagrama de Fitch:
1
∀x(Hx → Mx)
2
Hs
3
Aps
¿?, 1, 2
4
Ms
¿?
Por más que haya consecuencia semántica y sintáctica de premisas a conclusión, esto no es
una derivación. Y no se trata simplemente de que se haya utilizado una regla derivada. Observe
el lector que el teorema de corrección nos indica que no hay forma de pasar de 1 y 2 a 3. Puede
parecer algo trivial por lo sencillo del ejemplo, pero no lo es. Hay un conocimiento metateórico,
que excede la mera aplicación de la estrategia de traducción–cálculo, que nos está indicando que
algo funciona mal en este argumento. Me gustaría remarcar que la consideración estrecha de la
estrategia traducción–cálculo confina el trabajo lógico al interior de los sistemas lógicos. Lo que se
está mostrando es que la lógica puede ofrecer mucho más que eso si se amplía el punto de vista.
Hay más. Podemos mostrar que el paso 3 es ocioso, aunque es posible que quien lo haya enunciado
lo considere fundamental. Podemos mostrar, (dado que afirmó que de las premisas surgía que Platón
quiere asesinar a Sócrates), que o bien está razonando en forma incorrecta o bien está suponiendo
Capítulo 16. Epílogo: Lógica, ¿para qué?
320
una premisa implícita que sería bien representada como (∀x(Hx → Mx) ∨ Hs) → Aps. Podemos
también tratar de reconstruir la relación que encuentra entre Aps y Ms. Es decir, aunque estemos
de acuerdo con que las premisas implican la conclusión, se nos abren múltiples vías de análisis
del argumento que no se agotan en la mera consideración de si existe la relación de consecuencia
sintáctica.
Seoane propone otros modelos de análisis argumental que hacen un uso muy general de la
lógica, sin agotarse en la estrategia de traducción–cálculo. Particularmente interesante es uno que
además de poner en juego las premisas, la conclusión y los pasos inferenciales, considera los modos
de justificación.
Supongamos que un matemático dice:
Sea n un natural primo menor o igual que 10. Entonces, por LTE, n es menor o igual
a 7 o n no es menor o igual a 7. Si n no es menor o igual a 7, entonces n es 8, o es 9, o
es 10. En ninguno de esos casos es primo. Entonces n es menor o igual a 7.
Este es un caso interesante en que un intuicionista estaría de acuerdo en que la conclusión se sigue
de la premisa y en que todos los pasos son correctos, pero no estaría de acuerdo en la justificación
que se da a un paso. Para el intuicionista no es LTE lo que justifica que n es menor o igual a 7 o n
no es menor o igual a 7. Lo que justifica esa proposición, desde su punto de vista, no es LTE, ¡sino
la propia premisa del argumento, que expresa que n es menor o igual que 10!
Parece muy evidente que no hay esperanza de llegar a ser sensible a estas cuestiones, sea para
mediar, para tomar partido por ellas o simplemente para reconocer las profundidades en las que
puede resolverse una cuestión argumentativa, sin involucrarse con la lógica. Por eso es correcto
afirmar que la lógica tiene mucho para aportar al análisis argumental, y que hay más cosas en el
cielo y en la tierra que las que sueñan quienes creen que la utilidad de la lógica es exactamente la
utilidad la estrategia de traducción – cálculo.
Por tanto, si es verdad que la filosofía es una actividad en la que el argumento tiene un papel
central, al menos en muchas de sus tradiciones, y el estudio de la lógica propende a generar una
sensibilidad especial para la evaluación argumentativa, y a proporcionar un variado almacén de
herramientas para ello, el estudio de la lógica es valioso para el estudiante de filosofía. Y no es
necesario formalizar el argumento que se ha ofrecido para darse cuenta de que es correcto.
Lógica y ética
Me gustaría terminar este curso compartiendo con sus lectores algunas reflexiones provocadas
por la lectura de un artículo de John Corcoran, titulado The Inseparability of Logic and Ethics
[Cor89]. El artículo parte de presupuestos fundamentalmente realistas, recordando la primera frase
de Aristóteles en la Metafísica;
Todos los hombres desean por naturaleza saber
Muchas veces he creído que este es uno de los mayores disparates de Aristóteles, mucho peor
que su idea de que el cerebro sirve para enfriar la sangre. De hecho, lamentablemente, cuando
observamos el mundo que nos rodea, parece que esa fuera la función del cerebro en mucha gente.
Pero son pensamientos de días malos. Al observar un niño, vemos que Aristóteles tiene razón y
probablemente algo esté matando nuestro deseo de saber, el que sí es natural.
Aceptado que deseamos saber, Corcoran infiere correctamente que deseamos objetividad,
entendiendo esta virtud como el poner de acuerdo nuestras creencias con los hechos, sin importar
si esto nos agrada o nos disgusta, si nos atemoriza o nos calma, e inclusive si refuta o reafirma
creencias previas. Según él, dada la universalidad del deseo de saber, este deseo de virtud es una
característica que une a la raza humana.
321
Lo que hace especialmente interesante el planteo es que Corcoran –un lógico muy respetado,
de modo que sabe de qué habla cuando dice lo que sigue– considera que hay un nexo indisoluble
entre lógica y objetividad. Concretamente, expresa que el objetivo de la lógica es es cultivo de la
objetividad.
Es un punto de vista interesante, de larga tradición. El objetivo del cultivo de la lógica no es
ganar discusiones en Facebook ni en ningún otro lugar. Es proporcionar medios para adecuar las
creencias a los hechos, aunque eso nos haga perder una discusión. Es, aunque Corcoran no lo dice
explícitamente, un objetivo muy diferente y a veces opuesto al de la retórica. Y esto es claro cuando
expone los motivos que cree hicieron surgir a la lógica: nuestra falibilidad y nuestro deseo de
conocer la verdad; la brecha entre creencia y conocimiento, entre sentimiento de certeza y posesión
de verdad, entre persuasión y demostración.
De aquí Corcoran extrae la consecuencia de que la lógica ocupa un lugar importantísimo en las
cuestiones de lo que se ha llamado filosofía práctica, ya que parece innegable que la objetividad es
necesaria para el ejercicio de las demás virtudes, como vemos al pensar en si será posible la justicia
sin objetividad.
El compromiso con la objetividad comporta el estar dispuesto a que las creencias propias sean
objetivamente examinadas.
Por supuesto, entre estudiantes de filosofía debería ser algo de Perogrullo que ante cada nueva
idea, cada nuevo sistema que desafía lo preconcebido, lo normal sería sentir que uno se juega
todo por el todo. Pero lamentablemente, no es así. He conocido estudiantes que se declaran ateos,
por ejemplo, y han sido expuestos a argumentos teístas que no saben refutar o poner en cuestión
siquiera, y siguen tan campantes con su ateísmo sin sentir una molestia que los lleve a buscar
una refutación del argumento o a revisar sus creencias previas. Por no hablar de las convicciones
acendradas en religiosos, o en cuestiones políticas.
La actitud honesta y racional no es cambiar las creencias al primer golpe que reciben, ni
tampoco buscar como un endemoniado la refutación de lo que contradice lo que creemos. La actitud
honesta y racional es comprometerse con tener las mejores creencias que podamos, afinando su
proceso de selección. Nuestras mejores creencias no son las que nos dejan más cómodos o nos
hacen sentir más seguros o más importantes. Son aquellas que mejor se adecuan a los hechos.
Ahora bien, la lógica es un excelente campo de preparación para ello. Someter nuestras creencias a
examen recuerda muy profundamente procedimientos seguidos en lógica, como considerar muy
cuidadosamente inferencias realizadas, o introducir supuestos en una inferencia, estando dispuestos
a rechazar el supuesto, por más querido o favorable que nos sea, si nos lleva a consecuencias
inaceptables.
Cierto es que en el marco de una situación dialógica y confrontativa, estas cuestiones son
acuciantes, y solemos ver que la gente se aparta de estos principios muy fácilmente. Pero lo mismo
ocurre con las cuestiones que normalmente se consideran morales. De hecho, quizá esto también sea
un problema ético. Al menos hay similitudes pasmosas con ciertos esquemas éticos bien conocidos.
Consideremos un aspecto de esa similitud. Corcoran sugiere una norma para evaluar si algo es
una prueba. Una prueba es un argumento que debe convencernos de su conclusión, haciendo que
cambiemos nuestras opiniones previas en caso de que contradijeran esta.
La norma es la siguiente: si me ofrecen algo como prueba, debo preguntarme si yo estaría
dispuesto a dar como concluyente un argumento así, caso que sostuviera su conclusión. En caso
afirmativo, debo aceptar lo propuesto como probado. Recíprocamente, debo ofrecer argumentos
que yo mismo consideraría aceptables si probasen aquello que actualmente no creo.
La llama “la regla de oro de la prueba”, y por supuesto que recuerda a esas reglas metálicas
(de oro o plata) que se ven en sistemas éticos y prescriben actuar con los demás del modo en que
nos gustaría que actuaran con nosotros, o al menos abstenerse de actuar con los demás en modos
que no quisiéramos que lo hicieran con nosotros. Su formulación más general es:
322
Capítulo 16. Epílogo: Lógica, ¿para qué?
Argumenta con los demás del mismo modo en que quisieras que los demás argumentaran contigo
La cuestión que me parece fascinante es, y pienso esto luego de haber perdido la ingenuidad
al ver las dificultades de fundamentación de la ética en principios como los reseñados: ¿No sería
maravilloso que de un principio tan entrañable como ese se pudieran extraer las leyes de la lógica?
Bibliografía
Bibliografía
[Ald43]
Henry Aldrich. The Art of Logic. Oxford: J. Vincent, 1843.
[Ari82]
Aristóteles. Tratados de Lógica (Órganon) I. Madrid: Gredos, 1982.
[Ari95]
Aristóteles. Tratados de Lógica (Órganon) II. Madrid: Gredos, 1995.
[Bac03]
Francis Bacon. The New Organon. Cambridge University Press, 2003.
[Bar00]
Jonathan Barnes. Los presocráticos. Madrid: Cátedra, 2000.
[Ben65]
Paul Benacerraf. “What Numbers Could not Be”. En: Philosophical Review ,74: 47-73
(1965).
[Ben73]
Paul Benacerraf. “Mathematical Truth”. En: The Journal of Philosophy , Vol. 70, No.
19: 661-679 (1973).
[Ben03]
Jonathan Bennet. A Philosophical Guide to Conditionals. Oxford: Clarendon Press,
2003.
[Boo98]
G. Boolos. Logic, Logic and Logic. Cambridge y London: Harvard University Press,
1998.
[BBJ07]
G. Boolos, J. Burgess y R. Jeffrey. Computability and Logic. Fifth Edition. New York:
Cambridge University Press, 2007.
[Bor74]
Jorge Luis Borges. Obras completas 1923-1972. Buenos Aires: Emecé Editores, 1974.
[Cab99]
Isabel Cabrera (Compilador). Argumentos trascendentales. México: Universidad Nacional Autónoma de México, 1999.
[Car]
Lewis Carroll. El juego de la lógica. URL: http://www.librosmaravillosos.
com / eljuegodelalogica / pdf / El % 20juego % 20de % 20la % 20logica % 20 %20Lewis%20Carroll.pdf.
[Cer80]
Miguel de Cervantes Saavedra. El ingenioso hidalgo Don Quijote de la Mancha. Editado por por Don Joaquin Ibarra ... En Madrid : por Don Joaquin Ibarra ..., 1780. URL:
http : / / bibliotecavirtualmadrid . org / bvmadrid _ publicacion / i18n /
consulta/registro.cmd?id=774.
326
BIBLIOGRAFÍA
[Cor89]
John Corcoran. “The Inseparability of Logic and Ethics”. En: Free Inquiry 9 2:37-40
(1989).
[Des13]
René Descartes. Meditaciones Metafísicas. University Press, 2013.
[Dum99]
Michael Dummet. The Logical Basis of Metaphysics. Cambridge, Massachusetts:
Cambridge University Press, 1999.
[Dum00]
Michael Dummet. Elements of Intuitionism. Oxford: Oxford University Press, 2000.
[Eco99]
Umberto Eco. La búsqueda de la lengua perfecta en la cultura europea. Barcelona:
Crítica, 1999.
[Fer79]
Clemente Fernández (Compilador). Los filósofos medievales II. Madrid: Biblioteca de
Autores Cristianos, Editorial La Católica, 1979.
[Fou02]
Michel Foucault. Las palabras y las cosas. Una arqueología de las ciencias humanas.
Buenos Aires: Siglo XXI Editores Argentina S.A., 2002.
[Fra05]
Torkel Franzén. Gödel’s Theorem. An Incomplete Guide to Its Use and Abuse. Wellesley: A K Peters, Ltd, 2005.
[Fre72]
Gottlob Frege. Conceptografía - Los fundamentos de la aritmética - Otros estudios
filosóficos. Instituto de investigaciones filosóficas: Universidad Nacional Autónoma de
México, 1972.
[Fre98]
Gottlob Frege. Ensayos de semántica y filosofía de la lógica. Madrid: Editorial Tecnos
S.A., 1998.
[Gen10]
Harry Gensler. Introduction to Logic. New York y London: Routledge, 2010.
[Gen69]
Gerhard Gentzen. The Collected Works of Gerhard Gentzen. Edited by M. E. Szabo.
Amsterdam - London: North-Holland Publishing Company, 1969.
[Göd90]
Kurt Gödel. Collected Works. II: Publications 1938–1974. S. Feferman, J. Dawson, S.
Kleene, G. Moore, R. Solovay, and J. van Heijenoort (eds.) Oxford: Oxford University
Press, 1990.
[Gra90]
A. C. Grayling. An introduction to philosophical logic. Oxford: Alden Press, 1990.
[Har12]
G. H. Hardy. A Mathematician’s Apology. Cambridge University Press, 2012.
[Hun73]
Geffrey Hunter. Metalogic. An Introduction to the Metatheory of Standard First Order
Logic. Berkeley y Los Angeles: University of California Press, 1973.
[Kan28]
Emanuel Kant. Crítica de la razón pura. Madrid: Librería General de Victoriano
Suárez, 1928.
[Lac18]
Lactantius. On the Anger of God. 318. URL: http : / / www . newadvent . org /
fathers/0703.htm.
[Lei83]
G. W. Leibniz. Nuevos ensayos sobre el entendimiento humano. Madrid: Editora
Nacional, 1983.
[Mat61]
Benson Mates. Stoic Logic. Berkeley y Los Angeles: University of California Press,
1961.
[Mei04]
Alexius Meinong. The Theory of Objects. 1904. URL: http://www.hist-analytic.
com/Meinongobjects.pdf.
[Mül61]
Max Müller. Lectures on the Science of Language. London: Longman, Green, Longman
y Roberts, 1861.
[Pla87]
Platón. Diálogos II. España: Gredos, 1987.
BIBLIOGRAFÍA
327
[Rud90]
Walter Rudin. Principios de análisis matemático. Madrid: MacGraw-Hill, 1990.
[Rus05]
Bertrand Russell. “Sobre el denotar”. En: Semántica filosófica: problemas y discusiones.
T. M. Simpson (Comp.) (1905).
[Rus19]
Bertrand Russell. Introduction to Mathematical Philosophy. London: George Allen &
Unwin, Ltd., 1919.
[Rus09]
Bertrand Russell. Our Knowledge of the External World. Taylor & Francis Routledge,
2009.
[Sai90]
Mark Sainsbury. Logical Forms. An introduction to philosophical logic. Cambridge:
Basil Blackwell Ltd, 1990.
[Seo14]
José Seoane. Lógica y Argumento. Montevideo: Ediciones Universitarias, 2014.
[Smu95a]
Raymond Smullyan. First-Order Logic. New York: Dover Publications, Inc., 1995.
[Smu95b]
Raymond Smullyan. Juegos por siempre misteriosos. Barcelona: Gedisa, 1995.
[Smu09]
Raymond Smullyan. Logical labyrinths. Canada: A K Peters, Ltd, 2009.
[Sob09]
Jordan Howard Sobel. Logic and Theism. Arguments For and Against Beliefs in God.
Cambridge University Press, 2009.
[SB99]
Alan Sokal y Jean Bricmont. Imposturas intelectuales. Barcelona Buenos Aires México:
Paidós, 1999.
Índice alfabético
A
ambigüedad
estructural . . . . . . . . . . . . . . . . . . . . . . 41, 65
léxica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
aparato deductivo . . . . . . . . . . . . . . . . . . . . . . 163
argumento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
deductivo . . . . . . . . . . . . . . . . . . . . . . . . . . 22
inductivo . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
sólido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
válido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Aristóteles . . . . . . . . . . . 23, 39, 40, 42, 46, 168
asignación proposicional . . . . . . . . . . . . . . . . . 79
consecuencia semántica
en L P . . . . . . . . . . . . . . . . . . . . . . . . . . 110
consecuencia sintáctica . . . . . . . . . . . . . . . . . 143
contingencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
contradicción . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
contrafácticos . . . . . . . . . . . . . . . . . . . . . . . . . . 101
contramodelo . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
D
B
Dalgarno, George . . . . . . . . . . . . . . . . . . . . . . . 43
De Morgan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
derivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
Descartes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
diagrama de Fitch . . . . . . . . . . . . . . . . . . . . . . 141
Bacon, Francis . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Benacerraf, Paul . . . . . . . . . . . . . . . . . . . . . . . 168
F
C
caballeros y escuderos (acertijos) . . . . . . 23, 83
condición necesaria . . . . . . . . . . . . . . . . . . . . 102
condición suficiente . . . . . . . . . . . . . . . . . . . . 102
condicional asociado . . . . . . . . . . . . . . . . . . . 113
conjunto
adecuado de conectivos . . . . . . . . . . . . . . 89
insatisfacible . . . . . . . . . . . . . . . . . . . . . . . 83
satisfacible . . . . . . . . . . . . . . . . . . . . . . . . . 83
fórmula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
fórmulas equivalentes . . . . . . . . . . . . . . . . . . . 85
Fitch, Fredric Brenton . . . . . . . . . . . . . . . . . . 141
Frege, Gottlob . . . . . . . . . . . . . . . . . . 46, 54, 168
Freudenthal, Hans . . . . . . . . . . . . . . . . . . . . . . . 45
G
Gödel, Kurt . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
Gentzen, Gerhard . . . . . . . . . . . . . . . . . . . . . . 140
330
ÍNDICE ALFABÉTICO
H
P
Hofstadter, Douglas R. . . . . . . . . . . . . . . . . . 166
Hume, David . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Post, Emil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
I
R
implicación . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
inferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 16, 19
interpretación
de L P . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
interpretación BHK . . . . . . . . . . . . . . . . . . . . 170
reglas de inferencia . . . . . . . . . . . . . . . . . . . . 163
J
Jaśkowski, Stanislaw . . . . . . . . . . . . . . . . . . . 140
K
Kant, Emanuel . . . . . . . . . . . . . . . . . . . . . . . . . 167
L
lógica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
aristotélica . . . . . . . . . . . . . . . . . . . . . . . . . 40
intuicionista . . . . . . . . . . . . . . . . . . . . . . . 167
proposicional
árbol de formación, 69
alfabeto, 62
fórmula, 63
secuencia de formación, 63
subfórmula, 69
Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43, 44
lenguaje formal . . . . . . . . . . . . . . . . . . . . . . . . . 46
alfabeto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
semántica . . . . . . . . . . . . . . . . . . . . . . . . . . 46
sintaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
lenguas
artificiales . . . . . . . . . . . . . . . . . . . . . . 42, 45
filosóficas . . . . . . . . . . . . . . . . . . . . . . . . . . 43
internacionales . . . . . . . . . . . . . . . . . . . . . 44
naturales . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
letras proposicionales . . . . . . . . . . . . . . . . . . . . 60
M
metalenguaje . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
N
nurikabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
S
Selinger, Peter . . . . . . . . . . . . . . . . . . . . . . . . . 160
sistema formal . . . . . . . . . . . . . . . . . . . . . . . . . 163
Smullyan, Raymond . . . . . . . . . . . . . . . . . . . . . 23
suposición
formal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
material . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
T
tabla de verdad . . . . . . . . . . . . . . . . . . . . . . . . . . 77
tautología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
teorema
el “absurdo” . . . . . . . . . . . . . . . . . . . . . . . 116
teorema (fórmula) . . . . . . . . . . . . . . . . . . . . . . 145
teorema de
monotonía . . . . . . . . . . . . . . . . . . . . . . . . 111
Teorema de lectura única
proposicional . . . . . . . . . . . . . . . . . . . . . . 66
U
uso–mención . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
V
valuación de L P . . . . . . . . . . . . . . . . . . . . . . 74
W
Wilkins, John . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Wittgenstein, Ludwig . . . . . . . . . . . . . . . . . . . . 79
Descargar