Está en la página 1de 465

ESCUELA NACIONAL DE ANTROPOLOGIA E HISTORIA

INAH-SEP

El análisis teórico en ciencias sociales:


Aplicación a una teoría del origen del Estado
en Mesoamérica

Tesis que para obtener el grado de


Doctor en Antropología

Presenta
Manuel Gándara Vázquez

Director:
Dr. Luis Felipe Bate Petersen

México, D.F. 2008


© 2008 Manuel Gándara Vázquez
Escuela Nacional de Antropología e Historia. INAH/SEP
Periférico Sur y Zapote s/n
Col. Isidro Fabela
México, D.F. 14020
MEXICO

gandarav@yahoo.com
Índice
Índice......................................................................................................................................3
Dedicatoria.............................................................................................................................6
Sinopsis...................................................................................................................................8
A manera de prefacio...........................................................................................................10
Agradecimientos.........................................................................................................................12
¿Para qué hacer un viaje al pasado?..................................................................................18
Una “re-saña” discordante........................................................................................................19
De ahí “p’al real”.......................................................................................................................22
Intentos de solución....................................................................................................................22
Objetivos.....................................................................................................................................23
Hipótesis principal e hipótesis subordinadas...........................................................................24
Instrumentación.........................................................................................................................25
El papel de la filosofía de la ciencia en la arqueología.............................................................25
El problema del naturalismo en filosofía de la ciencia.............................................................................26
La filosofía de la ciencia no solamente como una disciplina analítica, sino como una ética de la
actividad científica....................................................................................................................................29
La filosofía de la ciencia y la arqueología: historia de una catástrofe anunciada (e
innecesaria).................................................................................................................................31
Primera Parte.......................................................................................................................42
Antecedentes y herramientas de análisis............................................................................42
La distinción entre teoría y datos..............................................................................................................45
Las escalas de la teoría..............................................................................................................................47
Las teorías que rigen la observación.........................................................................................................50
Los múltiples significados del término “teoría” en la arqueología........................................52
1. Teoría en el sentido holístico –la teoría como totalidad. .....................................................................53
2. Teoría en sentido partitivo, o “teoría sustantiva”..................................................................................53
3. Teoría de la observación o de lo observable.........................................................................................54
4. Teoría como “arqueología temática”, o reflexión sobre un “recorte” de la realidad social. ................54
¿Refutar teorías sustantivas refuta posiciones teóricas?...........................................................................56
¿Teorías de rango medio convencionales o teorías de la observación refutables?...................................58
De nuevo: ¿y todo esto a mi qué…?.........................................................................................................64
En resumen….............................................................................................................................65
La descripción..........................................................................................................................................82
La explicación..........................................................................................................................................84
Interpretación comprensiva (verstehen o “understanding”)......................................................................86
La glosa.....................................................................................................................................................88
La relevancia política de los objetivos cognitivos....................................................................................89
La independencia o dependencia de la realidad en relación con los sujetos..........................94
La cognoscibilidad de la realidad social...................................................................................96
Propiedades: agencia vs. estructura........................................................................................104
Propiedades: Estatismo vs. historicidad/dialéctica................................................................106
Los modelos de Hollis y de Lloyd............................................................................................108
La naturaleza humana.............................................................................................................111
La naturaleza del registro arqueológico.................................................................................114
La creencia.............................................................................................................................................121
La justificación.......................................................................................................................................123
En síntesis….............................................................................................................................131
Verificacionismo o justificacionismo: la ciencia como conocimiento comprobado, verificado............137
El convencionalismo: la ciencia como conocimiento coherente............................................................138
El probabilismo: la ciencia como conocimiento altamente probable, verificable..................................139
El falsacionismo dogmático: la ciencia como conocimiento refutable por los datos.............................142
El holismo o historicismo: la ciencia como solución de acertijos..........................................................143
El falsacionismo metodológico sofisticado: la ciencia como conocimiento refutable en principio a través
de alternativas progresistas.....................................................................................................................147
El anarquismo metodológico: la ciencia como ideología laica: “todo se vale”......................................150
Las metodologías “alternativas”.............................................................................................................152
Las rutinas de trabajo..............................................................................................................162
Las orientaciones metodológicas.............................................................................................167
El origen: la propuesta hempeliana........................................................................................191
Segunda Parte....................................................................................................................240
El caso de estudio: la teoría de Sanders, Parsons y Santley............................................240
El problema del momento de surgimiento del Estado............................................................................296
Las 3 leyes de SPS..................................................................................................................................302
La necesidad de otros principios generales.............................................................................................304
El modelo de 1976..................................................................................................................................305
Nuevos principios generales requeridos.................................................................................................307
Las condiciones antecedentes requeridas para la explicación................................................................316
La evaluación que los propios SPS hacen de su teoría...........................................................................331
La evaluación de terceros........................................................................................................................334
SPS: ¿una teoría refutada?... Lo dudo.....................................................................................................336
Tercera Parte......................................................................................................................368
Consecuencias y… ¿conclusiones?...................................................................................368
Algunas consecuencias del análisis realizado..................................................................370
Los problemas pendientes para la teoría de SPS (y cualquiera de sus contendientes de ese
momento, actuales o futuras)..................................................................................................370
Dos problemas en la teoría de Sanders, Parsons y Santley.....................................................................370
El asunto de lo emocional, lo simbólico y lo cognitivo...........................................................375
La perspectiva desde la arqueología social.............................................................................................376
El falsificacionismo dogmático como vehículo para el regreso del particularismo
histórico..............................................................................................................................386
El “conde” de la refutación.....................................................................................................................387
Una evolución desafortunada..................................................................................................389
El gran “cacique” del “doblepensar”......................................................................................................391
¿Conclusiones? A manera de reflexiones finales….........................................................414
El análisis teórico.....................................................................................................................414
El pluralismo constructivista: ¿una opción promisoria?.........................................................................418
Problemas, problemas, problemas..........................................................................................................426
El análisis de teorías sustantivas: cuestiones pendientes........................................................................427

Lista de Ilustraciones
Ilustración 1. El concepto de Posición Teórica..................................................................74
Ilustración 2. Posiciones teóricas en Arqueología:
del inicio de la arqueología al presente.............................................................................173
Ilustración 3. Dos ejemplos de análisis de Wright: Wittfogel y Diakonoff.....................184
Ilustración 4. Análisis de Wright de Carneiro..................................................................185
Ilustración 5. El “modelo de trabajo” de Wright de 1968...............................................186
Ilustración 6 Análisis de Redman sobre Carneiro y Diakonoff.......................................186
Ilustración 7. Tabla de verdad para los condicionales deterministas..............................223
Ilustración 8. Tabla de verdad para los condicionales probabilísticos...........................224
Ilustración 9. Relaciones de fuerza (refutabilidad) de los condicionales........................224
Ilustración 10. Argumento explicativo de SPS [Sanders et al. 1979]..............................318
6

Dedicatoria

A todos mis maestros y maestras,


en la academia y en la vida

A Jaime Litvak y Pedro Armillas (in memoriam)


A William Sanders y Kent Flannery
A Henry Wright y Peter Railton
7
8

Sinopsis
La arqueología enfrenta el problema de cómo evaluar teorías para poder elegir
racionalmente entre diferentes alternativas, más allá de las preferencias
personales, las lealtades institucionales o la disciplina partidaria. En particular,
para poder determinar cuándo y bajo qué condiciones se puede decir que una
teoría ha sido refutada. Este criterio es indispensable para saber si, como
pretendían algunos especialistas de la época, todas las teorías disponibles sobre
el origen del Estado estaban refutadas alrededor de 1980.

Se formula la hipótesis de que es factible construir un procedimiento de


análisis teórico que sirva dichos propósitos, utilizando principios y criterios
conocidos de la epistemología y la filosofía de la ciencia.

Se propone en consecuencia el procedimiento que hemos llamado


“análisis teórico”, que se basa en el modelo de “posición teórica”. Este modelo
que permite diferenciar escalas de teoría y así distinguir entre la escala mayor (la
de las posiciones teóricas) y la escala menor (la de las teorías sustantivas) y ubicar
en este modelo a las teorías de la observación y lo observable, así como a las
llamadas “arqueologías temáticas”. Se sostiene que las posiciones teóricas
permiten generar teorías sustantivas a través de un conjunto de supuestos
valorativos, ontológicos, epistemológicos y metodológicos y se ofrecen criterios
para determinar la congruencia de estos supuestos dentro de una posición
teórica en particular. Se sostiene que las teorías sustantivas, a su vez, pueden ser
analizadas en cinco componentes (pragmático, sintáctico, metodológico,
ontológico, valorativo y empírico); y que la comparación entre teorías sustantivas
en competencia puede arrojar criterios que permitan determinar sus ventajas
relativas. Se adopta una metodología derivada de la propuesta central de
Lakatos, de que para que una teoría esté refutada, debe proponerse una
alternativa.

Para evaluar la viabilidad del procedimiento, se toma como caso de


estudio, a manera de una “cápsula en el tiempo”, la teoría de Sanders, Parsons y
Santley de 1979 [Sanders, et al. 1979] sobre el origen del Estado en la Cuenca de
México. Se examina, en particular, la pretensión de algunos de sus críticos de que
esta es la “más refutada de las teorías”. El análisis arroja como resultado que la
teoría es mucho más compleja de lo que parecería a simple vista; que de
acuerdo con la formalización básica de sus supuestos centrales y de una
comparación con otras teorías de ese momento, lejos de estar refutada, esta
teoría era una de las mejores. El análisis también arroja en qué puntos la teoría es
débil y cómo es que podría reforzarse.

Se propone que la supuesta refutación de esta y otras teorías del momento


son espurias y que responden a una postura metodológica conocida como
“falsacionismo dogmático”. Se sostiene que esta fue una mala apuesta
9

metodológica, cuyos efectos pusieron en duda no solamente las teorías en


cuestión, sino la propia posibilidad de producir explicaciones en arqueología. Y
que, dos décadas más tarde, como resultado al menos parcial de esta
tendencia, se intenta ahora “refutar” una tradición académica entera, el
neoevolucionismo. Se analiza con detalle el intento de Yoffee al respecto y se
sostiene que hay errores fundamentales en su análisis. Se propone que detrás de
este intento (y de las “teorías” que se vienen proponiendo en los últimos años) lo
que hay es un regreso velado al particularismo histórico y la historia cultural
tradicional, tradiciones académicas que han mostrado ser poco fértiles en el
pasado.

Finalmente, se argumenta que la elección entre tradiciones académicas y,


en particular, entre los objetivos cognitivos de las respectivas posiciones teóricas
tiene un impacto directo sobre las posibilidades de conservar el patrimonio
arqueológico. Se esboza un criterio de priorización y jerarquización que permitiría
conservar sitios que son únicos por haber participado en procesos de cambio
centrales, como el de la aparición de las clases sociales y el Estado. Con ello se
intenta mostrar cómo la discusión de temas aparentemente abstractos y teóricos
tiene a final de cuentas una aplicación concreta y efectos prácticos inmediatos
sobre nuestra capacidad de conservar adecuadamente el patrimonio
arqueológico.
10

A manera de prefacio

“Y entonces, el maestro de epistemología


analizando la relación sujeto-objeto
nos dijo, citando al Ché:
‘Seamos realistas. Demandemos lo imposible’.”

Anécdota apócrifa,
atribuida a Savonarola (El Sabio)

He sostenido durante años en mi Seminario de Tesis en la Escuela Nacional de


Antropología e Historia (ENAH), que escribir una tesis es, ante todo, “un viaje de
crecimiento personal”. El pretexto es académico, pero la experiencia es
fundamentalmente individual. El tesista tiene que enfrentar sus fuerzas y sus
debilidades, sus temores y fantasmas, sus obsesiones y sus manías. Y no hay vuelta
de hoja. Ni manera de que un tercero viva todo eso por nosotros. Ahora me toca,
como decimos en México, tomarme “una sopita de mi propio chocolate” y ver
qué tanto de lo que pontifico ante mis alumnos soy capaz de aplicarme a mi
mismo. Esta tesis es el resultado de ese intento.

Es una tesis que debió haberse escrito hace muchos años. Y le ha pasado
lo que a las emociones viejas, que se guardan y en el proceso se añejan y, como
dicen los analistas transaccionales, “ganan réditos”. Por eso, cuando salen, lo
hacen con una intensidad que supera la que originalmente tenían y quizá la que
finalmente deberían tener. Si la hipótesis de mi Seminario de Tesis es mínimamente
correcta, el problema central de escribir la tesis es siempre de corte emocional. En
mi caso, de emociones “con réditos”, que me temo han aflorado en más de una
ocasión a lo largo de estas páginas. Pero todos tenemos que exorcizar nuestros
demonios tarde o temprano y este texto que ahora tiene el lector en sus manos es
mi vehículo.

No haré aquí un recuento detallado de las peripecias que ha sufrido la


idea de hacer esta tesis (y no cualquier otra) a lo largo de casi 25 años. Baste
decir que, en el proceso, terminé los estudios de doctorado en la Universidad de
Michigan; posteriormente los del doctorado en Arqueología en la ENAH; y luego
una vez más en el doctorado en Antropología en la línea de Antropología
Simbólica de la propia ENAH. En el ínterin me fue más fácil estudiar un doctorado
en Diseño y Nuevas Tecnologías y escribir ahí sí de manera oportuna la tesis
respectiva, que terminar ésta.
11

Pero no hay plazo que no se cumpla, así que luego de prácticamente


cuatro ciclos de doctorado regreso al tema que me obsesionó desde 1982:
¿cuándo podemos decir en arqueología que una teoría está refutada? ¿Será
esta cuestión solamente un asunto de gusto u opinión personal? ¿Podríamos
diseñar procedimientos que nos permitan tratar a las teorías como lo que son, a
saber, teorías, y entonces facilitarnos elegir racionalmente entre diferentes
alternativas? ¿Tiene algo que ofrecernos en ese sentido la filosofía de la ciencia?
¿En qué sentido puede ser relevante a la disciplina? ¿A quién c.…… le puede
interesar todo esto?

Resolver esas preguntas (y muchas otras relacionadas o derivadas de ellas)


implicaba antes muchas tareas: establecer la legitimidad y utilidad de emplear la
filosofía de la ciencia y la epistemología en arqueología; mostrar que era factible
proponer un mecanismo que permitiera analizar y comparar teorías en
arqueología; rastrear qué efectos había tenido el refutar a diestra y siniestra las
teorías disponibles; determinar qué conexión había entre estos asuntos
aparentemente abstractos y teóricos con las necesidades más urgentes de la
disciplina, en particular con la conservación del patrimonio arqueológico, entre
otras.

Por supuesto, el mundo no se quedó quieto mientras yo iniciaba un largo


periplo ahora autodidacta por un campo que me fascina, pero que sin duda
requiere conocimientos especializados y determinación para no perderse en el
intento. Y de repente me di cuenta de que el asunto es como querer hacer
malabares con varios trenes en movimiento: por un lado, el propio desarrollo de la
teoría arqueológica, que en mi opinión siguió una ruta que eventualmente puede
llevarla a descarrilarse; por otro, la propia filosofía de la ciencia, que sobre todo
en la última década sufrió cambios que todavía estoy tratando de entender,
porque a veces da la impresión de que es un tren que ha decidido dejar de ser
tren; y, finalmente, el de las presiones externas sobre la conservación del
patrimonio arqueológico, que establecen un entorno político muy diferente al de
1982, que amenaza, perdonando la expresión, que al patrimonio literalmente “se
lo lleve el tren”.

No sé hasta donde el producto de mis malabares ha sido exitoso (o al


menos útil). Será tarea del lector juzgar por si mismo el resultado. Pero lo cierto es
que por ganas no ha quedado. Dos comentarios adicionales antes de pasar a
dar crédito a quien crédito merece en esta aventura que hoy finalmente llega a
fin: primero, el tono del trabajo. Varios de mis lectores señalaban, con razón, que
quizá un buen subtítulo de este trabajo sería “Un recuento personal”. Sé que no es
muy frecuente que en una tesis doctoral se use un tono informal y anecdótico. Lo
siento y juro que no pude evitarlo. Pero como, a final de cuentas, esta es mí tesis,
después de mucho sueño sacrificado ponderando el asunto, decidí escribir
usando precisamente un tono personal. He intentado que muchos de los
comentarios anecdóticos recaigan en notas a pie de página, en las que también
he descargado argumentaciones o detalles subsidiarios. Lo digo porque quizá si al
lector el tono le molesta, puede entonces evitarse molestias no leyendo las notas
a pie de página. Por desgracia, el recurso no siempre fue posible y quedaron
12

cuestiones personales en el texto principal. Disculpas. Y disculpas también porque,


ya prácticamente listo para el examen, en efecto noto que a ratos el texto destila
más pasión de la que quizá convenga o sea justo expresar: a ratos prácticamente
caricaturizo algunas posiciones a las que critico, lo que no solamente es injusto
con mis interlocutores sino que disminuye la fuerza de los argumentos que tal vez sí
aporto. Mi intención es reducir o eliminar estos excesos en la versión de esta tesis
que está prevista para publicación como libro. Los plazos (y la salud mental)
recomendaban no intentarlo una semana antes de la entrega de los ejemplares
definitivos. Así, le ofrezco al lector una disculpa adelantada: el texto cumplió una
función catártica que, a pesar de numerosas revisiones, sigue notándose en
algunos pasajes.

El segundo comentario: todas las traducciones, salvo en los pocos casos


especificados, son mías. Claro que no faltará el que señale que son traducciones
del inglés al gandariano, ya que “mi extranjerismo es delicioso” y traduzco
recuperando todo lo que puedo del sentido de los textos originales (con lo que
de paso introduzco anglicismos y mi redacción denota el origen del texto
traducido). En todo caso, se reportan las referencias específicas, por si alguien
quiere cotejar con dichos textos. Las citas en muchas ocasiones son extensas,
pero me parecía indispensable recuperar la formulación del autor verbatim. No
traduje gráficos de terceros cuya formulación original precisa me interesaba
recuperar y que son ya documentos históricos.

Agradecimientos
Escribir esta tesis es una tarea que, por la mera longevidad del asunto, difícilmente
hubiera podido llevarse a cabo sin apoyo. Hay muchas gentes e instituciones a las
que es justo reconocer. Como suele en estos casos, el riesgo es dejar fuera a
alguien, pero es preferible a no mencionar a nadie.

Empezaré con Michigan. Debo a Henry Wright, del Museo de Antropología,


el estímulo para explorar cómo mejorar nuestra comprensión de las teorías en
arqueología. A Peter Railton, del Departamento de Filosofía el haberme mostrado,
con afecto y paciencia infinita, que el mundo de la filosofía de la ciencia era a la
vez más complejo y más rico que lo que mis propios esfuerzos autodidactas me
llevaron a fantasear y que quizá no contenía exactamente las soluciones
prefabricadas que yo esperaba encontrar. A Lawrence Sklar, por su motivación
para conocer a fondo las ideas de Popper, lo que indirectamente me llevó a
Lakatos. A Tim McCarthy, cuyo curso de lógica simbólica me dio las herramientas
básicas para hacer lo que estaba proponiendo. Y, por supuesto, a Kent Flannery,
la razón de que yo fuera a Michigan para empezar y el interlocutor de muchas
discusiones, en las que mi apasionamiento me hizo perder la brújula en más de
una ocasión –pero él siempre estuvo ahí, dándome impulso incluso para disentir
de sus ideas. A Joyce Marcus, quien fue en realidad mi tutora esos cuatro años
(perdón Joyce, pero me sigue dando trabajo seguir el consejo de redactar
siguiendo la excelente regla que me enseñaste: “sujeto, verbo, complemento,
13

punto”); a Robert Whallon, cuyo curso me mostró que era por supuesto posible
proponer buenas teorías explicativas en arqueología; y a Jeffrey Parsons, cuya
serena manera de ver las cosas me regresó a la realidad en más de una ocasión,
con un afecto solidario que no olvidaré jamás. A mis compañeros, que tuvieron
que aguantarme cuando las emociones me convertían en una especie de
“montaña rusa” y que siempre estuvieron ahí para apoyarme, particularmente a
Olivier De Montmollin, Virginia Popper, Mike Blake, Mary Hodges (Q.E.P.D.), Kim
Smiley, Carla Sinopoli, “Chip” Willis y el inolvidable Nick (“Sir”) James. Y al personal
administrativo del Departamento y del Museo (Marjorie y Maureen), que me
ayudó para resolver más de una maraña burocrática, me hizo sentir siempre
bienvenido y me facilitó muchas cosas, especialmente cuando durante los cuatro
años que estuve en Ann Arbor en México el peso se hundió de 36 por dólar a más
de 180. Mi estancia allá fue posible mediante una beca de la Fundación Fullbright
(espero que esta tesis tardía compense en algo su inversión), otra del Consejo
Nacional de Ciencia y Tecnología (CONACYT) y las facilidades que me otorgó el
Instituto Nacional de Antropología e Historia –aunque luego me descontaran esos
años de mi antigüedad.

La ENAH ha sido otra protagonista especial en esta aventura. Generación


tras generación de alumnos me han tenido que soportar mis obsesiones y han sido
sometidos a dosis de epistemología que otros considerarían peligrosos para la
salud. En particular, a los extraordinarios “Tepeapulcos” (Fernando López, Ignacio
Rodríguez y Tere García); a los “Rufos” (Víctor Ortiz, Eliseo Linares, Alberto Aguirre y
todo un grupo maravilloso); a la generación de Manuel de la Torre, Rosa Elena
Gaspar, Magdalena García y, de nuevo, a todo ese otro grupo excepcional); a
mis alumnos del Curso de Epistemología y Metodología de las Ciencias Sociales,
de la División de Posgrado en sus sucesivas ediciones. Esta tesis es el resultado
directo de la intervención de Patricia Fournier (mi “sister”), que descubrió que
nunca me dieron de baja en el primer intento de hacer el Doctorado en la ENAH,
sino que solamente perdieron mi expediente (literalmente) en el fondo de un
archivero. Para entonces yo ya estaba en el proceso de cursar de nuevo el
doctorado. Ella hizo que ese proceso fuera lo menos complicado y doloroso
posible; y me animó a insistir en escribir la tesis que realmente yo quería hacer, a
sabiendas de que quizá no iba mostrar profusamente todo lo que aprendí con
ella y con mi otro maestro, Stanislaw Iwaniszewski, sobre antropología simbólica.
Con ambos estoy muy agradecido y en deuda; así como con Rosi Brambila, con
quien cursé el doctorado la primera vez y que, no solo es una interlocutora
formidable, sino que llegado el momento fue una pieza clave para facilitar mi
cambio a la línea de Arqueología Simbólica. Sin su apoyo simple y sencillamente
no habría tesis. Las diferentes coordinadoras de la Maestría, desde la propia
Patricia hasta Cristina Corona, pasando por Vera Tiesler y Wally Wiesheu, me
otorgaron siempre facilidades para continuar investigando sobre los temas que
me apasionan; mis estimados compañeros de la Academia, junto con Cristina,
hicieron posible que mi sabático fuera destinado a elaborar esta tesis. Agradezco
también a las autoridades de la Escuela, particularmente a Francisco Ortiz y
Federico Martínez, su apoyo para que el sabático, además de su continua
solidaridad personal y emocional.
14

El que pudiera yo dedicarme a escribir en un contexto tan propicio y


estimulante como el Colegio de Michoacán (COLMICH) se lo debo en primer
lugar a Efraín Cárdenas, que fue el de la idea de una estadía sabática en el
Centro de Estudios Arqueológicos (CEQ) del COLMICH en la Piedad. La idea se
hizo realidad gracias a Magdalena García, compañera en tantas aventuras
académicas, quien como Coordinadora del Centro siempre me otorgó todas las
facilidades para que esta tesis llegara a fin, incluyendo la oportunidad de traer al
Dr. Sanders a la Piedad este marzo pasado (2007). Mis colegas y alumnos en el
CEQ, particularmente la actual generación de la Maestría y la gentil presencia de
Alberto Aguirre y Verenice Heredia en las discusiones de mi curso de teoría
arqueológica, me permitieron someter a prueba ante un público exigente pero
cariñoso, la última versión de las ideas que ahora el lector tiene ante sus ojos. A
todos ellos y, por supuesto, a la Presidencia del COLMICH, al Dr. Diego, al Dr.
Zárate y su equipo, y al personal académico y de apoyo del CEQ, les estoy
profundamente agradecido. No solamente me pasé uno de los mejores años de
mi vida (así es), sino que pude disfrutar de la hospitalidad de La Piedad, Zamora,
Pátzcuaro y particularmente la belleza de la extraordinaria ciudad de Morelia.

Fue en Michigan donde surgió la idea de probar el procedimiento de


análisis aplicándolo a una teoría sobre la que mi opinión y la de algunos de mis
maestros diferían: la de Sanders, Parsons y Santley (en lo sucesivo “SPS”, para
abreviar), de 1979, expresada en lo que en México conocemos afectuosamente
como “la Biblia Verde”, por referencia al color del empastado de su libro
[Sanders, et al. 1979]. Sanders había sido mi maestro en aquel memorable Taller
de Adiestramiento Avanzado en Arqueología, organizado por el INAH en 1973 y
en el que tuve el placer y el honor de ser alumno también de Flannery y de
Armillas. Su claridad teórica (que él modestamente niega) ha sido siempre una
guía, incluso a la distancia, en el tiempo y en el espacio. Aunque las discusiones
epistemológicas y metodológicas no le entusiasman tanto como a mí, me ha
soportado con muy buen ánimo todos estos años y tuvo la enorme gentileza de
acceder a venir a La Piedad, Michoacán en marzo de este año (2007); aquí no
pudo evitar mi emboscada y tuvimos más de una de esas discusiones, que en
parte quedaron reflejadas en poco más de seis horas de video y audio en las que
se documenta lo que en el texto refiero como “Entrevista 2007”. Su opinión era
fundamental para ver si mi intento de formalizar su teoría tenía sentido y lograba
aproximarse cuando menos a la superficie de su propuesta. El y su esposa Lilly
merecen un agradecimiento especial.

A lo largo de los años ha habido colegas que tuvieron que resistir lágrimas
de aburrimiento ante mi enésimo recuento de la importancia del análisis teórico; y
aún así me siguieron apoyando: a mi queridísima Linda Manzanilla, con quien
compartí no solamente muchas temporadas de campo sino prácticamente toda
nuestra trayectoria académica y siempre estuvo ahí para apoyarme; Mario
Cortina, gracias a quien realmente entendí el formalismo de la lógica de la
refutación (y muchas otras cosas); Mari Carmen Serra, que más de una vez me
hizo ver no era necesario polarizar para lograr que se entendiera mi
planteamiento, además de darme la oportunidad (como Litvak lo hizo antes) de
conocer y poder platicar con algunos de mis héroes (o némesis) en la teoría
15

arqueológica; y, por supuesto, al Grupo Evenflo, comandado por Felipe Bate, que
me ayudó a consolidar mi transición entre la arqueología procesual y la
arqueología social latinoamericana a mi regreso de Michigan; y al grupo
Oaxtepec, en donde Luis Guillermo Lumbreras, Mario Vargas, Iraida Sanoja,
Héctor Díaz-Polanco y el resto de los compañeros siempre tuvieron una
solidaridad a prueba incluso de mi novatez en el marxismo. Ellos fueron de los
primeros en tener que sufrir mi insistencia en la importancia de la explicación
causal y mis criticas a lo que creía era una mala teoría marxista del origen del
estado (la del modo de producción asiático).

Mención especial tienen mis compañeros de generación en la ENAH, que


han soportado mis disquisiciones teóricas todos estos años: especialmente Linda
Manzanilla, Alejandro Martínez, Alicia Blanco, Antonio Benavides, Eduardo Merlo,
Pilar Luna, Juan Yadeun. Y a los colegas españoles (incluyendo a los canarios)
que han insistido en que lo que hago puede ser útil: Oswaldo Arteaga, Francisco
Nocete, José (“Pepe el Uru”) de León y Saturnino (“Sanjo”) Fuentes y los demás
entrañables colegas y alumnos canarios.

Y, por supuesto, un agradecimiento a mi comité doctoral: Arturo Oliveros


(otro cómplice de muchos lances en la vida); Stanislaw Iwaniszewski; Héctor Díaz-
Polanco (con quien sostengo una polémica que empezó hace más de 20 años y
no termina, aunque me preocupa que cada vez estoy más de acuerdo con él); a
José Luis Vera, antropólogo físico, filosofo de la ciencia y experto en todos los
estilos de música interesante, quien aceptó leer estas líneas (a pesar de los plazos
apremiantes) y definitivamente contribuyó a mejorarlas; Aura Ponce de León,
arqueóloga y filósofa de la ciencia también, y una de las mentes más claras y al
mismo tiempo serenas que conozco, cuyas contribuciones a este texto se iniciaron
hace muchos años, en interesantes polémicas cuando fue mi alumna. Y por
supuesto, mi director, gurú y consejero espiritual, Felipe Bate por, entre una
infinidad de otras razones, alentar que yo pueda finalmente exorcizar mis
demonios y escribir, aunque sea con réditos, esta tesis que debió haber sido
escrita hace muchos años. Su guía respetuosa y su esmerado, acucioso y cariñoso
trabajo de corrección han hecho una gran diferencia en el resultado. Las
observaciones y correcciones de mis sinodales normalmente las incorporé sin más
al texto; en ocasiones especiales, cuando hubo alguna divergencia de criterio o
la modificación tenía un impacto especial, asiento específicamente el nombre
del asesor que la propuso. Agradezco también al Dr. León Olivé su acertada guía
bibliográfica; y mención especial merece Cristina Rybertt, cuyos ojos de lince y
enorme experiencia en corrección de estilo no solamente ayudaran a eliminar
errores tipográficos sino hicieron de este texto algo más legible –aunque, como se
dice y sigue siendo cierto en estos casos, los problemas que subsisten son, por
supuesto, mi responsabilidad.

Nunca hubiera soñado con un doctorado en Michigan sin el patrocinio y


aliento de mi padre, Manuel Gándara Mendieta, que antes hizo posible mis
estudios en la ENAH; o sin el entusiasmo de mis hermanos Marinela y Felipe. Un
agradecimiento especial a Anita Salazar, a quien le tocó acompañarme y vivir en
carne propia la experiencia michigana y luego toda una vida juntos; a mi hija
16

Mariana, a quien el texto que hoy ve la luz le debe horas que debieron dedicarse
a ella y aún así siempre ha apoyado ésta y muchas otras de mis locuras. A Luis
Miguel Rodríguez, responsable de mis incursiones en la televisión y eficaz asesor
sobre el tono que debía adoptar en esta tesis, además de ser un polemista eficaz
y solidario que siempre tiene los pies sobre la tierra, lo que me regresa a mí de las
abstracciones de la teoría a las realidades pragmáticas. A José Rodríguez,
compañero que ayudó siempre a mantener la fe en que “sí se puede”, apoyó el
trabajo gráfico y de corrección de la tesis y me ha seguido siempre, incluso en las
más audaces de mis exploraciones; y a Valentín Cipriano, mi anfitrión y
compañero en Morelia, que tuvo que soportar las angustias, desveladas, prisas y
depresiones que implicó intentar entregar este texto a tiempo –y estoicamente no
solo las aguantó, sino que a cambio hizo de mi estadía aquí una experiencia
maravillosa que atesoraré toda mi vida…

A todos ellos (y a aquellos que omití u olvidé -perdón), ¡muchas gracias!...

Morelia, Junio de 2007


17
18

Introducción

¿Para qué hacer un viaje al pasado?


En 1979 Sanders, Parsons y Santley (en lo sucesivo ‘SPS’ para abreviar) publican
The Basin of Mexico [Sanders, et al. 1979]. Este libro representa la culminación de
más de 15 años de investigación de William Sanders. E indirectamente, uno de los
logros de un colectivo de trabajo que, convocado en 1960 en Chicago por Eric
Wolf, se trazó una meta de investigación de largo plazo: explicar por qué el
altiplano mexicano y en particular lo que en ese momento llamaban “el valle de
México”, había sido el asiento de la hegemonía política y cultural de buena parte
del territorio mexicano a lo largo de su historia [Wolf 1976b].

Ni Wolf, ni su cómplice en esa convocatoria, Ángel Palerm, eran


arqueólogos. Pero ambos conocían las críticas de Julian Steward a la arqueología
particularista histórica, que reducía la historia a secuencias cerámicas y no se
atrevía a formular explicaciones. Varios de los miembros del grupo convocado
compartían las teorías de Steward [1949] y Karl Wittfogel [1957] y querían
determinar qué tanto podían ayudar a resolver un problema específico: el del
origen y la transformación de la civilización mesoamericana. El grupo pensaba
que el problema podía no solamente plantearse, sino resolverse desde la
arqueología, con apoyo de la etnohistoria y otras disciplinas antropológicas.

Cuando muchos arqueólogos dudaban todavía que la disciplina pudiera


enfrentar problemas sobre la organización social o el poder, Wolf, Palerm, Armillas
y el propio Sanders se atrevieron a realizar varias conjeturas temerarias: entre ellas,
que la irrigación y las técnicas de cultivo intensivo habían tenido mucho que ver
con el desarrollo temprano y el subsiguiente crecimiento de la civilización en el
centro de México. De inmediato hubo voces escépticas: “¡Pero si nunca se ha
encontrado un solo canal!”, a lo que visionarios como Pedro Armillas, contestaron:
“Porque nunca antes se han buscado” [Armillas, comunicación personal, Taller de
Adiestramiento Avanzado en Arqueología. INAH. México. 1973]. La realidad
pronto les daría la razón: como surgidos de la nada, empezaron a reportarse no
solamente canales, sino complejos sistemas de control de agua.

Si hemos de creer el recuento de Wolf (que aparentemente está un poco


idealizado, a decir de Sanders [Entrevista 2000] los participantes en la reunión, no
solamente definieron el problema, sino la manera de abordarlo. En un consenso
inédito, arqueólogos de diferentes instituciones y tradiciones académicas fijaron la
estrategia y el conjunto básico de técnicas a emplear. El resultado fue que,
aunque cada proyecto era independiente, en conjunto se convertían en un
esfuerzo a escala regional, involucrando prácticamente toda la cuenca de
México. Se emplearían (y subsecuentemente se perfeccionarían) las técnicas de
reconocimiento y recolección de superficie que con éxito habían sido empleadas
en otras regiones, inspiradas en la llamada “arqueología de asentamientos”. De
19

nuevo, enfrentarían con ello la crítica de sus colegas, alguno de los cuales incluso
acuñó el término “arqueología superficial” para burlarse de la idea.

Cada participante se haría eventualmente cargo de una diferente área


dentro de la región. René Millon trabajaría Teotihuacan, iniciando con un mapeo
exhaustivo apoyado en fotografía aérea restituida; Armillas se encargó del
suroeste de la cuenca, incluyendo Xochimilco. Y Sanders y su equipo
prácticamente el resto de la región, un vasto territorio del que se sabía poco,
excepto por excavaciones puntuales en sitios como Tlatilco, Copilco, Cuicuilco o
Zacatenco. No se habían llevado a cabo reconocimientos sistemáticos regionales
y el equipo de Sanders era conciente de que había que localizar y registrar los
sitios existentes, antes de que el inminente crecimiento de la mancha urbana de
la ciudad de México destruyera los sitios e hiciera imposible su estudio.

En las siguiente dos décadas, apoyado por cerca de medio centenar de


arqueólogos, dirigidos por los entonces ayudantes de Sanders, como Jeffrey
Parsons (que trabajó Texcoco) o Richard Blanton (encargado del reconocimiento
de Iztapalapa), Sanders y su equipo intentarían lo que parecía una proeza
imposible: lograr una cobertura del 100% de la Cuenca (descontando
Teotihuacan, que, como mencionamos, investigaría Millon).

Simplemente el aporte empírico del proyecto de Sanders hubiera sido


razón suficiente como para que su trabajo se reconociera como una importante
contribución. Pero Sanders fue más allá: innovó las estrategias y las técnicas de
trabajo de superficie (lo que aún su más severo crítico, Blanton [1990], ha
reconocido) y diseñó, con apoyo de sus ceramistas, formas más expeditas de
análisis cerámico que pudieran fijar periodos cronológicos más finos. No obstante,
el aporte medular, en mi opinión, vendría después: Sanders haría una
contribución central en el terreno teórico, no sólo se atrevió a contestar la
pregunta que habían formulado Wolf y Palerm veinte años atrás, sino que nos
regalaría, con Parsons y Santley, una teoría claramente delimitada sobre el origen
del Estado en Teotihuacan. Ese es, sin menosprecio de la importancia de las otras
contribuciones contenidas en The Basin of Mexico, su aporte central; y razón
suficiente como para ganarse un lugar en la historia de la antropología. O al
menos eso pensamos algunos. Pronto otras voces pondrían todo esto en duda.

Una “re-saña” discordante


Antes de que el libro de SPS empezara realmente a recibir el reconocimiento que
en mi opinión merecía (presente en dos reseñas de la época: Brown [1980], Brush
[1981]), se inició la campaña para su descrédito. La sorpresa es que la crítica
viniera de alguien tan cercano.

En efecto, en 1981, uno de los antiguos colaboradores del proyecto de


Sanders, Richard Blanton, publicó una reseña en American Anthropologist
[Blanton 1980] en la que expresaba sin ambages su opinión. Cito en extenso:
20

“De no ser por los mapas, sin embargo, no puede considerarse que
The Basin of Mexico sea en mucho una contribución a la
arqueología antropológica. Las fallas del libro son tan numerosas y
tan serias que enmascaran lo que pudiera haber de valor.
Como era de esperarse, este libro ha sido usado como un vehículo
más para las envejecidas teorías ecológicas de Sanders, en las que
el crecimiento demográfico (que se toma como dado) es visto
como la máquina que conduce la evolución cultural y la
intensificación agrícola. Sanders, Parsons y Santley están tan
fuertemente comprometidos con este enfoque, de hecho, que
incluso a la luz de hallazgos empíricos contrarios en los
reconocimientos, se ven forzados a hacer declaraciones bizarras.
[…] Queda pendiente que expliquen por qué [las leyes que usan] se
aplican solamente cuando les conviene para preservar sus ideas
sobre el papel de la presión demográfica. […]
Un problema consistente en este volumen es la falla en consultar la
literatura de tal manera que sus enunciados y teoría puedan
ubicarse en el contexto de puntos de vista alternativos. […] Todo es
deformado, contorsionado, amoldado, forzado o retorcido para
que quepa en su modelo a priori. No hay ningún sentido de
descubrimiento; ninguna inclinación para ver qué podía aprenderse
de los datos que pueda ser nuevo y diferente, aunque eso pudiera
forzar el abandono de algunas ideas y el desarrollo de otras nuevas.
En cierto sentido, no se siquiera por qué se molestaron en hacer los
reconocimientos. Están tan seguros del poder de sus explicaciones
de ecología cultural que lo último que requieren es información
nueva. […]
La carencia de una actitud de cuestionamiento los ha llevado a una
atrofia analítica…ellos no necesitan métodos analíticos. ¿Para qué
analizar los datos cuando uno ya sabe de antemano las respuestas
(o al menos cree que lo hace)? Por desgracia, los investigadores
interesados en probar hipótesis alternativas tampoco podrán
hacerlo. Excepto por los mapas, no se presenta ningún otro dato en
bruto.
Los reconocimientos de la Cuenca de México pudieron haber
jugado un papel importante en esa parte de nuestra disciplina
preocupada con la evolución de las sociedades complejas, pero no
lo hacen (con excepción del estudio de René Millon en
Teotihuacan). Con Sanders, Parsons y Santley al timón, todo lo que
obtenemos es una teoría obsoleta y sobre simplificada, una
incapacidad para utilizar incluso aquellos métodos analíticos que
son de uso común y un fracaso en publicar los datos de manera
completa. The Basin of Mexico deja mucho que desear” [Blanton
1981:223-224, énfasis mío].
21

En ese entonces yo era alumno de doctorado en la Universidad de


Michigan. Recuerdo haber leído la reseña y quedarme pasmado de que una
opinión tan dura hubiera sido aceptada por los editores de la revista. Pronto
aprendí que en adelante ese sería el tono al respecto y que había que aplaudirle
a Blanton el que cuando menos lo hacía por escrito y con una semblanza de
argumentos –cuya validez analizaremos más tarde, y no, como simplemente
decía una de mis profesoras: “La teoría de Sanders, Parsons y Santley es tan, pero
tan, pero tan mala ¡que hasta Jeffrey [Parsons] se da cuenta!”

A mí el comentario no me produjo ninguna hilaridad. Me parecía un doble


insulto, a Sanders y al propio Parsons. Parsons era profesor del Departamento de
Antropología en Michigan y en los cuatro años que estuve ahí yo jamás lo oí
proferir, en clase o fuera de clase, un ataque personal contra ningún colega,
mucho menos contra otro profesor del Departamento. Por el contrario, es una de
las personas más gentiles, serenas y ecuánimes que he tenido el placer de
conocer, que siempre reconoce y aprecia los aportes de los demás. Pero al
menos en Michigan parecía existir un consenso de que el libro escrito con Sanders
y Santley era una especie de anacronismo inoportuno: cómo podía alguien
atreverse a proponer una teoría “de primer motor”, cuando no sólo todas las
teorías, particularmente las de primer motor, sobre el origen del estaban
refutadas, sino que se cuestionaba la legitimidad misma de explicar el origen del
Estado. Lo que se requería era “un regreso a los datos”.

Este incidente fue la gota que derramó un vaso que se había empezado a
llenar cuando tomé el curso de Henry Wright sobre orígenes del Estado. Con
pulcritud y seriedad, Henry mostró cómo ninguna de las teorías del (incluyendo
cuando menos tres de su propia autoría), sobrevivían a un examen crítico, ya
fuera desde el punto de vista de la teoría, pero particularmente en términos de la
evidencia disponible. Recuerdo que, sorprendido, pregunté “¿Entonces, cómo
vamos a explicar el origen del Estado? A lo que Henry contestó, con excelente
ironía, “¿de veras crees todavía en la explicación? “

Para mí el asunto no era menor. Como docente en la Escuela Nacional de


Antropología de Historia (ENAH), había enseñado en los últimos tres años (de 1975
a 1978), que la meta de la arqueología era la explicación. Y creía firmemente que
el modelo hempeliano de la explicación, que requiere leyes generales, era la
mejor guía para la arqueología. Henry no estaba de acuerdo. Para él el término
“ley general” sonaba demasiado pretencioso y además conjuraba la imagen de
conocimiento absoluto, final, irrefutable, que a él personalmente no le parecía
compatible con una imagen de la ciencia, como siempre, en proceso de revisión
y cambio.

Pero de Henry aprendí que una opinión tan fuerte como “esa teoría está
refutada” debía ir respaldada con un análisis serio. Más adelante comentaré
sobre el mecanismo de análisis teórico propuesto por Henry, que es el
antecedente directo de la propuesta que constituye el centro de esta tesis. Es
decir, a diferencia del incidente comentado antes, las teorías no se refutan
simplemente con un comentario de mal gusto en el salón en que se toma el café.
22

De ahí “p’al real”


Habían surgido entonces las inquietudes centrales que motivan esta tesis: ¿Cómo
podemos evaluar una teoría en términos que vayan más allá de los gustos
personales, los rencores profesionales o incluso las líneas partidarias? En particular:
¿cuándo podemos decir que realmente hemos refutado una teoría?; ¿realmente
ya no es deseable o factible plantear la explicación como meta de la
arqueología (aunque sea con un modelo diferente al hempeliano)?; ¿es la
refutación al estilo en que se practicaba en Michigan en ese momento una
práctica que realmente fomentará el avance de la disciplina? Y, en particular,
¿realmente estaban refutados Sanders, Parsons y Santley?

Mis dudas respondían no solamente a un sentimiento de justicia y “juego


limpio” y a mi aprecio personal por dos de los autores “refutados” (Sanders fue mi
maestro en aquel inolvidable “Taller Avanzado en Arqueología, de 1973, junto con
Flannery y Armillas; y asistí como oyente al curso de Parsons durante el doctorado
en Michigan). Además del aspecto personal, emocional, todo el asunto de las
refutaciones al estilo michigano iba a contra corriente de lo que estaba
aprendiendo en los cursos de filosofía de la ciencia, tanto del Dr. Peter Railton
como del Dr. Larry Sklar, de quienes aprendí sobre Hempel, Kuhn, Popper y
Lakatos, entre otros autores. En particular, contradecía la propuesta central de
Lakatos de que no existe refutación sin alternativa, regla que claramente estaba
siendo violada en el momento en que se suponía que todas las teorías sobre el
origen del estaban refutadas simultáneamente.

Sin embargo, surgía ahora un meta-problema: cuando confronté (de una


manera muy torpe, por cierto) a algunos de mis maestros en Michigan con el
hecho de que nuestras refutaciones no seguían lo que proponía la filosofía de la
ciencia, lo que obtuve de varios de ellos era un rechazo más o menos rotundo a
aceptar que la filosofía de la ciencia tuviera algo que ver con la arqueología. De
ahí el meta-problema: ¿será cierto que la filosofía de la ciencia –o al menos
partes de ella- sean totalmente irrelevantes para la práctica arqueológica?
Contestar afirmativamente tiene dos consecuencias importantes, que generan a
su vez nuevas preguntas: la primera, de ser cierto ¿qué hace tan especial a la
arqueología como para que nuestras teorías sean inmunes al análisis filosófico, o
éste les sea irrelevante? O bien, tesis todavía más fuerte ¿será acaso que lo que
sucede es que la filosofía de la ciencia es en general irrelevante a la práctica
científica?

Intentos de solución
Intentaré mostrar en esta tesis que, entendida de la manera en que propondré
adelante, la filosofía de la ciencia (en este caso, filosofía de la arqueología) es no
solamente relevante a la práctica de la arqueología, sino que es inevitable; y que
23

quienes, como Blanton, piensan que teorías como la de SPS están refutadas, están
ya practicando una forma de análisis filosófico del tipo que supuestamente es
irrelevante.

Es más, propondré como hipótesis central que, apoyados en los hallazgos


de la filosofía de la ciencia y el propio trabajo reflexivo de la arqueología, es
factible establecer mecanismos y criterios de evaluación que permitan evaluar
teorías y seleccionar racionalmente entre varias opciones disponibles.

Y -lo que son las cosas- intentaré mostrar que, aplicados estos mecanismos
y criterios de evaluación, lejos de estar refutada, la teoría de Sanders, Parsons y
Santley era quizá una de las mejores en ese momento. Si los argumentos que
presentaré son mínimamente plausibles, ello nos permitirá llegar a una conclusión
final: que la concepción del método (y particularmente del papel de la
refutación) que se tenía en ese momento, actuó finalmente en contra de la
arqueología procesual: los propios arqueólogos procesuales abrieron la puerta a
la crítica posprocesual, introdujeron el escepticismo sobre la explicación y están
llevando a la arqueología de regreso a versiones del particularismo histórico del
que nos costó mucho trabajo salir.

En cierto sentido, esta tesis es como una “cápsula de tiempo”, esos


dispositivos que han promovido la NASA y otras agencias, en las que se
concentran artefactos y documentos representativos de nuestra cultura en ese
momento de tiempo y que son enterrados o lanzados al espacio como muestra
de nuestra época. En nuestro caso, regresaremos a los inicios de la década de
1980 para hacer una especie de “radiografía” de las concepciones
metodológicas en boga, bajo las que la teoría de SPS estaba refutada. Utilizando
herramientas disponibles en ese momento y tomando la teoría de SPS como caso
de estudio, intentaremos determinar hasta dónde era justificado considerar a la
teoría como refutada.

Objetivos
De la exposición anterior se derivan algunos de los objetivos centrales de este
trabajo:
1) Mostrar, a partir de un estudio de caso, que la falta de claridad sobre el
contenido de una teoría sustantiva puede llevar a formular dicha teoría de
manera incompleta lo que, a su vez, la abre a críticas injustificadas o
tangenciales;
2) Mostrar que el falsacionismo dogmático (la idea de que con un caso en
contra una teoría está refutada y debe abandonarse) es una mala apuesta
como posición metodológica para la arqueología; y que la refutación real es
algo mucho más complejo que lo que se ha reconocido hasta ahora;
3) Mostrar que los supuestos metodológicos (como el implícito en el
falsacionismo dogmático) derivan, en buena medida, de supuestos
24

epistemológicos, cuya crítica puede ayudarnos a buscar opciones más


eficaces;
4) Mostrar que nuestras teorías sociales se construyen a partir de supuestos
valorativos (para qué y para quién teorizamos) y ontológicos (cómo asumimos
que es la realidad) y que, en ocasiones, dichos supuestos prácticamente están
a “flor de piel” en las teorías sustantivas. Es decir, que se nos está vendiendo,
veladamente, una filosofía política o una posición ética como si fuera una
construcción empírica
5) Apuntar hacia la construcción de un “realismo social”, compatible con
el realismo en general, pero también con un reconocimiento pleno de que
parte de la realidad social es, en efecto, construida simbólicamente por los
sujetos
6) Relacionar el análisis teórico, aparentemente un asunto abstracto y
formal, a las necesidades prácticas y tareas más urgentes de la arqueología,
como la conservación del patrimonio arqueológico

Hipótesis principal e hipótesis subordinadas


En general, el proyecto es del tipo que he llamado “investigación instrumental”,
dado que las hipótesis principales tienen que ver con cómo mejorar un
procedimiento; en nuestro caso, un procedimiento de análisis y evaluación de la
teoría. Es decir, se trata fundamentalmente de hipótesis instrumentales, más que
de nuevas propuestas de teorías sustantivas, aunque en algún punto intentaré
mostrar que la teoría original de SPS puede mejorarse con modificaciones
menores, que precisamente incorporan aspectos simbólicos a la propuesta. La
hipótesis central, esbozada arriba, es que apoyados en los hallazgos de la filosofía
de la ciencia y el propio trabajo reflexivo de la arqueología, es factible
establecer mecanismos y criterios de evaluación que permitan evaluar teorías y
seleccionar racionalmente entre varias opciones disponibles.

1. El análisis teórico ayuda a formalizar y sistematizar una teoría, haciéndola


a la vez más vulnerable a la crítica legítima y menos vulnerable a las
críticas espurias;
2. La crítica al falsacionismo dogmático es aplicable a las refutaciones de
la arqueología sistémica, entre ellas la de la teoría de SPS, con lo que una
de las fuentes de evidencia en contra de la explicación como meta (el
fracaso de las teorías explicativas) se debilita;
3. El falsacionismo dogmático deriva de supuestos epistemológicos
empiristas ingenuos y comparte con el neopositivismo más elementos que
la arqueología sistémica quisiera aceptar. En consecuencia, la adopción
de una epistemología diferente, en este caso el falibilismo, puede
orientarnos a una elección más eficaz de metodología.
4. La “ontologización” es una forma de rehuir a la explicación, ya sea
porque la capacidad explicativa de una teoría sustantiva ha llegado a un
tope momentáneo, o porque es un recurso para disfrazar con tintes
científicos propuestas que realmente son expresiones de una filosofía
25

política o una ética velada. Mientras más se retrase en la cadena


explicativa la ontologización, más fértil será la teoría.
5. El materialismo no tiene porque ser incompatible con una noción de
agencia, o con el que ciertas partes de la realidad social las construyan, en
efecto, los sujetos. Las construcciones sociales, una vez sancionadas
colectivamente, adquieren tanta “realidad” como cualquier otro proceso.
6. El análisis teórico tiene consecuencias prácticas de aplicación inmediata
a los problemas más urgentes de la arqueología, dado que permite
construir criterios con los que defender mejor el patrimonio arqueológico

Y, con relación a la teoría de SPS:


7. Analizada con las herramientas propuestas en este trabajo, la teoría de
SPS nunca estuvo realmente refutada. Por el contrario, fue posiblemente
una de las mejores candidatas como teoría explicativa del origen del
Estado en su momento. Con modificaciones menores, que introducen
algunos aspectos no considerados originalmente por sus autores, esta
teoría probablemente es la mejor entre las contendientes y a la que habrá
de enfrentar desde la arqueología social; por ello es relevante su estudio
para esta posición teórica

Instrumentación
Dado que esta investigación es de carácter fundamentalmente teórico e
instrumental, para cumplir los objetivos y evaluar las hipótesis centrales (y algunas
de las subsidiarias) expuestas, el procedimiento será fundamentalmente de
introducción de herramientas de análisis teórico (algunas derivadas de la
literatura metodológica, otras propuestas propias) y su aplicación al caso de
estudio. Es decir, intentaremos mostrar, utilizando las herramientas propuestas, que
la teoría de SPS es más de lo que incluso SPS reconocen. Y que, así reconstruida,
es una teoría particularmente fuerte; de hecho, al compararla con otras opciones
disponibles, se aprecia como una de las mejores de ese momento. Me interesa
que, sin perder el centro de atención sobre la solución de las polémicas en la
arqueología, la tesis pueda nutrirse de lo que se ha generado en la discusión de la
filosofía de la ciencia social contemporánea y de la epistemología en general. No
pretendemos hacer un tratado de metodología, pero pensamos indispensable el
abordar esta temática con esa perspectiva. Y, finalmente, tendremos que ligar
esa discusión, aparentemente abstracta, al problema de la conservación del
patrimonio arqueológico.

El papel de la filosofía de la ciencia en la arqueología


El lector familiarizado con las polémicas hoy en filosofía quizá piense que, de
inicio, el proyecto entero es poco viable, particularmente a la luz de las nuevas
corrientes pluralistas. En palabras de un querido amigo, Héctor Díaz-Polanco, en
una discusión informal hace unas semanas: “No estarás tratando de revivir la
osadía de unos locos que pretendían decirnos a todos cómo hacer la ciencia…”
26

[Díaz-Polanco, Comunicación personal. Marzo de 2007]. Se necesita entonces,


primero, al menos comentar brevemente el llamado “giro naturalista” en la
filosofía de la ciencia que suele fundamentar ese pluralismo; y luego, el
escepticismo que despierta en muchos colegas la aplicación de la filosofía de la
ciencia, en particular en la arqueología. Pospondré la discusión del pluralismo al
capítulo 17.

El problema del naturalismo en filosofía de la ciencia


Recientemente y, como una de las muchas secuelas del llamado “historicismo”
en la filosofía de la ciencia y el neopragmatismo en filosofía en general, se generó
una reacción a las pretensiones normativas de la generación anterior de filósofos
de la ciencia. En efecto, la disciplina había tenido un doble carácter: por un lado,
pretendía ser descriptiva y analítica de la actividad científica; y por otro,
normativa en el sentido de ir más allá y ofrecer consejo razonado (en su versión
moderada) o adjudicar disputas (en versiones más fuertes) o incluso decirle a los
científicos cómo debe ser la ciencia (en las versiones prescriptivas más fuertes).

Kuhn y otros filósofos que eran también historiadores de la ciencia,


mostraron que buena parte de las pretensiones prescriptivas de los filósofos no
tenían fundamento en las prácticas reales de los científicos, al menos tal como lo
recupera dicha disciplina1. El problema es que si, empíricamente, no había
entonces evidencia de ciertas prácticas de las que supuestamente los filósofos
extraían las lecciones que luego pretendían aplicar prescriptivamente, estas
lecciones perdían, cuando menos, parte de su justificación: entonces no estaban
recuperando la práctica científica real y codificándola, sino intentando pontificar
sus propias preferencias.

Lakatos [1983 (orig. 1971)] fue uno de los primeros filósofos en notar que se
daba entonces un “matrimonio forzado” entre la filosofía de la ciencia y la historia
de la ciencia. Y la relación era compleja: se supone que la historia de la ciencia
sería el campo en que se podrían evaluar, a manera de teorías empíricas, las
propuestas de metodología de los filósofos. El problema es que existe una
circularidad: ¿qué metodología se empleará para evaluar esos episodios
históricos? Si lo que está en juego, precisamente, es cuál metodología captura
mejor la práctica científica a lo largo de la historia, es necesario hacer historia
primero. Pero para ello se requiere emplear alguna metodología.

Feyerabend adelantó una respuesta que se anticipó a la siguiente iteración


de este acertijo: en su opinión, la historia (reconstruida con alguna metodología
1
Es notoria, aunque seguramente apócrifa, la anécdota de Popper en la que, al
señalársele que Galileo difícilmente habría realizado un determinado experimento crucial
desde una torre (¿la de Pisa?), porque la torre en cuestión no estaba aún construida,
molesto replicó: “Pues peor para Galileo”. Primero los neopositivistas y luego los
racionalistas críticos insistían que nunca pretendieron hacer una historia “real de la
ciencia, sino solamente su “reconstrucción racional”. El problema no se reduce a
cuestiones de detalle, anecdóticas, sino cruciales: ¿siguieron realmente los científicos las
reglas metodológicas que estos filósofos dicen “reconstruir racionalmente? [Laudan 1984].
27

que no clarifica) derrota todas las propuestas metodológicas, incluyendo la de su


colega y amigo Lakatos. De ahí Feyerabend derivaba la única regla prescriptiva
posible en su opinión: “Todo se vale” [Feyerabend 1975:28; capítulo 10].

La credibilidad del componente prescriptivo se vio doblemente dañada


cuando nuevos estudios de sociología e historia de la ciencia mostraban a unos
científicos muy alejados de los ideales propuestos por la filosofía de la ciencia
clásica. Aunque a mí me parece en absoluto sorprendente, autores como Latour
hicieron una carrera proponiendo “descubrimientos sensacionales”, como el que
los científicos son seres humanos, con pasiones, ambiciones e intereses personales;
y que, en virtud de esas características, se apartan muchas veces de la
racionalidad y honestidad perfecta de los acartonados ejemplos de la filosofía de
la ciencia clásica. La intención final era sostener un argumento antirealista y
supuestamente “desbancador” (“debunking”) –traducido como “devastador”
por Olivé [2000:172]- de la ciencia, en opinión de un crítico definitivamente más
calificado que yo: Klee opina que libro de Latour está lleno de falacias derivadas
de su intento de hacer una etnografía de laboratorio sin mucho conocimiento de
lo que estaban observando y con una conclusión desde antes de empezar el
trabajo, en el sentido de que no existe tal cosa como un mundo independiente
que la ciencia descubre, sino solamente “creaciones” de las comunidades
científicas a partir de las “inscripciones” contenidas en sus registros de trabajo
[Klee 1997:165-174].

Estos desarrollos y otros que seguramente pueden agregarse a este breve


recuento, como el de Shapin y Shaffer [1985], también comentado por Klee
[1997:174-179], han llevado a que, durante la década de 1990, empezara a
generalizarse la idea de que quizá era tiempo de “naturalizar” la filosofía de la
ciencia, así como antes se intentó “naturalizar” la epistemología. Es decir,
convertirla en una disciplina empírica, cuyas teorías en definitiva tendrían que ser
evaluadas como las de cualquier otra disciplina empírica. De hecho, se
generaliza el término “estudios de la ciencia” (del inglés “science studies”) que
enfatiza el lado descriptivo-analítico de la filosofía de la ciencia y la ve como una
de varias disciplinas relevantes al estudio de la actividad científica –junto con la
historia, la psicología y la sociología de la ciencia. El componente prescriptivo se
elimina, o al menos se reduce, de manera considerable. Se pone en duda incluso
la idea de que pudiera haber tal cosa como una “filosofía de la ciencia en
general” y se presta mucha atención a las disciplinas particulares. Parecería que
incluso se piensa que antes de intentar volver a proponer grandes
generalizaciones es necesario encontrar primero, inductivamente, patrones
locales en grupos o familias de disciplinas.

Pero sigue poco claro cómo se resuelve lo que, en principio, podría


considerarse el problema central de la filosofía de la ciencia: el de la evaluación
de teorías. Aún concediendo que sus teorías sean tratadas como teorías
empíricas, en mi opinión, lo que se logra es empeorar la situación previa a la
“naturalización” de la disciplina: antes el problema era determinar si era posible
extraer lecciones sobre la evaluación de las teorías científicas; ahora hay que
añadir las de la propia filosofía de la ciencia. La solución pudiera estar en el
28

cambio de escala y estrategia: se analizan disciplinas particulares (e incluso


episodios particulares dentro de esas disciplinas): esto es, la escala es local; y se
espera poder generalizar al final: es decir, se adopta una estrategia inductiva
(que es la ruta que parecería favorecer Willey [2002]). Olivé [2000] favorece otra,
basada en un constructivismo realista interno y plural, que comentaré luego
(Capítulo 17).

En paralelo, parecería que algunos filósofos de la ciencia están dispuestos


a cambiar también la orientación metodológica: ir de una orientación que en
antropología se llama “etic”2 (es decir, en donde la evaluación se hace por
criterios independientes y normalmente externos a los de la cultura que se
estudia), hacia una orientación “emic”, en la que la última palabra la tienen los
propios miembros del grupo estudiado [Harris 1982, orig. 1968: capítulo 20, esp.
p.510 y ss.]. No sé si entiendo completamente la motivación y el grado al que
este cambio está teniendo lugar, pero en definitiva presenta un problema para la
arqueología (y creo que para cualquier disciplina en general): ¿a qué nativo
creerle?

Para entender porqué esto presenta un problema, regresemos brevemente


a la situación que genera la motivación para esta tesis: un grupo de arqueólogos,
representados por Blanton, están convencidos de que la teoría de SPS ha sido
refutada o, al menos, que debe abandonarse [Blanton 1981]. Otro grupo
(notablemente representados por los autores de la teoría y sus seguidores) parece
pensar que la teoría no solamente no ha sido refutada, sino que está quizá
bastante ”comprobada”. ¿A cuál de los dos “nativos” creer?

El ejemplo tiene otros filos de interés: los términos “refutada” y “confirmada”


(o, más frecuentemente en la tradición arqueológica, “comprobada”) no son
originales del lenguaje de la arqueología. Han sido tomados en préstamo por los
arqueólogos (e internalizados a veces con significados diferentes a los que tenían
en sus contextos originales) desde la filosofía de la ciencia (la del neopositivismo o
incluso de tradiciones previas). Es decir, estos “nativos” no son “nativos” que no
hayan recibido el impacto de la aculturación de la filosofía de la ciencia.
Pretender que son “neutrales e ingenuos” me parece muy poco creíble.

Una solución posible sería el aumentar la escala del análisis: salir del
provincialismo de dos grupos en oposición y consultar a la comunidad en general
a la que pertenecen. De nuevo surge un problema: ¿a cuál comunidad?;
aunque, en este caso, parecería ser que el consenso se inclinaría hacia la opinión
de que la teoría de SPS ha sido refutada. Pero diferentes comunidades
probablemente tengan opiniones distintas, si no en torno a esta teoría en
particular, sí en relación a asuntos de aún mayor envergadura. La mejor
evidencia de este problema es el debate actual entre los arqueólogos
procesuales (tradición originaria de Estados Unidos) y sus críticos, los llamados

2
La distinción original entre “emic” y “etic” se debe a Keneth Pike, misionero y lingüista,
que la introduce en 1954, en su libro Language in relation to a unified theory of the
structure of human behaviour (1954:8, en Harris 1987:492, orig. 1968).
29

posprocesuales a los que, siguiendo a Renfrew, yo prefiero llamar “anti-


procesuales”. Tomando a una subcomunidad dentro de este segundo grupo, el
de los arqueólogos interpretativos, vemos que no existe ni siquiera acuerdo en
cuanto a cuál es el objetivo que debe perseguir la arqueología: ellos proponen
que es la comprensión interpretativa (“verstehen”, o “understanding”, en lo
sucesivo simplemente “comprehensión”, o “comprensión”), mientras que la
arqueología procesual reivindicó la explicación como meta de la arqueología,
meta que supuestamente comparte con el resto de las ciencias.

El recurso de incrementar la escala, como se ve, ayuda poco. Y tampoco


resuelve el problema de que los “nativos” en cuestión no son inocentes: se
nutrieron de la filosofía de la ciencia de una o varias generaciones atrás; sus
posturas no son asépticas en torno a las recomendaciones prescriptivas de la
filosofía de la ciencia. Y ocurre con el debate entre estas dos tradiciones que
discuten “a propósito cruzado” (cross-purposes) lo cual, como señalaba Kuhn, es
común que suceda entre miembros de diferentes paradigmas.

La filosofía de la ciencia no solamente como una disciplina analítica,


sino como una ética de la actividad científica
En un acto sin duda de arrogancia y osadía, dado que el asunto supera mis
capacidades –y rebasa los límites de esta tesis- permítaseme intentar cuando
menos una conjetura razonada al respecto de este primer problema: el de si la
filosofía de la ciencia debe o no renunciar a su lado prescriptivo y si es posible que
se convierta solamente en una disciplina empírica más, evaluable como se
evalúan otras disciplinas empíricas. Nótese que mi argumento no será en el
sentido de que debe evitarse que ciertos aspectos de la filosofía de la ciencia se
“naturalicen”, sino en torno a por qué no veo ni viable ni conveniente que se
naturalice en su conjunto. Presentaré, de hecho, dos argumentos: el primero,
basado en el paralelismo entre epistemología y filosofía de la ciencia; el segundo,
como una caracterización de la actividad filosófica en general.

En cuanto al primero, de una fuerza limitada, por supuesto, en la medida


en que depende de una argumentación por analogía, la tesis sería que, si
atendemos al éxito que ha tenido el intento de “naturalizar” la epistemología,
cuyos inicios se atribuyen en tiempos modernos a Quine [1969], a casi cincuenta
años del inicio de este movimiento, la epistemología sigue viva como disciplina
filosófica. De nuevo, el centro del asunto no es que haya elementos de la propia
epistemología que merezcan ser naturalizados, o aprovechen de un enfoque
naturalizador; más bien, me parece que muchos temas originalmente
“epistemológicos” de hecho han sido absorbidos para bien por la ciencia
empírica, como ciertos aspectos de la percepción, que hoy tratan la
neuropsicología y la ciencia cognitiva. Y mi argumento es que este fracaso (al
menos parcial) de las pretensiones naturalizadoras se debe precisamente a las
mismas razones: por un lado, a que la reflexión epistemológica es de una gran
generalidad, que ninguna disciplina empírica particular puede cooptar o acotar;
30

siempre será posible hacer la pregunta epistemológica básica (“¿cómo sabes


que…?”), que es previa o está detrás de cualquier pretensión de conocimiento,
independientemente del campo.

Me imagino que esta característica es la responsable de que, durante


mucho tiempo, se considerara a la epistemología como una especie de “reina de
las disciplinas filosóficas”, dado que sus preguntas pueden hacerse no solamente
sobre cualquier enunciado empírico, sino también filosófico. En el momento en
que están en discusión la justificación o la verdad de un enunciado, en ese
momento la discusión es una meta-discusión (elemento al que regresaré
adelante) que puede sin injusticia ser llamada “epistemológica”. Entonces, incluso
los intentos de naturalización que no provienen de la filosofía misma, sino de las
ciencias empíricas, como es el caso de la llamada “epistemología genética” de
Piaget, son sujetos de una discusión que no se resuelve en el marco interno de la
teoría piagetana. Puedo preguntarme si la capacidad de conocer tiene un
sustrato evolutivo; y a lo que conteste puedo aplicarle la pregunta
epistemológica básica, cuya respuesta no podrá provenir de la propia teoría
piagetana, so pena de que entonces ésta sea circular y no pueda, en
consecuencia, competir con otras teorías epistemológicas naturalizadas, que con
justicia señalarían que dicho procedimiento las pone en desventaja.

El argumento de la generalidad de la epistemología, de su carácter


fundacional, sin embargo, ha tenido sus críticos. Y uno de ellos, en mi opinión,
apunta en el proceso a una característica de la epistemología que es relevante a
mi segundo argumento sobre la naturalización de la filosofía de la ciencia social.
¿Por qué deberíamos preocuparnos por responder la pregunta epistemológica
básica? La respuesta típica sería: para, en lo posible, contar con justificación para
nuestras creencias; pero ello solamente abre otra pregunta ¿Por qué es bueno
contar con justificación para nuestras creencias? No importa qué contestemos, la
pregunta misma muestra que la generalidad y carácter fundacional de la
epistemología debe rendirse ante una pregunta entonces previa, de carácter
valorativo. Ello lleva a este autor a proponer que, en realidad, la epistemología no
es sino una ética del conocimiento. Y que quizá la auténtica reina de las
disciplinas filosóficas sea la ética (ver Brandt [1967), para una discusión de los
paralelos entre epistemología y ética).

Se ha señalado que el argumento no es conclusivo, dado que podríamos


preguntarnos cómo sabemos que el bien (o en este caso, la verdad) es el valor
que debemos promover. Pero en el “debemos” de nuevo ha entrado la
valoración, así que el debate no se resuelve fácilmente. Mi interés no es aquí
resolverlo, sino mostrar que hay un componente valorativo implícito en la
epistemología, que resulta tan fundacional como la propia pregunta
epistemológica básica. Y si este componente fuera constitutivo de la
epistemología (y en mi opinión lo es), entonces ningún intento de naturalización
podrá ser completo, porque siempre quedará este “residuo valorativo” (o
fundamento valorativo, como prefiero llamarlo) que no podrá ser absorbido por
31

disciplinas empíricas particulares, como la psicología cognitiva o la


neurofisiología.3

Si se acepta la existencia de este componente valorativo de la


epistemología entonces se entenderá por qué el intento de naturalizar la ciencia
natural no tendrá más éxito que el que pueda tener la naturalización de la
epistemología: sostengo que, en sus aspectos más distintivos, la filosofía de la
ciencia, como su nombre lo indica, no es sino la epistemología de un tipo
particular de conocimiento, el conocimiento científico. Y ahora, de nuevo por
analogía, propongo que si esto fuera así, la filosofía de la ciencia heredaría de la
epistemología ese componente valorativo. Sería, además de otras cosas, una
“ética del conocimiento científico”, intentando plantear las directrices para
conseguir un conocimiento confiable. Si este componente valorativo se rechaza,
entonces no hay manera de justificar por qué la verdad (o al menos la ausencia
de falsedad reconocida) es una propiedad deseable de nuestras teorías. El
adjetivo revela este componente valorativo. La filosofía de la ciencia, bajo este
argumento, no podría renunciar a sus aspectos prescriptivos sin renunciar a un
componente vital de su quehacer.

Otro asunto, al que ahora paso, es cómo, desde dónde o quién debe
construir este aspecto prescriptivo, asunto que nos lleva a la segunda de las
preocupaciones planteadas al inicio de esta sección: el de la pertinencia,
relevancia o necesidad de la intervención filosófica en la arqueología. Y si esa
intervención es absolutista o permite la pluralidad.

La filosofía de la ciencia y la arqueología: historia de una catástrofe


anunciada (e innecesaria)
Varios libros relativamente recientes se han dedicado a analizar la
complicada relación entre la filosofía de la ciencia y la arqueología (Wylie [2002],
Pinsky and Wylie [1989], Embree [1992], Hanen and Kelley [1989], Kelley and Hanen
[1988]). Este análisis se hacía indispensable, sobre todo después de comentarios
como el de Renfrew [Renfrew, et al. 1982], hecho en el periodo de interés de esta
tesis: quizá había llegado el momento de reconocer que proponer la explicación
como meta, basada en modelos generados por la filosofía de la ciencia (y en
particular, el de Hempel), no había funcionado; y revisar la utilidad o pertinencia
de la manera en que los arqueólogos estábamos tomando de dicha disciplina. O
todavía más directo hacia la Nueva Arqueología: Binford nunca produjo una ley
[Renfrew 1983:4-5) y salvo por los arqueólogos “de la ley y el orden”, criticados en
3
Esto asumiendo que las ciencias se centran en cuestiones de hecho y no de valor. Claro
que otra manera de enfrentar el asunto es abolir esta distinción y reconocer que las
propias disciplinas empíricas contienen elementos valorativos. Pero, para que el programa
naturalizador se cumpla, entonces, habrá que naturalizar no solamente la epistemología,
sino la ética. Y de hecho, de lograrse, se resolvería de paso un problema apremiante de
las ciencias sociales y es que no parece ser posible hacer una ciencia social sin un punto
de vista ético y político explícito. Las limitaciones que había que fijar para escribir esta tesis
me impiden profundizar en este tema, pero creo que las propuestas de Peter Railton sobre
realismo moral pueden ser parte de la solución.
32

1973 por Flannery [1973a), no mucha gente parece creer en eso. Otro comentario
indicativo del tono de las cosas en esas fechas es el de Johnson quien, reseñando
un libro editado por Renfrew, considera necesario iniciar diciendo que:

“Como alguien que tiene simpatía por aquellos cuyos ojos se ponen
vidriosos a la primera mención de cuestiones epistemológicas,
déjenme decir solamente que estoy de acuerdo con Renfrew en
que la relación entre la teoría y los datos debe ser reflexiva. Los
contribuyentes de este volumen quizá estén demasiado cercanos a
los datos, pero cuando menos están cercanos a algún dato. Esta es
una condición que va en declive en los Estados Unidos –y una que
incluso se considera ideológicamente sospechosa en algunas
partes” [Johnson 1983:643; énfasis en el original).

De manera aún más directa esta utilidad fue cuestionada un año antes por
Flannery [1982), en un artículo que es una pieza excepcional de la literatura
arqueológica: con un notable despliegue de la creatividad, sentido del humor y
perspicacia de este autor, uno de los más grandes genios, sin duda, de la
arqueología de todos los tiempos. Podría considerarse una obra maestra y un
punto de referencia para muchas generaciones. Pero también es una diatriba
contra lo que Flannery considera los abusos e irrelevancia de la filosofía de la
ciencia, de los que aparentemente está ya harto y en los que ve poca promesa
(quizá uno en diez haga una contribución). Lo que requerimos es un regreso a los
datos. El tono es claro desde el inicio, un epígrafe tomado de un premio Nobel:
“Estoy felizmente demasiado ocupado haciendo ciencia como para tener
tiempo de preocuparme de filosofar sobre ella” [Flannery 1982:265).

En esta “parábola para los 80s” tiene tres personajes ficticios, recurso que
permite que los destinatarios reales de los ataques no puedan responder; uno de
los interlocutores de Flannery durante el viaje en el que tiene lugar la historia, es un
arqueólogo que era torpe en el campo, estaba frustrado y en su momento “más
oscuro”, descubrió la Filosofía de la Ciencia y volvió a nacer” [Ibíd.):

“De repente se dio cuenta que el mundo crearía un sendero hasta


su puerta si criticaba la epistemología de los demás. De repente
descubrió que mientras su diseño de investigación fuera
extraordinario, no tendría ya que llevar a cabo la investigación;
nada más publica el diseño y sería considerado como modelo, un
anillo de bronce que cuelga inalcanzablemente lejos de aquellos
que realmente hacen recorridos de campo y excavan. No más
polvo, no más calor, no más cuadrados de 5 pies [que este
incompetente jamás pudo trazar correctamente]. Ahora trabaja en
una oficina, generando hipótesis y leyes y modelos que un
interminable flujo de estudiantes de posgrado ahora serían enviados
a probar; porque él mismo ya no haría ningún trabajo de campo”
[Flannery 1982:265:266).
33

El personaje central de la historia, el “Old-timer” (o “viejito”) oye primero


con paciencia las “leyes” (invariablemente triviales o de otras ciencias) que el
“filósofo-vuelto-a-nacer” ha “explicitado”. Luego, ya medio irritado, propone a los
otros dos interlocutores una analogía entre la arqueología y el foot ball
americano: típicamente el comentarista deportivo más ruidoso y crítico es
precisamente el que nunca fue jugador; y que, desde su cabina de transmisión,
lejos del sudor y el esfuerzo físico de la cancha, en el área de prensa que está
colocada “en lo alto, distante, Olímpica, cerebral y verbal. Dios, vaya que si es
verbal”, pontifica sobre un juego que realmente hacen los que están en la
cancha:

“Lo que está pasando ahora es que estamos encontrando un nuevo


tipo de arqueólogo. Es una especie de Howard Cossell [el odiado
comentarista deportivo americano]. Se sienta en su cabina muy alto
sobre el campo de juego y cita a Hempel y a Kuhn y a Popper. Trata
de adivinar [second-guess] la estrategia de los jugadores y nos dice
cuando no estamos a la altura de sus expectativas. ‘Lew Binford’
dice, ‘fue alguna vez una de las mentes más rápidas en el campo,
pero francamente, esta temporada ha perdido un paso o dos’. O,
‘Es chocante ver a un veterano como Struever cometer un error de
principiantes como ese’”

“Lo que me preocupa, hijo, es que cada año haya menos gente en
el campo de juego y más en la cabina. Se puede vivir bien en la
cabina, pero es un lugar que genera mucha arrogancia. Nadie ahí
nunca falla una patada o, para tal efecto, se equivoca clasificando
ollas o echa a perder el dibujo de un perfil. Hacen juicios sobre otros,
sin exponerse ellos mismos a la crítica. Los tipos de la cabina logran
mucha visibilidad y algunos hasta se convierten en celebridades. Lo
que raramente se señala es que tienen poco si es que algún
impacto estratégico o teórico sobre el juego, porque están
demasiado retirados de la cancha” [Flannery 1982:271).

Afortunadamente, los jugadores reales saben eso, según el Old-Timer. Y


saben que los de la cabina los ven como trabajadores manuales y ya están hartos
de eso. Sobre todo cuando se pretende crear un nuevo campo de “teoría
arqueológica”, una misión más elevada y prestigiosa. “Y si eso no fuera
suficientemente malo, algunos están empezando a pensar que son filósofos de la
ciencia”, lo que quizá sería excitante de no ser porque “eso es lo único en lo que
son peores que para la arqueología de campo”; y ni siquiera su incipiente diálogo
con los filósofos reales los salva, porque ahora tendremos “filósofos que no saben
nada sobre la arqueología, asesorando a arqueólogos que no saben nada sobre
filosofía” [Íd.:272). El Old-timer piensa que es suficiente hacer una contribución
cuando menos a la arqueología: “Creo que preferiría ser un arqueólogo de
segunda que un filósofo de tercera” [Ibíd.). Lo que el mundo espera de nuestra
disciplina es aprender algo sobre el pasado de la humanidad, “no quiere que le
demos filosofía”. La mejor razón por la que se hace arqueología es para satisfacer
la curiosidad intelectual del arqueólogo, no por alguna pretensión de relevancia
34

más allá de lo que el público espera de nosotros. “Odiaría ver que nos
confundiéramos tanto… que dejáramos de hacer lo que hacemos mejor…
Nuestra responsabilidad principal es hacer buena investigación básica” [Ibíd.).

La idea es clara: “No necesitamos muchas de nuestras llantas ponchadas


[se entiende, arqueólogos deficientes] vulcanizadas y convertidas en filósofos”
[Ibíd.:278). El Old-Timer piensa que hay muchos premios y reconocimientos para
logros intelectuales en la disciplina: lo que él quiere es uno “solamente por el
compromiso con la investigación básica al viejo estilo y la ética profesional”
[Ibíd.).

Estas opiniones de Flannery, que se supone que “nadie debería buscar algo
muy profundo” en ellas [Flannery 1982:265) pasaron a la literatura como el mejor
ejemplo punto de vista para el que la filosofía de la ciencia es irrelevante o inútil
en arqueología, tal como atestiguan las opiniones de autores posteriores [Dunnel
[1989), Hanen y Kelley [1989), Wylie [1989a), Embree [1989)). Los especialistas en
esta temática apuntan a que esta reacción, cuya severidad quizá era
exagerada, responde sin embargo a una insatisfacción real y sentida por la
comunidad de arqueólogos, que Flannery simplemente articuló de manera
magistral con su inigualable y divertido estilo literario.

La relación entre ambas disciplinas no se inicia, como en ocasiones pudiera


pensarse, con la arqueología procesual o “Nueva Arqueología”: existen
antecedentes que se remontan cuando menos a la década de 1930, con autores
como Collingwood, que era a la vez arqueólogo, historiador y filósofo
hermenéutico[Collingwood 1946), o el multicitado trabajo de Kluckhohn [1939).
Pero es sin duda con la Nueva Arqueología que la filosofía de la ciencia toma un
papel central. Binford [1972:8) atribuye a su maestro, Leslie White, su interés en la
filosofía de la ciencia (White incluso llegó a publicar en revistas especializadas de
este campo -ver Gándara [1983:81)).

Impresionado por la filosofía neopositivista, Binford vio en ella la posibilidad


de fundamentar las pretensiones científicas de la arqueología. Es factible ubicar
la fecha aproximada en que esto sucedió, dado que es a partir de ese momento
que las referencias al método hipotético-deductivo y a la explicación en el
modelo hempeliano hacen su aparición: alrededor de 1965 este componente, el
último de los que en mi opinión constituyen la arqueología procesual, estaba
sólidamente establecido como uno de los ejes del programa [Gándara 1983).

Algunos de sus discípulos, notablemente Watson, Le Blanc y Redman


[Watson, et al. 1971), Fritz y Plog [1970), entre otros, se tomaron a pie juntillas la
convocatoria, de forma tal que para 1971 se proclamaba la naturaleza científica
de la arqueología procesual precisamente porque se fundaba en la propuesta
neopositivista de la naturaleza de la ciencia.
35

En otro trabajo he intentado mostrar que el conocimiento al respecto, al


menos de Binford4, era limitado. Pero que, como consecuencia del explosivo éxito
de la Nueva Arqueología y el consecuente prestigio y autoridad de su líder
indiscutido, Binford pasó de leer filosofía de la ciencia a intentar escribir su propia
versión del asunto, combinando con singular gusto a autores incompatibles, como
Hempel y Kuhn, sin que en ningún momento se notara (al menos para ese
momento, que cae precisamente dentro de nuestro periodo de estudio, 1981)
que se daba cuenta de las inconsistencias a que esta combinación conduce.

Si el conocimiento de Binford era limitado, el de sus seguidores (fuera de


algunas contadas excepciones) lo era aun más, dado que simplemente citaban
a Binford como la fuente de sus propios pronunciamientos. Es decir, las referencias
que Binford usó originalmente fueron las únicas que durante un tiempo circularon
entre sus seguidores de segunda y tercera línea (y no es claro que éstos realmente
las leyeron). En estas circunstancias era difícil que cualquiera de ellos se diera
cuenta de que, para el momento en que la Nueva Arqueología adopta el
Neopositivismo, éste había iniciado ya su caída en picada, atacado por varios
flancos: el enfoque historicista de Kuhn, las críticas del racionalismo crítico de
Popper y sus discípulos (notablemente Lakatos), la filosofía analítica inspirada en
el segundo Wittgenstein y el renovado y creciente interés en los enfoques
neopragmatistas, para mencionar solamente algunos. Una indicación del estado
de cosas fue la aparición, en 1969, del libro de Achinstein y Barker [Achinstein and
Barker 1969), titulado “La herencia del Positivismo Lógico”. Era claro que, al menos
para sus críticos, para inicios de la década de 1970 el neopositivismo había
perdido la clara hegemonía que tuvo durante mucho tiempo en la filosofía de la
ciencia occidental.

Para desgracia de los arqueólogos procesuales, la filosofía neopositivista no


era una fuente de discusión que había que analizar críticamente en relación con
otras posiciones disponibles en ese momento, tal como han señalado varios
comentaristas [[Wylie 1989b:, 2002), [Kelley and Hanen 1988), [Embree 1992)]. Para
los procesuales (y me incluyo en el grupo en ese momento, inicios de los 70’s), la
filosofía neopositivista era la prescripción para hacer de la arqueología finalmente
una ciencia. Citábamos a los filósofos neopositivistas como fuente de legitimación
y como recurso de autoridad5: lo habían dicho los sabios filósofos de la ciencia y
no había más que discutir.

4
Una excepción debe haber sido Patty Jo Watson, cuyo marido de ese momento era
filósofo profesional, por lo que ella tenía seguramente acceso a una literatura que el resto
del grupo parece haber desconocido.
5
En México el gusto nos duró poco, porque con la popularización del marxismo en las
universidades latinoamericanas, pronto fue claro que el neopositivismo no era ni la única
ni quizá la mejor de las posibilidades. En lo personal, este descubrimiento (que pudo haber
sido más bien un encontronazo) afortunadamente no tuvo consecuencias trágicas,
gracias a que mi interlocutor desde el marxismo, Felipe Bate, tuvo desde entonces una
enorme paciencia e interés en discutir mis puntos de vista. Durante un tiempo incluso
algunos de nuestros alumnos comunes intentaron integrar ambos puntos de vista, en lo
que luego fue sarcásticamente llamado “marxitivismo”...
36

Esta situación tampoco duró mucho en Estados Unidos y, para mediados


de la década de 1970, se incrementó el número de artículos cuestionando alguno
u otro aspecto de la aplicación del neopositivismo [ver Gándara 1983 para una
lista de autores relevantes en cuanto al tema de la explicación y las leyes, o el
excelente resumen global del impacto de esta corriente en la arqueología
procesual de Kelley y Hanen [1988)]. Es notable la participación que tuvo Merilee
Salmon, compañera del filósofo Wesley Salmon en estos debates, por ejemplo
[Salmon 1975)) y en los que el propio Wesley finalmente se involucró [Salmon
1998a:, 1998b). Mi impresión es que la intención de Salmon no se entendió: que las
propuestas filosóficas estaban siendo objeto de intensos debates y que, en
consecuencia, no debían tomarse como verdades definitivas; por desgracia,
parecía más bien que los Salmon simplemente querían vender su producto, que
sustituiría al de Hempel, pero con el mismo espíritu autoritario. Esta impresión mía
es subjetiva, por supuesto, pero recuerdo con plena claridad, es la que parece
haber recibido también Renfrew y de ahí el comentario citado antes. Podía
pensarse que los filósofos estaban peleándose el mercado de la arqueología y no
ayudándonos a entender las limitaciones que cualquier propuesta podría tener
para nuestra disciplina.

Me parece que los analistas citados [Hanen, Embree, Wylie] aciertan en lo


fundamental, al señalar que uno de los elementos que viciaron la relación entre la
filosofía de la ciencia y la arqueología fue precisamente esta adopción casi a
ciegas y de manera acrítica del neopositivismo. Pero me parece que es Dunnel
[1989) quien, con su característica claridad, va más allá para presentar lo que le
parecen las razones por las que se pasó, muy rápidamente, de ver a la filosofía de
la ciencia como la fuente de legitimación (inicios de la Nueva Arqueología) a
verla como un obstáculo y una genuina pérdida de tiempo: irrelevancia a la
operación cotidiana de nuestra disciplina, uso autoritario de argumentos
filosóficos, falla en considerar posiciones alternativas, arrogancia. Y, según él,
estas razones van más allá del hecho de que el neopositivismo estuviera ya
moribundo para cuando lo adoptó la Nueva Arqueología.

Las críticas de Dunnel, aunque quizá demasiado severas (y no es solamente


mi parecer, sino el de Embree [1989), en mi opinión son certeras y justas. Es más,
cualquiera que proponga una nueva relación entre la filosofía de la ciencia y la
arqueología tiene que enfrentarlas y dar soluciones exitosas a los problemas que
Dunnel plantea. Dado que precisamente esta tesis es un intento de mostrar la
utilidad de muchos hallazgos de la filosofía de la ciencia, creo que es ineludible
que intente contestarlas. Y lo haré por la vía teórica, aportando algunos
argumentos al debate, y por la vía práctica, dado que el procedimiento de
análisis que propondré no es otra cosa que la aplicación de criterios y
lineamientos derivados de la propia filosofía de la ciencia.
37

La cápsula del tiempo


En cierto sentido, decíamos que el centro de este trabajo es como una
“cápsula del tiempo”. Es decir, como esas muestras de una generación que
incluyen elementos representativos de un momento histórico y son luego
enterradas dentro de contenedores especiales que aumentan la probabilidad de
que se preserven para el futuro. Los estadounidenses lo hacen de manera regular.

Mi cápsula del tiempo tiene que ver con la discusión sobre el origen del
Estado, tal como ésta se daba, sobre todo en el mundo anglosajón, alrededor del
momento en que se publica The Basin of Mexico [1979). Es decir, tomando la obra
de SPS como eje, examinaré, en la medida de lo posible, con los ojos de ese
momento que me tocó vivir y con las herramientas disponibles para esa época, el
debate en torno a esta teoría y, en particular, sobre su estatuto: el mejor ejemplo
de una teoría refutada, o una teoría prácticamente corroborada6, al grado de
convertirse en “La Biblia Verde”. Limito de esta manera el ámbito del estudio,
dado que no pretendo rastrear ni todos los antecedentes que llevaron a la
publicación del libro desde décadas atrás, ni todas las reacciones que la teoría
ha suscitado desde 1979 hasta nuestros días, simplemente porque una empresa
de tal tamaño rebasa tanto las posibilidades de tiempo como las de
conocimientos que este doctorante tiene en esta coyuntura particular. También
encuentro muy difícil (y vaya que si lo intenté), el mantener una narrativa en
varios planos temporales: lo que se pensaba en la época, pero cómo luego la
teoría en arqueología cambió y qué efecto tuvo esto una década después en las
evaluaciones del problema, que a su vez estaban inspiradas en cambios en la
filosofía de la ciencia de la década previa, etc. Aquello es realmente imposible
de resolver, al menos con las restricciones que tiene el texto linear. Albergué
ingenuas fantasías en algún momento en torno a resolverlo mediante el recurso
del hipertexto, dado que ahora crear un texto que contenga a otros textos y
establezca ligas entre sus componentes es algo que incluso el procesador de
palabras que estoy usando podría en principio resolver. El asunto es el tiempo
requerido para resolverlo. Así que abandoné (más tarde de lo que la prudencia
hubiera requerido) esa pretensión y opté por este otro recurso, el de limitar el
trabajo a un marco temporal en torno a 1979, fecha de publicación de la teoría
de SPS.

Ello no implica que no buscara reconstruir al menos parte de la historia de


la recepción de la teoría, o rastreara algunos impactos más tardíos que los años
inmediatamente subsecuentes a su publicación. En particular, el debate entre el
grupo de Michigan (del que era miembro Blanton en ese momento) y el de Penn
State (el departamento desde el que se construyó la teoría), no terminó con la

6
En sentido estricto, sin embargo, no existe un estudio o caso en particular que pretenda
haberla corroborado. Más bien se tomó como tal, aunque más quizá como un acto de fe
que por haberse examinado sus consecuencias. La fama de Sanders en México era muy
fuerte en la década de 1970 y su contribución empírica muy reconocida. De alguna
manera este respeto se extendió a su teoría. Pero como señala Verenice Heredia, una de
mis sinodales, no podría señalar una obra o autor que pudiera señalarse como la
corroboración de SPS.
38

reseña de Blanton que citamos antes. El intercambio entre los alumnos y


seguidores de Sanders y los de Flannery prácticamente ha seguido dos décadas
después. El corpus resultante –centrado muchas veces en cuestiones de detalle
empírico- es enorme y no todo relevante a mi interés central aquí: el de ver cómo
se resuelve el problema de determinar si una teoría estaba refutada o no7. Es en
ese sentido que me interesa la teoría de SPS. Un trabajo de historiografía de sobre
cómo se han entrelazado y reaccionado la una a la otra las obras de estos dos
gigantes de la arqueología y sus respectivos seguidores es una tarea altamente
apetecible, pero no la mía en esta tesis.

Recuperaré solamente un momento en esa trayectoria que queda fuera


de momento histórico de interés señalado (finales de la década de los 70’s, inicio
de los 80s’s), que es el nuevo intercambio entre ambos bandos a raíz del libro
editado por Marcus precisamente para contestar a dos interlocutores: Sanders,
por un lado y Marcos Winter por otro, a inicios de la década de 1990. Y lo hago
porque el discurso de Blanton en este nuevo enfrentamiento explícitamente hace
uso de la filosofía de la ciencia, para tratar de presentar una imagen de Sanders,
ya no solamente como un arqueólogo necio que propone teorías obsoletas, sino
como un ejemplo de “deshonestidad intelectual” y el problema sigue siendo la
manera en que se interpretan los datos tanto de la Cuenca de México como del
Valle de Oaxaca y los puntos de vista que conducen hasta dos visiones diferentes.

Así, nuestra atención se centrará en esa cápsula del tiempo, de la que


solamente saldremos en la tercera parte de este texto, para tratar de evaluar una
intuición que me persigue desde 1982: hasta dónde el refutar a diestra y siniestra
teorías podría llevar de regreso a la arqueología hacia una nueva forma de
particularismo histórico. Las recientes pretensiones de Yoffee [2005) de haber
refutado ya no una teoría en particular, sino toda una posición teórica, la que él
llama “neoevolucionismo” y en la que ubica explícitamente a Sanders [Id.:20, 22,
26). Aunque pudiera ser una casualidad, Yoffee labora para la misma universidad
que Flannery: la Universidad de Michigan.

Es importante aclarar, de entrada, precisamente en el contexto del diálogo


entre estos dos grupos, que la iniciativa de tomar como caso de estudio la teoría
de SPS no es el resultado de una sugerencia o solicitud por parte de Sanders o
alguno de los otros autores. Por el contrario, una vez en los 80’s, otra en los 90’s y
ahora que Sanders vino al Centro de Estudios Arqueológicos [CEQ) del Colegio de
Michoacán (COLMICH) en marzo de 2007 explícitamente a que lo entrevistara en
torno a mi análisis de su teoría, Sanders se ha mostrado reticente (e inclusive uno
podría pensar que hasta no tan terriblemente entusiasmado) con la idea. Como
me dijo esta última vez, antes de empezar con las entrevistas formales: “Pero
Manuel, ¿realmente necesitamos resucitar ese debate? Es agua que hace tiempo
pasó debajo del puente [expresión inglesa para indicar que algo es cosa del
pasado]. ¿Tiene sentido volver a revivir todo ese asunto? [Sanders, comunicación

7
Intentar sintetizar la información empírica sobre la Cuenca de México acumulada desde
1978 a la fecha sería una tesis doctoral en sí. En definitiva no es ese mi interés en este
trabajo.
39

personal, La Piedad, Mich. Marzo 2007). Yo creo que sí. Y si bien Sanders optó por
nunca contestarle (al menos no directamente) a Blanton o a otros de sus críticos y
yo no tengo especial interés en molestar o enemistarme ni con el grupo de
Oaxaca ni con Blanton, a quien conocí en 1973 y por el que siento un gran
respeto, creo que sí es necesario que se oiga “el punto de vista opuesto”, como
dicen en las noticias norteamericanas. Me parece un asunto de elemental
justicia. Del resultado el lector será el árbitro.

La estructura de este texto


He organizado este trabajo en tres grandes partes; en la Primera rastreo
algunos antecedentes que he bautizado como “análisis teórico”, para luego
presentar las herramientas y los criterios que proponemos y que emplearemos en
nuestro caso de estudio, la teoría de SPS. Para ello, primero intentamos mostrar
que el término “teoría” es ambiguo y la primera tarea es distinguir sus diferentes
significados. Esta tarea es prerrequisito para poder proponer entonces dos juegos
de herramientas y criterios distintos: aquellos destinados a analizar una teoría en
sentido holístico (“posición teórica”, el equivalente de la idea de paradigma de
Kuhn) y los que son de nuestro interés central aquí, los destinados a analizar una
teoría particular, en sentido partitivo o “teoría sustantiva”. Se hace también una
rápida revisión del concepto de “explicación”, cuyo papel nos sigue pareciendo
crucial (sorry, Henry) y sus vicisitudes.

En la Segunda Parte se hace la aplicación del análisis teórico a la teoría de


SPS. Se intenta primero delimitar la posición teórica de los autores (o al menos la
del autor principal, Sanders) y se evalúa el resultado del análisis, en particular, si la
teoría realmente estaba refutada, como sostenía Blanton. O a la inversa, si había
recibido considerable corroboración (como parecía pensar Sanders). Se
compara la teoría con otras disponibles en ese momento, para intentar obtener
un “marcador global” que permita definir si la teoría era mejor o peor que otras
teorías disponibles.

En la Tercera Parte se abordan las consecuencias del análisis realizado en


la Segunda Parte. Primero, para la teoría de SPS y los problemas que presenta,
que en nuestra opinión tienen que ver con el ámbito de lo simbólico (que
prácticamente no figura ni en la teoría de SPS ni en las de sus competidores, al no
considerarse en ese momento un tema de tanto interés). Ello nos llevará a
abordar un problema subyacente, el del realismo social, dado que hasta ahora la
mayoría de los abordajes de lo simbólico se hacen desde una epistemología
idealista subjetiva y nos interesa mostrar que esto no es ni necesario ni
indispensable. En seguida se abordan las consecuencias que yo creo resultaron
de la insistencia en refutar, de manera generalmente espuria, teorías creadas en
el marco del neoeovolucionismo: el que ahora, 25 años después, hay quien
pretende haber refutado no una teoría, sino al neoevolucionismo entero [Yoffee
2005). Luego se hace una reflexión global sobre todo el proceso de análisis, los
problemas a resolver a futuro, Se analiza el regreso de las teorías voluntaristas a la
arqueología (bajo el disfraz de “teorías de la acción” o de la agencia); y se
40

intenta fundamentar por qué este tipo de teorías podría constituir un retroceso en
la arqueología y un regreso hacia una forma fortalecida de particularismo
histórico.

Se discute también, aunque de manera indudablemente breve e


incompleta, el problema del pluralismo en filosofía de la ciencia y, en particular, la
versión de Olivé [2000]; así como las razones por las que su análisis me parece a la
vez promisorio pero incompatible con la posición general adoptada aquí, misma
que me imagino pudiera ser calificada como “absolutismo realista”. El que esta
tesis sea una cápsula del tiempo y las propuestas sobre el pluralismo (derivadas de
las críticas historicistas) sean posteriores al periodo de interés, no exime la
necesidad de cuando menos dejar constancia de su existencia y discutir su
relevancia para la arqueología, así como ofrecer, al menos, un esbozo de
justificación de la postura adoptada aquí –que de hecho, el lector verá
simplemente asumida sin mayores comentarios en el conjunto de la tesis.
Notablemente, en la manera en que, mediante un concepto minimalista de
“método científico” recupero una idea que va, aparentemente, a contrapelo de
las que parecen las tendencias actuales, mismas que deben mucho al trabajo de
Laudan [1984] y sus obras siguientes, recuperadas por Olivé [2000]. Bajo dichas
concepciones, proponer que hay un elemento central o históricamente
inmutable en la práctica científica es inaceptable, así como lo es el sugerir reglas
metodológicas y criterios de evaluación generales, universales. Yo adopto en la
tesis el punto de vista históricamente anterior (el del tiempo de mi cápsula), y
opuesto, aunque limito mis pretensiones a la arqueología (y quizá a otras ciencias
sociales), desarrolladas a partir de finales del siglo XIX y consolidadas en los últimos
50 años –es decir, sin una distancia histórica tan fuerte como la que, con razón,
preocupa a los historicistas- aunque distancia histórica al fin.

Finalmente, se relaciona toda esta discusión, aparentemente abstracta y


teórica, con el asunto concreto y práctico de la conservación del patrimonio
arqueológico. La esperanza es mostrar que hay una conexión inmediata entre
ambos aspectos y que la construcción de explicaciones no es solamente un
asunto teórico, sino una posibilidad de generar criterios que nos ayuden a
conservar mejor el patrimonio arqueológico.
41
42

Primera Parte

Antecedentes y herramientas de análisis


43
44

Capítulo 1

Los múltiples significados del término “teoría” en


arqueología
¿Qué diablos es la teoría, para empezar?
Sostener que parte de los problemas de la arqueología contemporánea
derivan de un inadecuado tratamiento de las teorías presupone entender, para
empezar, qué diablos es una teoría. Los cínicos (generalmente no muy bien
intencionados) la han definido por omisión: “teoría es lo que hacen los
arqueólogos que no pueden o no quieren ir al campo” –omito el nombre del
autor del comentario, pero el lector es libre de achacárselo a su propio villano
favorito en la arqueología: prácticamente todos comparten ese punto de vista.

En arqueología generalmente utilizamos el término de manera más o


menos coloquial. Como he señalado en otro lado, muchas veces lo utilizamos
como sinónimo de corazonada o especulación, como cuando afirmamos “yo
tengo la teoría de que en Teotihuacan sí hubo juego de pelota”. A veces lo
utilizamos para contrastarlo con el trabajo práctico, de campo o gabinete (como
en el comentario arriba citado). En otras ocasiones, lo utilizamos para calificar a
una propuesta de utópica o poco realista, como cuando afirmamos, “transformar
la arqueología oficial suena fácil en teoría, pero ya en la práctica…” En varias de
estas acepciones la imagen que se conjura es la del erudito, típicamente
pedante, que pontifica desde su cubículo; un especie de “Petronio, árbitro del
buen criterio”, que desde sus alturas es capaz de opinar sobre lo que los
arqueólogos “de a de veras” hacen o deberían de hacer, pero que rara vez se
ha ensuciado él mismo las manos en el campo.

Pero en otras ocasiones, el uso del término se parece más al que


encontraríamos en otras disciplinas, como cuando nos referimos a “la teoría
neoevolucionista”, o alguna otra corriente antropológica de las que la
arqueología se ha nutrido; o a la “teoría arqueológica”, para referirnos a asuntos
que tienen que ver con la formación y transformación de contextos
arqueológicos; o a la “arqueología posprocesual”, para referirnos a las propuestas
de un grupo notablemente dominado por autores con un estricto acento
británico.

Así, la desesperación de algunos colegas con la teoría empieza por ahí:


parecería que ni siquiera en algo tan básico podemos ponernos de acuerdo:
¿qué, a fin de cuentas, es una teoría? ¿cuándo es legítimo decir que algo es
“teórico”?. No los culpo. Y esta confusión es una en donde una vez más, parece,
la respuesta tampoco vendrá de los filósofos de la ciencia profesionales. Definir
45

qué es una teoría ha sido precisamente uno de los campos de batalla entre los
expertos durante los últimos 30 años -ver, por ejemplo, Suppe [1977a; 1977b;
1977c:36-62)]; o el excelente tratamiento de Diez y Moulines [1999)].

Pero de esa discusión entre los filósofos ha surgido algo que, en ausencia
de un acuerdo, parecería lo mejor a lo que podemos aspirar: una especie de
tácito entendimiento sobre, cuando menos, tres cosas: primero, que no es en
absoluto sencillo trazar una línea que separe a la “teoría” de los “datos” (así, con
comillas ambos); segundo, que quizá parte de la dificultad de definir una teoría (y
de acordar cuándo ha sido refutada), se remite a que cuando utilizamos el
término nos referimos a entidades de cuando menos dos escalas diferentes; y,
tercero, que la articulación entre la teoría y los datos ocurre… ¡sorpresa! a través
de teorías también, similares a las de una de las dos escalas mencionadas, pero
que tienen una función especial.

Veamos estos tres cuasi-acuerdos en detalle.

La distinción entre teoría y datos


En cuanto al primero, la diferenciación entre datos y teoría era crucial a un
grupo en particular de filósofos de la ciencia: aquellos de persuasión
neopositivista, que tenían la esperanza de poder eliminar cualquier referencia a
términos teóricos, como “gravedad”, por referencia a sus expresiones empíricas
(de ahí el otro nombre de esta escuela, “empirismo lógico8”). La insistencia en que
la teoría era una especie de molestia que había que tolerar momentáneamente
no era un simple capricho: al parecer estos filósofos, herederos de una tradición
laica en la filosofía, y todos ellos practicantes de alguna ciencia (típicamente una
ciencia “dura”, como la física o las matemáticas), tenían miedo a que, a través
de estos términos “teóricos” que referían a entidades invisibles, como la
gravedad, entraran por la puerta de atrás todo tipo de entidades “metafísicas” y
“místicas”. Es fácil ver cómo podría pasar algo así: ante el reclamo de un
escéptico sobre la existencia de la gravedad, que nunca vemos directamente, el
empirista diría que la vemos a través de sus efectos, como la caída de los
cuerpos. Pero si el escéptico fuera al mismo tiempo una persona religiosa podría
de inmediato contestar: “igual que a Dios, al que nunca vemos directamente,
sino sólo a través de sus obras”. Este riesgo era aparentemente inaceptable para
los neopositivistas9.
8
Hay quien separa al neopositivismo en dos momentos históricos: al primero le llama
“positivismo lógico” –y abarcaría desde la publicación del Tractatus hasta la diáspora del
Círculo de Viena ante la amenaza Nazi; y al segundo le llama “empirismo lógico”, que
correspondería a lo que se produjo ya desde el exilio, particularmente desde los Estados
Unidos.
9
Me centro en la influencia de esta corriente porque fue fundamental para el desarrollo
de la arqueología procesual; pero, como señala Iwaniszewski, no es la única que tuvo un
impacto en la teoría arqueológica (Comunicación personal, México, Febrero 2008); es
claro que la arqueología interpretativa (y otras arqueologías posprocesuales) abrevaron
en fuentes diferentes, más ligadas a la tradición filosófica “continental”, en particular, la
hermenéutica.
46

En consecuencia, iniciaron una serie de intentos, desde la década de 1930,


para lograr una versión de la ciencia que asignara a la teoría simplemente un
papel de puente temporal entre evidencias observables, para determinar las
sucesiones de eventos de las que dan cuenta las leyes científicas. Pero al paso del
tiempo, y en manos de críticos como Norman O. Quine, el proyecto empezó a
hacer agua. Quine [1961b) mostró que no había manera sencilla de determinar
cuándo estábamos en presencia de algo “observable” en oposición a una
entidad “teórica”. El detalle de estos argumentos rebasa nuestros objetivos en
este texto (aunque el lector interesado puede consultar la excelente antología
preparada por Olivé y Pérez Ranzanz [1989b); o la de Grandy [1973); o el resumen
breve de esta discusión en Gándara [1988a)). Aquí simplemente delinearé los
elementos centrales del debate.

Quine y otros críticos [notablemente Popper 1963; Popper 1980; Hanson


(1958: capítulo 1), y particularmente Achinstein (1968: capítulo 5) y Putnam 1989]
señalaron que el que algo sea teórico depende del estado del conocimiento de
ese momento y, en particular, de nuestras posibilidades de observarlo. Así, las
bacterias eran entidades teóricas hasta que se inventó el microscopio óptico; los
virus eran teóricos hasta que se inventó el microscopio electrónico; los electrones
eran teóricos hasta que se diseñaron las “cámaras de nubes” en las que es
factible ver su traza; y así con otros ejemplos. Parecería que nuestra asignación de
un término a una u otra categoría depende del desarrollo de nuestros
instrumentos de observación. Por otro lado, algunos de estos instrumentos de
observación tendrían en realidad muy poco de “observacionales”: sin una teoría
que explique qué es una radio-estrella, y otra que diga como esta estrella crea
ciertos efectos en un detector sensible, que a su vez los traduce en puntos en una
pantalla, es difícil entender en qué sentido “observamos” la estrella en un monitor.
Toda la observación está ineludiblemente teñida de teoría, como señaló con un
gusto casi morboso Feyerabend [1965), como escupiendo sobre la tumba de
empirismo.

Para 1975, incluso Hempel, uno de los pilares del neopositivismo, y sin duda
un hombre con un admirable y ejemplar sentido de la honestidad intelectual, tuvo
que reconocer que la distinción entre lo teórico y lo observable era problemática
[Hempel 1977). Su solución, aunque no del gusto de todos sus interlocutores, no es
mala y coincide con otras propuestas. Los términos teóricos son los que los
científicos introducen de novo, o bien transformando el significado de términos
existentes, para que realicen precisamente su trabajo en explicaciones y
predicciones científicas, y en otras tareas “teóricas”. Los términos “observables”
realmente son a veces remanentes de términos que en otros momentos pudieron
haber sido teóricos, pero sobre los que hoy hay consenso suficiente, o bien son
términos del “lenguaje antecedentemente entendido”, y que los científicos no
consideran problemáticos –a menos que surja alguna razón para revisarlos. Así
que más que una línea clara entre un tipo y otro de términos, hay más bien una
gama, o continuo, de carácter histórico, en el que se pueden situar en los
extremos lo que coloquialmente llamamos términos teóricos vs. términos
observables o referidos a los “datos”.
47

El lector impaciente reclamará, con razón, que este primer cuasi-acuerdo


no ayuda mucho a entender, para empezar, qué es un término teórico, ya que
sigue estando poco claro qué es la teoría (salvo porque ésta introduce un
vocabulario especial con en el que se formula el discurso científico). Punto
concedido. La dificultad tiene que ver con el segundo acuerdo, sobre la escala a
la que aplicamos el término “teoría”.

Las escalas de la teoría


Buena parte de esta segunda confusión tiene que ver con la obra de un
historiador de la ciencia vuelto filósofo: Thomas Kuhn [2001: orig. 1962). Este autor
introdujo en 1962 un término que sería el centro de la polémica durante los
siguientes 20 o 25 años: el de “paradigma”. El contexto era uno en el que Kuhn
quería mostrar que la filosofía de la ciencia neopositivista, e incluso la de uno de
sus críticos, la del racionalismo crítico de Popper, presentaban una imagen
equivocada de la historia de la ciencia. Esta distorsión era producto no solamente
de que realmente no hacían estos autores una investigación histórica seria, sino
que parecería que pensaban que podrían prescindir de ella, al ignorar un factor
importantísimo en la práctica científica: el conjunto de supuestos implícitos que
están detrás de la formulación de teorías, y que constituyen la “cosmovisión”
desde la que escuelas particulares de científicos llevan a cabo su práctica
cotidiana. La obra de Kuhn tiene muchos filos y aristas fascinantes [ver, por
ejemplo los comentarios de Sharrock and Read, [2002), o Pérez Ransanz [1999)],
cuyas implicaciones para la arqueología he tratado en otros momentos [Gándara
[1977:; 1992)]. Pero, para mis propósitos actuales, me centraré solamente en uno:
el que surgía por primera vez, con claridad, una diferenciación de escalas de
aplicación del término teoría: por un lado, la de las teorías específicas que son en
ocasiones el objeto de debate y, por otro, las “cosmovisiones” o paradigmas
desde que dichas teorías son construidas. Esta escala mayor, la del paradigma,
normalmente permanece oculta, invisible, asumida, señalaba Kuhn; aparece
solamente cuando dos paradigmas se enfrentan, y requieren que los supuestos
normalmente implícitos se hagan explícitos.

La distinción es importante, porque golpea el mismo corazón de varias


propuestas sobre lo que es realmente el método científico. Aunque habría que
ver si en efecto es una apreciación justa, se reclamaba a los neopositivistas
proponer que la ciencia era un diálogo entre una hipótesis (teórica) y los datos,
un pleito a dos esquinas claramente diferenciadas. Cosa que, como vimos antes,
resulta imposible lograr; críticos como Popper y sus colegas afines, como Lakatos,
mostraron desde finales de la década de 1950 que en realidad el pleito es de
cuando menos tres esquinas: se enfrentan no una sino dos teorías, contra unos
“datos” (así, con comillas), que ya no son totalmente neutrales. Y el progreso
científico se da cuando una de estas teorías refuta a la otra (bajo condiciones
que trataré con detalle en otra sección), como cuando la teoría de los humores
malignos es derrotada por la teoría de la infección bacteriana. Pero ahora Kuhn
48

mostraba que realmente el pleito no es normalmente a esa escala de teorías


específicas, sino precisamente de estas cosmovisiones, de estas teorías mayores,
de las que salen no solamente teorías específicas, sino reglas de cómo
construirlas, o cómo deben considerarse resueltos los enfrentamientos entre ellas.

Su solución, la de proponer que el enfrentamiento real es entre entidades


de escala mayor, los paradigmas, iba a resultar problemática. Estos paradigmas
condicionaban todo: el mundo se veía según el color del paradigma respectivo.
La consecuencia es que, en sentido estricto, dado que ven mundos diferentes, los
paradigmas realmente nunca sustituyen uno al otro mediante un proceso tan
nítido e higiénico como incluso la refutación que proponía Popper, sino que se
ven involucrados factores sociales e incluso psicológicos. Un paradigma
realmente no refuta a otro, simplemente el consenso de la comunidad científica
se vuelca hacia un nuevo paradigma, con lo que se consuma una “revolución
científica”. El problema, como muchos señalaron de inmediato, incluyendo al
propio Popper [1970), era que entonces es difícil entender en qué sentido preciso
el cambio científico es un cambio racional; en qué sentido una revolución
científica implica progreso.

Aunque fascinante, no me detendré aquí ahora sobre estas dificultades,


dado que lo que me interesa es simplemente rescatar la idea de que hay,
cuando menos, dos escalas de teorías. Esta idea es al menos parcialmente
independiente del modelo de cambio o racionalidad científica de Kuhn y ha sido
reconocido por otros autores, notablemente Lakatos [1970), que introduce el
modelo de los “programas de investigación científica” y Laudan [1986), con su
propuesta de “tradiciones de investigación”, y por autores y tradiciones filosóficas
posteriores, como la llamada escuela “modelo-teórica” [Diez y Moulines 1999),
que incluye formas de distinguir esa escalas.

La mejor manera de entender estas dos escalas, creo, es mediante algunos


ejemplos, al menos de la manera en que yo entiendo esta distinción. Ello me
permitirá precisar en un momento más -¡finalmente!- qué significa para mí el
término “teoría”. Mi propuesta no pretende en absoluto novedad: como dije, es
heredera directa de Kuhn, Lakatos y Laudan.

Ejemplos de las dos escalas pueden encontrarse con facilidad: uno que
viene a la mente de inmediato es el freudianismo o psicología freudiana10. Si yo le
preguntara a alguien qué exactamente es lo que explica el freudianismo,
probablemente tuviera alguna dificultad, dado que el freudianismo intenta
explicar muchas cosas. Quizá señalara la importancia de la primera infancia y de
la pulsión sexual en la determinación de la personalidad adulta; pero si nos
fijamos, esta respuesta apunta a supuestos que son comunes a varias de las
propuestas freudianas, que son en realidad intentos particulares de explicación.
Cada uno de esos intentos es, en si mismo, una teoría: es el caso de la
teoría freudiana de la formación del yo, la teoría freudiana sobre el fetichismo, o

10
Utilizo este término de manera laxa y hasta cierto punto intercambiable con el de
“teoría psicoanalítica freudiana”
49

la teoría freudiana sobre la histeria (que históricamente inicia el conjunto de


teorías que este autor y sus seguidores producirían durante las décadas que
siguieron a su presentación). Pero si reconocemos esto, entonces nos daremos
cuenta que hablar de “teoría freudiana” resulta ambiguo: ¿nos referimos al
conjunto de supuestos que permitieron a Freud y a sus seguidores generar
explicaciones específicas, o a las propias explicaciones específicas? La respuesta
es: a ambas, por desgracia. Pero es por ello que resulta útil poder distinguir las dos
escalas: aquella que, en una versión reformulada del término de paradigma,
Kuhn llamó “la matriz disciplinaria”, que contiene los supuestos requeridos para
formular explicaciones particulares, y las propias explicaciones particulares, teorías
específicas, de las cuales algunas se convierten en emblemáticas de esa matriz,
las que Kuhn llama “teorías ejemplares” [Kuhn 1977).

Un segundo ejemplo ayudará a clarificar esta diferencia en escalas


(espero). Cuando hablamos de la teoría marxista, ¿a qué nos referimos? En mi
opinión, a dos cosas diferentes pero relacionadas: por un lado, a las teorías
específicas que explican procesos o fenómenos particulares, como la teoría del
valor, la teoría del partido, la teoría de la vocación revolucionaria del
proletariado, la teoría del imperialismo y hasta la no tan teoría del modo de
producción asiático, para mencionar solamente algunas. Y por otro, a una misma
manera de ver a la historia y a la sociedad (con algunas variantes locales), una
manera de concebir la realidad, el conocimiento y las razones que justifican la
creación de las teorías mencionadas.

Un último ejemplo sería la teoría procesual en arqueología. Aquí nos


referimos, por un lado, a la tradición fundada por Binford y sus seguidores, que
propuso la adopción del modelo hempeliano del método y la explicación,
adoptó el modelo de cultura de White y propuso una visión optimista del registro
arqueológico. Pero también a alguna de las teorías que la arqueología procesual
propuso para explicar procesos particulares, como la teoría de las áreas
marginales de Binford [1968), la teoría del origen de la agricultura, o la del origen
del , de Flannery [Flannery 1975, orig. 1972:, orig. 1973), o la teoría del origen del
de Wright [1978).

Estos ejemplos ilustran que cuando hablamos de teoría, a veces nos


referimos a teorías específicas y a veces a los “marcos conceptuales” mayores de
los que estas teorías han partido. Creo que es útil, para poder definir lo que
significa “teoría”, reconocer esta diferencia de escala. Así que, recuperando las
intuiciones detrás de las propuestas de Kuhn, Lakatos y Laudan, he propuesto que
a la escala mayor de teorización le llamemos “posición teórica”, que en un
momento más definiré (y que presentaré con detalle en el siguiente capítulo); y a
la escala menor le llamemos “teoría sustantiva” –a la que también definiré en
seguida.

Existen, sin embargo, al menos otros dos usos no coloquiales del término
“teoría” en arqueología. El primero, cuando hablamos de enfoques como la
“arqueología del paisaje”, o la “arqueología del género”, y nos referimos a ellas
50

como “teorías”11. El segundo, cuando hablamos del conjunto de principios que


permiten la inferencia arqueológica en general, a los que colectivamente
llamamos “teoría arqueológica”. Estos dos usos apuntan a otros dos significados
importantes del término teoría, aunque ya no en un sentido de escala o amplitud
del término, sino a su función. Y, en particular este último, el de teoría
arqueológica, nos remite al tercero de los cuasi-acuerdos mencionados páginas
atrás, y al que ahora regresamos, antes de ofrecer definiciones para cada una de
estas cuatro acepciones no coloquiales del término teoría.

Las teorías que rigen la observación


Recapitulando, los dos primeros cuasi-acuerdos eran, primero, la dificultad de
separar entre “teoría” y “datos”; y segundo, la existencia de dos escalas a las que
podemos referirnos cuando hablamos de “teoría”, punto que acabamos de
elaborar. El tercero era que, aun con las dificultades de separar datos de teoría, si
no los consideramos como una separación tajante, sino extremos de un continuo,
resulta que la vinculación de uno de los extremos, el de aquellos principios más
claramente “teóricos” con el otro, el de los enunciados más claramente
“observacionales”, ocurre a través de una teoría, una teoría de escala menor,
cuya función especial es esa vinculación. A este tipo de teorías he propuesto
llamarle, siguiendo una referencia de Lakatos, “teorías de la observación”, y luego
de debates con Felipe Bate, a regañadientes rebautizarlas como “teoría de lo
observable”.

Estas son las teorías que utilizamos para permitir el pleito de tres esquinas al
que se refería Popper pero que, ahora queda claro, es un pleito entre teorías de
escala menor, o teorías sustantivas, como hemos propuesto llamarles. Las teorías
sustantivas se pueden pelear, siguiendo la propuesta de Lakatos, a partir de un
“mundo compartido” al que ambas acceden vía una teoría que permite fijar las
observaciones relevantes. Esta teoría suele ser una teoría de nivel bajo,
suficientemente consensuada como para no ser ella el objeto de la polémica.
Solamente en ocasiones de conflicto, esas teorías se someten a discusión, y son
entonces el objeto de otro pleito a dos esquinas, que ocurre mediante una teoría
de la observación de un nivel aún menor, y que esté consensuada; y así
sucesivamente, hasta llegar a pleitos entre teorías que se resuelven por referencia
al lenguaje antecedentemente entendido, para retomar la frase de Hempel12.

11
Yo les he llamado “arqueologías temáticas”, como se verá adelante. Apunta Felipe
Bate, director de esta tesis: más bien, “modas temáticas”.
12
En este punto tenemos una polémica con Iwaniszewski (Comunicación personal,
México, Febrero 2008): para él los propios “datos” son consensuados; es decir, no habría
algo así como un nivel de aprehensión directa que no estuviera mediado por el lenguaje;
yo no estoy seguro de que esta manera de ver las cosas se mantiene dentro del realismo
(al que yo me adscribo), porque me parece que de ahí el salto es corto a proponer que
sin mi aporte como observador (socialmente situado) no habría una realidad “dada”. Si el
argumento es que cualquier descripción de mis percepciones tiene que ocurrir en un
lenguaje, entonces no tengo problema, dado que, por definición, los lenguajes son
consensuados –no existe tal cosa como el “lenguaje privado” unipersonal.
51

De nuevo, un ejemplo puede ayudar a clarificar las cosas. El ejemplo viene


de Feyerabend [1975), colega e interlocutor de Lakatos. Y aunque él lo ofrece
como parte de una diatriba en contra de cualquier metodología, yo lo recupero
(en versión libre) aquí como una ilustración de la manera en que, para poderse
dar una polémica entre dos teorías sustantivas, se requiere de una teoría de orden
menor, que relacione a ambas con “datos” que en función de esa teoría pueden
considerarse no problemáticos.

El protagonista del ejemplo es el héroe de tantas batallas en la filosofía de


la ciencia, Galileo. Se supone, de acuerdo con la anécdota, que Galileo enfrentó
a la iglesia en torno a las características que tenía la luna. De acuerdo con sus
observaciones utilizando el recientemente inventado telescopio, la luna no era ni
un cuerpo perfectamente esférico, ni era transparente –como se supone debía
serlo de acuerdo con la interpretación de la Biblia que hacía la iglesia. Además
de tildarlo por supuesto de herético, los astrónomos de la iglesia señalaron que la
teoría galileana no tenía soporte real: nadie, salvo un loco, podría tomar como
serias las observaciones del dichoso telescopio. Era claro que ese era un
instrumento poco confiable, como cualquiera que tuviera a bien usarlo se daba
cuenta: apuntado hacia un objeto cercano, arrojaba una monstruosa y
exageradamente amplificada imagen; y si el instrumento se giraba, para ver
ahora ese mismo objeto pero apuntando el telescopio al revés, ahora aparecía
exageradamente reducida su imagen. Era un instrumento a todas luces no fiable.
En consecuencia, antes de poder pelearse con la iglesia sobre las características
de la luna (con todo y su superficie llena de cráteres, según Galileo), era menester
mostrar que el telescopio era confiable. Y Galileo lo hizo: desarrolló la óptica,
mostrando que la manera en que se producen imágenes al paso de la luz por
diferentes tipos de lentes es un proceso inteligible, predecible e incluso expresable
mediante elegantes fórmulas matemáticas. Lejos de ser “artefactos” creados por
un instrumento poco veraz, la ampliación o la reducción de la imagen eran
explicables mediante una relación entre el tipo de lente, la distancia del objeto, el
ángulo de la luz y otras variables. Su argumentación fue tan sólida, que sus
opositores tuvieron que concederle la razón. Pero solamente hasta ese momento
las observaciones con el telescopio pudieron fungir como “datos” en la polémica
sobre las características de la Luna.

En este ejemplo, las teorías sustantivas en juego son la de Galileo y la de sus


opositores sobre la forma y apariencia de la Luna. Y la óptica, que es en sí misma
una teoría sustantiva, pasa a jugar un papel especial: al no ser ya el objeto del
debate, puede funcionar para sustentar las inferencias generadas a partir de la
observación con el telescopio. Tiene la función de una “teoría de la observación”.
Historias similares pueden encontrarse en otros casos, como en el del corpúsculo
de Golgi, ese elemento dentro de la célula, cuyos descubridores proponían tenía
ciertas funciones metabólicas, y sus opositores, que decían que el corpúsculo era
realmente un artefacto del procedimiento de teñido de la célula. No fue sino
hasta que se desarrollaron maneras de mostrarlo que no fueran sospechosas de
estarlo causando, que se reconoció su existencia, y pudo entonces proceder el
debate sobre su función en la célula. Es importante notar que las teorías de la
observación no se limitan a justificar la observación mediante instrumentos, sino
52

que incluso cuando observamos sin ayuda de dispositivos especiales, estamos,


queriéndolo o no, introduciendo teorías sobre cómo observamos, como intenté
señalar para el caso de la arqueología, y en particular de nuestras técnicas de
excavación, en otro momento.

Mi idea original [Gándara 1988a) fue recogida y mejorada por Bate. La


propuesta de Bate es que en arqueología tenemos dos teorías realmente: la
primera, a la que Bate ha llamado “teoría de lo observable” está compuesta por
los principios que explican los procesos de formación y transformación de
contextos arqueológicos; la segunda, a la que yo llamé originalmente “teoría de
la observación”, es la que justifica nuestros procedimientos de detección, registro,
obtención, análisis y presentación (comunicación de información) sobre dichos
contextos y sus componentes. La propuesta de Bate diferencia entre los
componentes ontológicos (historia de los contextos arqueológicos) y los
epistemológicos (la transformación de los “datos” –lo dado- en “información”13):
la historia de la producción de información. Esta última estudia no solamente la
manera en que un arqueólogo produce información a partir de sus propias
observaciones, sino cómo usa (y con qué limitaciones) la información producida
por terceros [Bate 1998:50). La teoría de lo observable, en rigor, estaría dentro de
la ontología de la posición teórica, como veremos más adelante; la de la
observación, en el área metodológica de una posición teórica. Yo acepto esta
diferenciación, aunque en mis trabajos previos el término “teoría de la
observación” engloba a lo que ahora veo con claridad como teorías diferentes.

Podemos regresar ahora a los cuatro diferentes significados que el término


teoría normalmente recibe en arqueología, para clarificar sus diferencias. Hechas
las distinciones necesarias, me será posible argumentar por qué su confusión debe
evitarse y cómo es que genera problemas y equívocos en la discusión en
arqueología.

Los múltiples significados del término “teoría” en la arqueología.


Intentaré en seguida una primera aproximación a la definición de estos
cuatro diferentes usos del término teoría. Más adelante haré un tratamiento más
detallado de cada uno.

13
Bate retoma el uso de “dato” que era el sentido original del término “datum” en latín: “lo
dado”, que para convertirse en información tiene que ser procesado mediante una
teoría. Iwaniszewski (comunicación personal, México, Febrero de 2008) añade que los
materiales arqueológicos tienen, además, un sentido –o, con mayor precisión- muchas
veces lo tuvieron para las personas que los generaron o usaron; esta dimensión está
desarrollada de manera insuficiente en la teoría arqueológica y representa uno de los
retos a los que, hasta ahora, solamente la arqueología interpretativa ha enfrentado con
alguna sistematicidad, observación con la que concuerdo.
53

1. Teoría en el sentido holístico –la teoría como totalidad.


Es el equivalente a la matriz disciplinaria de Kuhn o el programa de
investigación científica de Lakatos. Se puede definir como el conjunto de
supuestos que permiten a una comunidad científica identificar ciertos
problemas como importantes, y ciertas formas de solución como legítimas.
Estos supuestos pueden agruparse en cuatro áreas íntimamente
relacionadas, pero que es posible distinguir con fines analíticos: el área
valorativa, en el que la posición teórica define qué tipo de conocimiento
persigue, para qué y para quién y por qué esas decisiones son justificables
en términos éticos y políticos; el área ontológica, en la que se define cómo
es el objeto de estudio y qué propiedades tiene; el área epistemológica,
en donde se establece hasta dónde y con que grado de confiabilidad el
objeto de estudio es cognoscible; y por último, un área metodológica, que
define los procedimientos que habrá que seguir para cumplir los objetivos
de conocimiento de la posición teórica, incluyendo las técnicas de
observación y análisis a seguir. En arqueología, es el equivalente a las
llamadas “escuelas” o “marcos teóricos” que orientan el trabajo de una
comunidad de arqueólogos determinada, como sería el caso de la
ecología cultural, que orientó en buena medida el trabajo de Sanders en la
cuenca de México.

En México es común proponer que Sanders es más bien miembro de


la “arqueología de asentamientos”. Pero, como veremos adelante, esta es
una forma de “arqueología temática”, que no define una posición teórica,
sino que se practica precisamente desde una posición teórica. Sanders
contribuyó notablemente a esta arqueología, que puede ser entendida no
solamente como una arqueología temática, sino con mayor precisión,
como una arqueología instrumental, como se define adelante. La
arqueología de asentamientos se ha practicado desde posiciones teóricas
tan diferentes como la arqueología de historia cultural revisada de Willey y
Phillips [1968 (orig. 1958)), la arqueología procesual analítica de Clarke
[1968)(que luego dio lugar a la arqueología espacial, Clarke [1977)), o una
forma de arqueología materialista histórica como la que practicó en su
momento Armillas, aspecto al que, en un gesto que no tuvo mayor eco en
1973 él llamaba “arqueología del paisaje” [Armillas, comunicación
personal, Taller de Avanzado en Arqueología. INAH. México].

2. Teoría en sentido partitivo, o “teoría sustantiva”.


Es el intento de una posición teórica para explicar o comprender un
determinado fenómeno, evento o proceso. Es un conjunto de enunciados,
articulados entre sí, que normalmente incluyen cuando menos un
enunciado de corte general, y que es en principio refutable, a partir de sus
consecuencias observables. En el caso de la arqueología, se trata de las
teorías que se proponen específicamente para explicar o comprender
54

procesos como el origen del Estado. Esta definición, hay que señalarlo,
apunta más a un Estado ideal de cosas, porque en arqueología las teorías
sustantivas no siempre están completamente explicitadas, ni mucho menos
formalizadas de manera axiomática. A veces son simplemente “esbozos
explicativos”, pero que logran su función al ser recibidas por una
comunidad académica que comparte unos antecedentes o “fondo de
referencia” (“background”), que las hace suficientemente inteligibles a
pesar de no estar explícitamente formuladas. Su explicitación suele
convertirse en un asunto importante cuando existe debate sobre su
capacidad explicativa. Un ejemplo sería la teoría de Sanders, Parsons y
Santley sobre el origen del Estado en la Cuenca de México, que será el
centro de nuestra atención en capítulos sucesivos.

3. Teoría de la observación o de lo observable.


Es una teoría sustantiva con mucho apoyo empírico (o al menos mucho
consenso en una comunidad académica), que justifica las inferencias a
partir de la evidencia “observable”, y establece los límites de
representatividad, confiabilidad y precisión de las técnicas y los
instrumentos con los que se realizan la observación o el análisis de los datos
[Gándara 1988a). En el caso de la arqueología, este es el ámbito de la
“teoría arqueológica” en sentido estricto, del que el ejemplo más
sistematizado es el trabajo de Schiffer y su grupo (en la arqueología
llamada “conductual” hasta antes de 199814). Está detrás de lo que se ha
llamado, equivocadamente, las “metodologías” de trabajo y que, en rigor,
incluye en realidad conjuntos de técnicas (con los supuestos teóricos que
las justifican), como las que Sanders y sus colaboradores emplearon en sus
reconocimientos de la Cuenca de México.

4. Teoría como “arqueología temática”, o reflexión sobre un “recorte” de la


realidad social.
A diferencia de los tres primeros sentidos, que me parecen aplicables a
cualquier disciplina científica, este último sentido creo que es más
característico de las ciencias sociales y en particular, de la arqueología
contemporánea; y es quizá por lo mismo, más vago. Ante la diáspora o
proliferación de posiciones teóricas a raíz del colapso de la arqueología
procesual, se enfatizó una tendencia que quizá venía de tiempo atrás en
arqueología, para abordar ciertos temas o áreas de interés. Uno de los
primeros fue el del género, que dio lugar a la llamada “arqueología del

14
La precisión cronológica no es por capricho o pedantería: a partir de más o menos esta
fecha, Schiffer ha propuesto que su teoría es más amplia, para proponer no solamente
principios de formación y transformación de contextos, sino también teorías sustantivas.
Esta propuesta la articula en el 2001 e intenta mostrar su fertilidad ofreciendo un par de
esbozos de teorías sustantivas. A partir de este momento, la arqueología conductual
dejaría de ser una teoría de la observación, para convertirse en una posición teórica,
como hemos definido ambos términos arriba.
55

género”, y que es un ejemplo típico de lo que llamaremos “arqueologías


temáticas”. A diferencia de las posiciones teóricas en arqueología, que
intentan abordar normalmente la totalidad social (como la arqueología
procesual o la arqueología social ameroibérica), las arqueologías
temáticas proponen estudiar un segmento de lo social, o tomar ese
segmento de lo social como “filtro” con el que se abordan otras áreas de lo
social. Son, en cierto sentido, una especie de ventana sobre el conjunto de
lo social, o una mirilla particular a través de la que se observa el conjunto.
Una característica que permite distinguir las arqueologías temáticas de las
posiciones teóricas es que, al ser recortes de la realidad social, la temática
de la que tratan puede ser abordada desde diferentes posiciones teóricas.
En el ejemplo de la arqueología de género, éste puede ser abordado
desde la posición teórica procesual, o la marxista, o la hermenéutica. Es
decir, aunque ciertos temas suelen ser favorecidos por algunas posiciones
teóricas, no les son exclusivos; otro ejemplo particularmente ilustrativo es la
arqueología del paisaje, que, como temática, puede abordarse de nuevo
desde diferentes posiciones teóricas.15 De acuerdo con esta
caracterización, aunque se habla de la “teoría del género”, o de manera
aún más amplia, de “teorías de la identidad” (de las que un excelente
ejemplo es el de Hernando [2002)), realmente no existe una sola, como una
teoría sustantiva particular, sino solamente las teorías sustantivas del género
desde diferentes posiciones teóricas: esto es, por ejemplo, la teoría marxista
del género o la teoría crítica del género, que pueden generar teorías
sustantivas al respecto. Es precisamente el hecho de que estas teorías
requieren del apellido de la posición teórica de la que dependen, lo que
señala su carácter derivado; y es precisamente el que puedan ser de

15
Queda por definirse, y no intentaré hacerlo aquí, el estatuto de dos tipos de arqueología
adicionales: aquellas cuyo tema es técnico y otras cuyo recorte es temporal. En cuanto a
las primeras, figuran la arqueometría, la arqueología experimental, la etnoarqueología,
para mencionar solamente algunas. En mi opinión, estas son diferentes a las arqueologías
temáticas en el sentido en que el recorte no se hace vía privilegiar un aspecto de la
realidad social, sino un abordaje técnico. Propongo llamarles “arqueologías
instrumentales”. A diferencia de las posiciones teóricas, no tienen necesariamente un
concepto general de la realidad social, y por lo mismo, pueden abordarse desde más de
una posición teórica; pero a similitud de ellas, producen teorías sustantivas (o las importan
de otras disciplinas), aunque de un tipo especial: son teorías destinadas a funcionar
precisamente como teorías de la observación. El segundo tipo son las arqueologías al
estilo de la arqueología documental, la arqueología histórica o la arqueología industrial.
Aquí el terreno es más pantanoso, porque se supondría, en el caso de la arqueología
documental, que el énfasis está en los procedimientos técnicos (en cuyo caso sería una
forma de arqueología instrumental), mientras que interpretada en términos cronológicos,
el énfasis sería en periodos para los cuales se cuenta con documentación escrita. La
arqueología histórica o la arqueología industrial parecerían ser estudios de la totalidad
social en esos periodos, y en ese sentido no son un recorte análogo al que hacen las
arqueologías temáticas; no obstante, normalmente pueden abordarse desde diferentes
posiciones teóricas, por lo que no son tampoco posiciones teóricas. No tengo, por el
momento, claridad en cuanto a su estatuto. Algunas parecerían ser subconjuntos de
posiciones teóricas, como la arqueología del capitalismo, que depende de la teoría
crítica para su definición del objeto de estudio.
56

diferentes apellidos, lo que señala que no son propiedad exclusiva o


producto de una posición teórica en particular.

¿Pueden confundirse a discreción estos significados?


Para un arqueólogo que no pierde mucho el sueño con este tipo de finuras
analíticas, quizá el ejercicio anterior no solamente le parezca innecesario, sino
gratuito: “¿y eso, a mí qué…?”. En efecto, como señalamos al inicio, comparado
con tareas infinitamente más urgentes para la arqueología, como la inclemente
destrucción del patrimonio arqueológico que sucede de manera cotidiana,
parecería que estamos tejiendo demasiado fino. No obstante, el asunto resulta ser
relevante incluso a esas preocupaciones urgentes. Ver en qué radica la
relevancia es más difícil, con varios eslabones intermedios en una cadena de
razonamientos que quizá es más larga de lo que algunos lectores estén dispuestos
a seguir. Una manera de hacer más fácil el trayecto es segmentarlo en etapas.
Trataré aquí algunos de los eslabones iniciales, con la promesa de regresar más
tarde e ir hilando los siguientes.

Para nuestros propósitos en esta tesis, las distinciones ofrecidas son, además
de uno de los primeros eslabones en esa cadena de relevancia, absolutamente
cruciales. El crecimiento de la arqueología ha sido relativamente rápido en los
últimos años. La multiplicación de “arqueologías” que trajo consigo el
posmodernismo hace demasiado fácil perderse en el camino. Y una de las
consecuencias es, precisamente, que ya no es claro para la disciplina de qué
estamos hablando cuando hablamos de “teoría”. La propuesta anterior intenta
cubrir esta deficiencia y evitar las confusiones actuales.

Son dos las confusiones más frecuentes: la primera, entre lo que aquí hemos
llamado “posición teórica” y “teoría sustantiva”; la segunda entre lo que hemos
llamado “teoría de la observación” y lo que en la arqueología procesual se llamó,
para desgracia, “teoría de rango medio”.

¿Refutar teorías sustantivas refuta posiciones teóricas?


La primera confusión (entre posición teórica y teoría sustantiva) era
frecuente en los días de gloria de la arqueología procesual, en los que sus críticos
creían que con refutar una de sus teorías sustantivas refutaban la posición teórica
en su conjunto. Me tocó ver varios incidentes de este tipo, en donde algún
entusiasta (¡y veloz!) colega marxista decía que era capaz de refutar la
arqueología procesual en “sólo cinco minutos”. Su procedimiento era elegante,
según él: lo único que había que hacer era mostrar que la teoría de Flannery
sobre el origen de la agricultura era falsa y… ¡presto! Se había derrotado con ello
a la arqueología procesual en su conjunto. Afortunadamente otros colegas del
grupo no prestaron mucha atención a estas pretensiones y optaron por seguir
leyendo a los autores de lo que para mi raudo amigo era “una arqueología
totalmente refutada y superada”.
57

Para entender en qué se equivocaba, es necesario de nuevo analizar la


relación entre posición teórica y teorías sustantivas. Y quizá preguntarnos cómo es
que surge una posición teórica, porque en ocasiones, la lógica de la presentación
del concepto (que va de lo general a lo específico, y en consecuencia, de las
posiciones teóricas a las teorías sustantivas), se puede confundir con una narrativa
de la secuencia que históricamente se sigue para constituirlas. Pero nunca un
grupo de arqueólogos se reunió para empezar por la pregunta “¿qué supuestos
valorativos, ontológicos, epistemológicos y metodológicos debemos seguir?”;
luego, resolvió la pregunta y solamente entonces se preguntó: “¿qué problemas
explicativos debemos enfrentar ahora?, y solamente en ese momento iniciar la
construcción de teorías sustantivas. Más bien, yo intuyo que ha sido precisamente
al revés: se inicia con una pregunta o problema explicativo, a veces heredado de
una posición previa que no ha logrado resolverlo satisfactoriamente. Y, en el
proceso de responderla, se hace claro que la propia selección de la pregunta y
del rango de respuestas posibles dependen de ciertos supuestos que se han
hecho de manera implícita. Es decir, lo que mueve el proceso general es la
solución de problemas sustantivos y, solamente más tarde, mediante una reflexión
de segundo orden se detectan y articulan (si la posición teórica lo requiere), los
supuestos que la guían.

Los supuestos de una posición teórica se hacen visibles exactamente tal


como Kuhn proponía: solamente en momentos de crisis o de debate con
posiciones teóricas pre-existentes. Es el caso de los artículos o ensayos que se
pueden considerar como fundacionales de una posición teórica y que
normalmente se escriben en el momento en que el debate ha mostrado que la
nueva posición teórica tiene madera como para convertirse en contendiente. Es
el caso de los artículos de Binford de 1962 a 1968 [L. R. Binford 1972); o del libro de
Luis Guillermo Lumbreras [1974), o Analythical Archaeology de David Clarke
[1968), o la arqueología contextual de Hodder [1991).

Entonces, la posición teórica se va articulando a medida que se perfilan sus


primeras teorías sustantivas. Pero la posición teórica es, entonces, más que la
suma de sus teorías sustantivas: es la matriz de la que se generan dichas teorías
sustantivas. La relación, yo sospecho, no es de carácter totalmente deductivo en
un sentido estricto: es decir, las teorías sustantivas no son teoremas derivados de
los supuestos de la posición teórica que operarían como axiomas. La relación es
más una de congruencia y consistencia general, que es lo que hace que las
teorías sustantivas de una posición tengan un mismo “aire de familia”. Si este
argumento es medianamente plausible, entonces no es cierto que la refutación
legítima (asunto problemático, como veremos) de una teoría sustantiva sea, de
manera automática, la refutación de una posición teórica.

Otro estado de cosas sería el que prácticamente todas las teorías


sustantivas de una posición teórica estuvieran (legítimamente) refutadas. Habría
que ver si la fuente de las debilidades que conducen a las refutaciones es la
misma. En ese caso, es probable que esa fuente sean los supuestos ontológicos
de la posición teórica. En ese caso, si para los mismos problemas explicativos (o
58

problemas similares) reconocidos por otra posición teórica dicha posición teórica
alternativa ofrece mejores soluciones, habría que considerar que la posición
teórica original ha sido debilitada, y quizá refutada. Pero mi intuición me hace
pensar que mientras que las teorías sustantivas pueden refutarse (con ciertas
condiciones, que veremos en secciones posteriores), las posiciones teóricas
simplemente se abandonan una vez que parecen haber agotado su fertilidad;
son sustituidas por otras posiciones teóricas que, a ojos de la comunidad
académica en cuestión, ofrecen ventajas al menos aparentes, en un proceso
que por desgracia se parece, en el caso de la arqueología, mucho al que
proponía Kuhn. Sin embargo, no pretendo que estos breves comentarios
constituyan un modelo de cambio o progreso científico. Mi modelo de posición
teórica no intenta llegar a tanto. La propuesta aquí es simplemente que no es lo
mismo refutar una teoría sustantiva que una posición teórica.

Esta idea es la que permitiría no solamente defender a una posición teórica


de pretensiones infundadas de refutación, como la de mi veloz colega, sino que
pone la mira en donde la mira debe estar: la refutación de una posición teórica
requiere ofrecer teorías sustantivas que mejoren las de la posición precedente.
Esta ha sido mi defensa no solamente de la arqueología procesual, en su
momento, sino más tarde, del propio marxismo [Gándara 1995). Y la defensa de
ambas depende de los mismos argumentos. La derrota de muchas teorías
sustantivas es un mal presagio para cualquier posición teórica; y la famosa caída
del Muro de Berlín y el “fracaso del socialismo real” sin duda debilitan al marxismo
(y en particular, a algunas interpretaciones del marxismo). Pero para que
estuviera completamente refutado, en tanto posición teórica, sería necesario que
un buen número de sus teorías sustantivas (y no solamente las atingentes a la
sociedad capitalista) fueran derrotadas por las teorías sustantivas de alguna
posición rival. Y la misma regla operaría a la inversa, al menos idealmente.
Combinado con una perspectiva técnicamente llamada “falsacionismo
metodológico sofisticado” [Lakatos 1970), que no es otra cosa que el nombre
pedante para una idea muy razonable, la de que para que haya una refutación
debe haber una alternativa mejor, la distinción entre posición teórica y teoría
sustantiva nos evita hacer refutaciones espurias. Volveremos más tarde a tratar
con mayor detalle el falsacionismo.

¿Teorías de rango medio convencionales o teorías de la observación


refutables?
La segunda confusión se da entre “teoría de la observación” y “teoría de
rango medio”. A veces se presenta como “el problema de los niveles de teoría”
Yoffee, o de la “estructura de la teoría” Es fácil identificar a algunos de los
protagonistas en este embrollo: primero Binford, que popularizó de manera
singularmente despreocupada el término “teoría de rango medio” [Binford
1977:7], tomada de la sociología, pero con un significado totalmente distinto;
luego Raab y Goodyear [1984), que intentan corregir el error, quizá un poco con
el sentimiento de culpa de que ellos habían introducido el término en primer
59

lugar; y finalmente Yoffee [2005), que lo toma como punto de partida para
proponer una estructura tripartita para la teoría arqueológica, con su clasificación
de teorías de rango inicial, medio y alto. Pero, vayamos por partes…

Merton [1957), uno de los discípulos del sociólogo Parsons, introduce el


concepto de “teoría de rango medio” a finales de la década de los 50´s. Lo hace
en un momento en que el “operacionismo”, introducido décadas atrás [Bridgman
1991 (orig. 1927)), una particular filosofía de la ciencia era muy popular. Una teoría
de “rango medio” se definía por oposición a las “grandes teorías” como el propio
funcionalismo parsoniano, o el neoevolucionismo antropológico. Merton quería
lograr una distinción entre estas grandes teorías globales y sus aplicaciones
locales, restringidas histórica o geográficamente. Era la manera en que las
grandes teorías lograban “operacionalizarse”, pasando de ser grandes discursos a
casos concretos de aplicación.

De paso, estas teorías cumplían una función adicional: la de darles


significado tangible a los términos teóricos que aparecían en dichas teorías,
términos como “clase” o “poder”. Los operacionalistas, parientes cercanos del
empirismo lógico, compartían su suspicacia hacia los términos teóricos, y
aspiraban a poder traducirlos (y eliminarlos) mediante sus “consecuencias
empíricas” u observables, gracias a las operaciones que eran necesarias para su
aplicación. Así, el significado de un término era la aplicación de la operación por
la cuál se medía. Fabricando un ejemplo para ilustrar la idea, “clase” podía quizá
ser interpretado como “poder adquisitivo”, que a su vez se traducía mediante la
operación de ubicar a una persona en una escala de ingreso anual; o bien como
la capacidad de tener movilidad social, que se medía como el número de
escalones que esa persona había subido en la escala de ingreso anual16. Un
ejemplo más claro, y en absoluto ficticio, era la definición operacional de
“inteligencia” que ofrecían los psicólogos de esa época, también influidos por el
operacionalismo: era la cantidad lograda en una prueba de IQ. Estos psicólogos
encontraban ocioso preguntarse, “¿pero qué es realmente la inteligencia?”, o
“¿dónde reside la inteligencia?”. O “¿se puede incrementar la inteligencia?”;
para ellos el asunto de interés es cómo se observa la inteligencia; y, según ellos, se
observa mediante una prueba de IQ. Así que el significado de “inteligencia” se

16
Aunque inventado, el ejemplo no es totalmente ficticio, y remite a polémicas de los años
sesentas y setentas entre los parsonianos y los marxistas sobre si en Estados Unidos había o
no clases sociales. Algunos parsonianos, utilizando la definición operacional resumida
arriba, llegaban a la conclusión de que no las había, cualquier persona podía aspirar a ser
millonario, ascendiendo en la escala de ingresos. Es decir, para ellos “clase” era igual a
“movilidad social, reflejada en el tránsito de la posición social en una escala de ingresos”.
Y, en efecto, hasta un mal actor puede hacerse millonario en Estados Unidos; como la
historia ha mostrado posteriormente, puede incluso llegar a ser gobernador de un , o
presidente de la república… Bajo esa definición, no hay clases. Claro que bajo la
definición marxista sí las hay: hay un acceso diferencial a los medios de producción que
causa un acceso diferencial a la riqueza social, con múltiples consecuencias. Pero bajo el
operacionalismo las definiciones son convencionales, así que no hay mucho que discutir:
a ellos les sirve su definición y no la del marxismo, y a la inversa, así que cada uno utilice la
que mejor le convenga. Es una de las ventajas de vivir en “el país de la libertad irrestricta”.
60

“operacionaliza” vía la prueba mencionada, que agota el significado del término


teórico.

Aunque atractiva en principio, sobre todo para aquellos que creen que es
la observación y no la teoría el fundamento de la ciencia, la idea acaba
resultando ser complicada, como desde entonces sus críticos les señalaron a los
operacionalistas: primero, hay varias maneras de medir una propiedad, como por
ejemplo la longitud. Si cada operación nos da una definición diferente, entonces
la longitud ya no es una sola propiedad sino varias, lo que contradice la práctica
científica normal, en la que habla de longitud, no longitud medida mediante
intersección de láser, o por triangulación o por referencia al metro patrón, sino
longitud a secas. Segundo, porque las operaciones equivalen a la aplicación de
instrumentos, y pueden entonces caracterizarse solamente en términos de utilidad
y precisión, y no necesariamente de veracidad. No nos preguntamos cuál de los
dos, el kilo o la libra es el verdadero. La pregunta no tiene sentido. Ambos nos
permiten medir el peso (la masa). Podemos preguntar cuál es más fácil de usar, o
cuál se inventó primero, o si las balanzas respectivas son más o menos precisas,
pero no cuál es la verdadera. Pero los científicos utilizan las teorías no solamente
para lograr resultados útiles y precisos, sino para saber cómo es verdaderamente
el mundo. A los científicos no les molesta, como a los filósofos operacionalistas,
hablar de verdad o falsedad de las teorías. Pero vistas como conjuntos de
operaciones, como meros instrumentos, las teorías no son ni verdaderas ni falsas.

Me parece más o menos claro, por la lectura de la bibliografía respectiva,


que Binford ignoraba todo esto cuando rescata el término introducido por Raab y
Goodyear [1984) en 1977 [Binford 1977:7); ni cuando declara que la razón por la
que la arqueología procesual no está avanzando es porque no ha desarrollado
suficientemente “teorías de rango medio”. Pero para él no son exactamente lo
que para el autor del término original: para Binford son las teorías que permiten
convertir la evidencia del registro arqueológico, estático, en evidencia relevante
a la operación de un sistema cultural vivo, dinámico. Curiosamente, se retiene al
parecer la intención operacionalista, porque parecería que lo que requerimos son
precisamente procedimientos que nos permitan, por ejemplo, distinguir las marcas
de uso en un hueso producidas por un humano, a las que resultarían del acarreo
por una hiena u otro animal carroñero.

Poco después, como mencionamos, Raab y Goodyear [Op. Cit) intentan


corregir la plana a Binford, pero para entonces ya es tarde. Tan tarde, que, de
acuerdo con la usanza norteamericana del término, se propone que las teorías
de rango medio son “teorías metodológicas”, con lo que produce ahora una
doble confusión, dado que para los norteamericanos parece no haber
diferenciación entre el método (el procedimiento lógico por el cual evaluamos
una proposición a partir de sus consecuencias), y la técnica (el procedimiento
práctico con el cual obtenemos, registramos, analizamos o presentamos datos).
De paso, parecería que Raab y Goodyear tienen confusiones sobre el grado de
generalidad de una teoría, y parecerían pensar que hay teorías más generales
61

que otras17. Así que para ellos, las teorías de rango medio deben ser teorías
particularizadas a regiones o momentos o casos. Así, por poner un ejemplo, la
teoría general o de rango alto sería la teoría del origen de la agricultura; la teoría
de rango medio sería una teoría del origen de la agricultura en Mesoamérica; y
no queda claro lo que sería entonces la teoría de rango inferior, aunque se
supondría que sería aquella que permite traducir los términos teóricos en
observaciones concretas en el registro de un sitio arqueológico en particular, a la
que corresponda lo que Binford entendió como teoría de rango medio. Tampoco
queda en ese caso claro de dónde sale la teoría general sobre el origen de la
agricultura.

Años más tarde Yoffee intenta clarificar el asunto [Yoffee 2005:185-188), y se


inventa una jerarquía de tres niveles que él pretende corresponde a la idea
original de Merton. Al fondo estarían las teorías “básicas” (para no ofender a
nadie llamándoles “teorías inferiores”, aclara). Son las teorías que podrían llamarse
“metodologías”, y constituyen el nivel de teoría arqueológica por quintaesencia:
tienen que ver con la formación de contextos arqueológicos y la operación
cotidiana del arqueólogo: la identificación, recuperación y clasificación de los
materiales arqueológicos –lo que para Binford (y prácticamente la mayoría de los
arqueólogos contemporáneos anglosajones) serían las teorías de rango medio.
Enseguida vendrían las teorías de rango medio en sentido estricto, ocupadas de
“los marcos explicativos contextualmente adecuados” [Yoffee 2005:186], y que
por tanto algunas pueden ser apropiadas para la comprensión de los cazadores
recolectores, mientras que otras lo pueden ser para las primeras ciudades -
Estado. Adicionalmente, estas teorías de rango medio lo son porque son “el locus
de la inferencia entre las operaciones metodológicas del nivel básico y los
supuestos, analogías y comparaciones que todos los investigadores usa para
seleccionar los problemas (a estudiar), la construcción de hipótesis y el análisis”
[Ibíd.:187]. Las teorías de rango alto, siguiendo a Merton, serían “aquellas teorías
unificadas, ideales, de la conducta, la organización y el cambio” [Ibíd.]. Como
ejemplo propone a la economía formalista, pero señalando que las teorías de
rango alto se pueden “escalar” hacia el nivel medio, creando explicaciones
adecuadas para diferentes tipos de sociedades. “Las teorías de rango amplio
deben ser escalables” [Ibíd.], en el sentido de que, por ejemplo, la teoría de la
economía formalista puede emplearse, con ajustes, para explicar mediante
teorías intermedias como la del lugar central o del área de captación, las
estrategias de los cazadores, lo mismo que “la conducta en los mercados y la
localización de los asentamientos en los s tempranos” [Ibíd.:188].

17
Todas las teorías, en tanto teorías, son lógicamente de la misma generalidad: esto es,
completamente generales. Postulan relaciones entre variables o propiedades que, de ser
ciertas las teorías, se darán siempre que ocurra dicha relación. Otra cosa es que las
entidades de las que hablen en el mundo tengan extensiones de diferente generalidad.
De hecho, las primeras leyes sobre los planetas se restringían, en la práctica, a los planetas
conocidos; pero su generalidad obligaba a que, de identificarse posteriormente nuevos
planetas (como sucedió) éstos deberían comportarse de acuerdo a lo previsto por la
teoría, si ésta era realmente verdadera. Claramente esas leyes no dejan de ser generales
por aplicarse solamente a los planetas y no a las plantas.
62

No me detendré aquí a comentar mucho sobre la idea de que sea la


economía formalista (y no los modelos de antropología económica sustantivista18,
de los cuáles el clásico es la obra de Polanyi [Polanyi 1957a:, 1957b:, 1968)) la más
apropiada para el estudio de las sociedades precapitalistas (Yoffee parecería
haber resuelto de un plumazo ese debate entre ambas formas de antropología
económica); aunque en el párrafo siguiente intenta asociar precisamente el
sustantivismo a la teoría que se ha propuesto refutar, la del neoevolucionismo. Lo
que me interesa es señalar que, hasta donde entiendo, para Yoffee este tercer
nivel es al que corresponden las “grandes teorías que la arqueología rara vez ha
producido”, como la del neoevolucionismo [Yoffee 2005:188]. Y, por supuesto, lo
que Yoffee ha logrado, es ni más ni menos que refutar al neoevolucionismo:

“Habiendo rechazado la teoría putativa de alto nivel del


neoevolucionismo, sin embargo, necesitamos preguntarnos cómo y
si es que los arqueólogos modernos deberíamos concebir los niveles
de la teoría. De manera aún más importante, debemos
preguntarnos si una consideración de la estructura de la teoría
arqueológica será útil en la consideración de pretensiones rivales de
conocimiento que se basan en los mismos datos” [Yoffee 2005:188;
énfasis mío].

Dos cosas quedan pendientes en este breve recuento. En el caso de Raab


y Goodyear [1984), considerando que su teoría de nivel bajo es el equivalente al
de rango medio de Binford, ¿existiría entonces un nivel aún inferior para
acomodar lo que este autor pudo haber considerado teorías de nivel bajo?
Asunto difícil de determinar, dado que Binford no ha dicho mucho al respecto. En
cuanto a Yoffee, ¿son las teorías de rango medio –término supuestamente ahora
sí fiel al original de Merton -teorías operacionales, de corte instrumental- y en esa
medida convenciones no susceptibles de ser verdaderas o falsas? El asunto es
importante, dado que la preocupación expresada en la cita anterior habla de
teorías que se basan “en los mismos datos”; es decir, se refiere al punto de
confluencia entre teoría básica y teoría alta, la teoría de rango medio de Merton,
que al menos para el autor original, sería de corte operacional. No sé si Yoffee se
da cuenta de este problema. Pero parecería que ubica las cuestiones de verdad
y falsedad, y por lo tanto de rechazo o aprobación, en el nivel alto de la teoría.
De otra manera, no podría haber “rechazado” el neoevolucionismo. No me
interesa ahora debatir este “rechazo”, que es en realidad a lo largo del libro un
repudio sin tapujos y con bastante poca apreciación o respeto para los aportes
centrales que han hecho autores como White, Steward, Service, Sahlins e incluso

18
Por supuesto, no es necesario advertir que el “sustantivismo” al que se refiere la frase no
tiene nada que ver con la idea de “teoría sustantiva” del que hablamos antes. Como es
sabido, el sustantivismo es la propuesta de que lo económico no constituye un campo
separado de lo social o lo político en sociedades anteriores a los s modernos, por lo que
las teorías formalistas, con su énfasis en que la meta de toda actividad económica es la
maximización del capital, o en general, de la ganancia individual, no se aplicarían a
sociedades anteriores a ese momento –idea con la que evidentemente Yoffee está en
desacuerdo, dado que piensa que los principios formalistas son aplicables a las
sociedades cazadoras-recolectoras.
63

el propio Flannery. Lo que me interesa por el momento es comparar esta visión de


la estructuración de la teoría en arqueología con la nuestra, presentada en la
sección anterior.

Si el neoevolucionismo es una teoría de nivel alto, entonces el punto de


contacto podría estar entre este nivel y nuestra escala de teoría en el sentido de
posición teórica. Esta impresión se debilita rápidamente, ya que Yoffee coloca
también en ese nivel las posturas formalistas en antropología económica, que es
una antropología temática en nuestros términos, es decir, la visión de un
segmento de lo social, o la perspectiva del conjunto de lo social desde ese
segmento; y como sus teorías de alto nivel son “escalables”, el formalismo
también cabe en el rango medio. Esta doble inclusión me hace reflexionar sobre
la manera en que Yoffee pretende haber refutado una teoría de nivel alto que,
de equivaler a nuestra idea de posición teórica, es una tarea que resultaría difícil,
por las razones aducidas en la sección anterior. Lo que Yoffee ha hecho
realmente es examinar trozos aislados de lo que yo llamo teorías sustantivas
producidas por el neoevolucionismo, y en particular sobre uno de los estadios
neoevolucionistas, el estadio temprano o arcaico. Y a partir de ese examen,
concluye que no solamente ha refutado esas teorías sustantivas, sino al conjunto
de la posición teórica. Es importante notar que esta “refutación” es del tipo
conocido en la literatura como “refutación dogmática”, dado que no se presenta
en realidad una teoría alternativa que supere a la teoría refutada. Se presentan
pinceladas de cómo podría ser eventualmente esa teoría (que Yoffee llama a
veces “evolución social”, lo que se presta a confusiones con las ideas originales
de Spencer, a las que estoy seguro él no se afilia). Para que esta nueva posición
teórica pudiera refutar la posición retardataria del neoevolucionismo [Yoffee
2005:31-32), sin embargo, se requerirían no solamente pincelazos de una nueva
posición teórica, sino, de manera fundamental e impostergable, teorías
sustantivas mejores que las teorías sustantivas supuestamente superadas.

Por más que leo su libro, no alcanzo a encontrar una sola teoría sustantiva.
Quizá, dada su visión de la estructuración de la teoría arqueológica, están
“escaladas” en algún otro nivel que no alcanzo a discernir. Lo único que
encuentro son “platicaciones”, es decir narrativas en las que se dan por supuestas
las conexiones causales entre las variables; o incluso, “historias de ‘na más así’”
(“just-so stories”). Regresaremos en otro momento a este punto, y a la idea de
“platicación”, momento en el que espero aportar evidencia de por qué las
refutaciones de Yoffee no son tales. Aquí mi interés ha sido mostrar cómo la
confusión entre las diferentes acepciones del término teoría tiene normalmente
resultados problemáticos; lleva a que las teorías sustantivas se consideren
convencionales, al ser de corte operacional; o a que lo que es convencional sea
la teoría arqueológica, al ser ésta el ámbito de acción de las teorías
operacionales. Lo más triste es que me temo que ninguno de los autores citados
se imaginó siquiera que Merton introdujo su modelo como parte del programa de
una filosofía de la ciencia operacionalista. Quizá es perdonable en Goodyear,
que lo retoma en el momento en el que dicha filosofía todavía parecía plausible.
Encuentro mucho más difícil justificarlo en Yoffee, quien escribe casi treinta años
después…
64

De nuevo: ¿y todo esto a mi qué…?


Quizá el lector siga sin realmente ver la relevancia de todo este asunto a
las tareas urgentes de la arqueología. Prometí ir hilando los eslabones de esa
cadena de relevancia, y puedo ahora empezar a cumplir mi promesa. Si el
operacionalismo (o su pariente cercano, el instrumentalismo) son adoptados por
la arqueología, las consecuencias para la conservación del patrimonio
arqueológico podrían ser desastrosas. Como se recordará, para ambas filosofías
de la ciencia, las teorías son a final de cuentas meras convenciones que permiten
traducir los términos teóricos en operaciones observables que agotan su
significado. Ello implica que no pueden ser, en rigor, sujetas a verdad o falsedad,
por lo que elegir una teoría o alguna de sus alternativas queda subordinado a la
utilidad práctica que una u otra presten a sus usuarios. En arqueología, parte de la
labor herculeana de la disciplina ha sido proteger el patrimonio arqueológico,
sobre la base de que lo que interesan no son solamente los objetos, sino los
contextos. Este ha sido un principio central en la lucha contra enemigos del
patrimonio, como el coleccionismo privado19. No obstante, el principio descansa
sobre el supuesto de que podemos definir lo que es el contexto a través de una
teoría (que correspondería a una teoría de lo observable, en nuestra propuesta),
teoría que como buena teoría sustantiva es verdadera o falsa, y no solamente útil
o inútil. Para ver por qué esto es crucial, pensemos por un momento en la
alternativa: entonces el concepto de contexto (y cualquier otro de la teoría
arqueológica) se convierten en convenciones útiles o inútiles, evaluables
solamente por su utilidad. Apuesto a que los coleccionistas privados encuentran
nuestro concepto de contexto arqueológico bastante inútil. El convencionalismo
detrás de las definiciones operacionales les da derecho, sin embargo, a utilizar
entonces la definición que para ellos resulte útil, dado que la utilidad es relativa al
usuario. Y todo este asunto no es solamente un experimento mental: parte del
esfuerzo de los promotores de las recientes y afortunadamente fallidas iniciativas
de leyes de cultura ha sido precisamente redefinir conceptos como “patrimonio
arqueológico” de manera tal que la iniciativa privada y otros agentes logren
acceder libremente a él para usufructuarlo. Parte de la polémica ha estado
precisamente ahí, en las definiciones. ¿Conviene entonces adoptar una manera
de concebir la teoría que hace de esas definiciones meras operaciones
convencionales?

19
Es importante poner este comentario en contexto histórico: el coleccionismo fue uno de
los impulsos iniciales que finalmente generó la arqueología hacia finales del siglo XVIII. En
México el coleccionismo privado era todavía legal hasta finales de la década de 1950, lo
que permitió que coleccionistas como Pellicer rescataran importantes piezas. Pero es
indudable que la remoción de piezas de su contexto, aunque puede ser el elemento que
ayuda a preservarlas, acaba destruyendo el contexto si éste no se registra
adecuadamente. Es por ello que, al menos desde la Ley de Patrimonio de 1972, el
coleccionismo privado está prohibido. Así, sin restarle los méritos que históricamente pudo
haber tenido, hoy me parece una práctica inaceptable, amén de que privatiza algo que
debe ser de disfrute social.
65

El costo del convencionalismo suele ser alguna forma de relativismo. En mi


opinión, para el futuro del patrimonio arqueológico este es un costo
inadmisiblemente alto.

En resumen…
Hemos intentado en este capítulo clarificar el término “teoría”, tal como
este se usa en arqueología, señalando cuando menos cuatro significados no-
coloquiales con los que se emplea en nuestra disciplina. El ejercicio tiene como
resultado lateral el ofrecer una comprensión diferente a la tradicional de la forma
en que se estructura la teoría en arqueología. Su intención inmediata es poder
clarificar la teoría que nos ocupa como estudio de caso en esta tesis, la teoría de
SPS sobre el origen del en la cuenca de México.

Proponemos que existen cuando menos cuatro acepciones del término,


que se refieren a diferentes escalas y funciones de la teoría:
1) Teoría como “posición teórica”: se trata del conjunto de supuestos que
comparte una comunidad académica y que orientan su trabajo para
la solución de preguntas explicativas o de comprensión interpretativa,
es decir, en la producción de teorías sustantivas
2) Teoría en el sentido de “teoría sustantiva”: son los intentos de explicar o
comprender interpretativamente un evento, fenómeno o proceso;
están constituidas por enunciados articulados de una manera
específica, y entre los que existe cuando menos un enunciado de
carácter general; son refutables en principio: es decir, son susceptibles
de ser verdaderas o falsas. Muchas veces se trata apenas de “bocetos
explicativos” que no están completamente explicitados, pero que,
aprovechando que se comparte un mismo “fondo” de referencia,
resultan inteligibles para la mayoría de los miembros de una comunidad
académica.
3) Teoría en el sentido de “teoría de la observación”: se trata de teorías
sustantivas bien corroboradas, o al menos socialmente consensuadas,
que justifican los procesos de identificación, registro, obtención, análisis
y presentación de datos, y establecen sus límites de confiabilidad y
representatividad de las inferencias logradas. Están detrás de nuestras
técnicas de trabajo. Junto con las “teorías de lo observable”,
constituyen el campo de la “teoría arqueológica en sentido estricto”,
uno de cuyos componentes centrales es la teoría de la formación y
transformación de los contextos deposicionales. En tanto teorías
sustantivas, no son meras convenciones, sino objeto de refutación
potencial; es decir, son susceptibles de ser verdaderas o falsas.
4) Teoría en el sentido de “teoría temática”: se trata de reflexiones
organizadas en torno a un tema que, a su vez, es un recorte o
subconjunto de la totalidad social, o un punto de vista desde el cuál se
observa el conjunto. Puede o no producir teorías sustantivas, en cuyo
caso normalmente lo hacen desde una posición teórica determinada.
66

Las “teorías temáticas” (dado que aquí el uso del término es el más laxo
de los analizados) caracterizan a las llamadas “arqueologías
temáticas”, como la arqueología del género o del paisaje.

Bajo este modelo, la teoría de SPS sería una teoría sustantiva, cuyo objetivo
explicativo es sobre el origen del Estado en la cuenca de México. Esta teoría se
desprende en buena medida de la posición teórica de la ecología cultural (con
aportes de otras posiciones y otras teorías sustantivas). Y se apoya en teorías de la
observación que el propio Sanders y su equipo ayudaron a formular y
perfeccionar, particularmente las técnicas de reconocimiento regional y
recolección de superficie con un marco de una muestra de prácticamente el
100%, técnicas que están sostenidas en teorías sustantivas (aunque no siempre
explícitas) y, por lo mismo, sujetas en principio a la crítica de la realidad.

La comparación de este modelo con las concepciones actuales de la


forma en que se estructura la teoría arqueológica arrojó otro resultado: el señalar
la adopción, probablemente inconsciente y por ello no necesariamente mal
intencionada, de una escuela de filosofía de la ciencia que fue severamente
criticada desde la década de 1960 y que muchos considerarían perniciosa para
nuestra comprensión de la actividad científica: el operacionalismo que Merton
introdujo a la sociología y que Binford adoptó como base de su “teoría de rango
medio”. El término no solamente resulta confuso –y como han intentado mostrar
otros autores- se separa del contenido que Merton le diera inicialmente sino que,
aún reinterpretado con fidelidad al original, no evita la adopción del
convencionalismo. Este parece ser un hecho del que no se han percatado incluso
los autores de varios populares libros de texto sobre teoría arqueológica, que lo
adoptan en la versión binfordiana (véase, por ejemplo Dark [1995], Johnson
[1999:71-88], Trigger [1992:29, 30-33, 347-348, 368]). El problema con cualquiera de
sus versiones radica en que no solamente no clarifica qué es una teoría y qué
escalas de teoría usamos en arqueología, sino que introduce inadvertidamente el
convencionalismo que está detrás de la propuesta operacionalista. Este enfoque
conduce al relativismo, posición que nos parece riesgosa para el futuro del
patrimonio arqueológico, al dejar abierta su definición a lo que diferentes agentes
consideren “útil” para sus propósitos.
67

Capítulo 2

El concepto de “posición teórica” y sus áreas constitutivas


En el capítulo anterior argumentamos la necesidad de clarificar el
concepto de “teoría”, para entender a qué nos referimos cuando lo usamos en
arqueología. Ello nos llevó a proponer dos escalas diferentes de teoría, la posición
teórica y la teoría sustantiva, y dos tipos especiales de la teoría, la teoría de la
observación (una teoría que permite justificar nuestras inferencias a partir de las
observaciones obtenidas mediante las técnicas de campo y gabinete), y la teoría
que llamamos “temática”, que aborda un aspecto específico de la realidad.
Sobre este último tipo de teoría tendremos poco que decir en lo que resta de este
texto. No así sobre las posiciones teóricas, que serán nuestro objeto de atención
en este capítulo, en el que ofreceremos una definición un poco más elaborada.
Luego haremos en los capítulos 3, 4, 5, 6 un desglose de sus áreas constitutivas
(valorativa, ontológica, epistemológica y metodológica, respectivamente); En el
capítulo 7, pondremos el concepto en práctica y ofreceremos una propuesta
para su detección en la literatura arqueológica. Complementan la presentación
de la propuesta los capítulos 7 al 10, en que caracterizamos a las teorías
sustantivas, destacando el papel que juega la explicación en esa escala de
teorización. Todo este andamiaje es puesto en práctica en la Segunda Parte de
este trabajo, al aplicarse al caso de estudio que nos ocupa, la teoría de SPS.

Motivación y antecedentes
¿De dónde surgió la idea del “análisis teórico” y la intención de desarrollar
el concepto de “posición teórica? ¿Qué relevancia podrían tener, además de la
aplicación que, por supuesto, haremos de ellos en esta tesis? Permítaseme hacer
un viaje nostálgico al pasado personal para rastrear las motivaciones de todo
este asunto.

Una de las cosas que más me impresionó como estudiante de arqueología,


allá por los inicios de los setentas, era la poca claridad, poca precisión y en
general, poco rigor que parecía haber en cuestiones de teoría. Mientras que
ningún arqueólogo que se precie dejaría que lo sorprendan mezclando la
cerámica mazapa con la coyotlatelco, y había colegas que eran capaces de
detectar si el coyotlatelco era tardío o temprano, esos mismos colegas hablaban
de “culturalismo” para referirse a lo que era una “corriente” o “escuela” dentro
de la antropología.

Se suponía que esa corriente agrupaba, con singular alegría, lo mismo a


Boas que a White (que en la realidad sostuvieron posiciones casi diametralmente
opuestas), que a Malinowski o a Radcliffe-Brown, provenientes de una tradición
68

completamente distinta y con interesantes diferencias entre ellos. Curioso sobre


cuál era el criterio clasificatorio, se me contestaba que “todos comparten el
concepto de cultura”. A lo que realmente se referían es a que todos usaban un
mismo término, “cultura”, porque cualquiera que esté mínimamente familiarizado
con estos autores reconocerá de inmediato que los conceptos subyacentes son
muy distintos. Como también era diferente el objetivo que cada uno perseguía.
Tan diferente que dejaron un río de tinta al respecto: ¿debía la antropología
intentar crear explicaciones? Sí, decían algunos (White, Malinowski, Radcliffe-
Brown); no, porque no existen explicaciones del tipo que ustedes buscan,
contestaba Boas. Y si los tres primeros se hubieran sentado a discutir qué tipo de
explicaciones era las que había que buscar, de nuevo saltarían las diferencias: de
corte diacrónico, evolutivas, diría White; de corte sincrónico, funcionales, dirían los
otros dos.

Pero las cosas se pusieron aún peor cuando el marxismo se hizo la corriente
de moda en las instituciones latinoamericanas, incluyendo la Escuela Nacional de
Antropología e Historia, en la que yo estudiaba. La clasificación se redujo aún
más: había solamente dos posturas en la antropología: la progresista, que era el
marxismo (aunque era evidente que estaba lejos de ser una postura unificada,
como cualquier maoísta o trotskista de aquella época seguramente recordarán);
y la reaccionaria, que era todo aquello que se publicara en inglés.

Cuando la llamada “Nueva Arqueología” impulsada por Binford empezó a


hacer su impacto, tardío por cierto, en México, la polémica se reprodujo a nivel
local: se achacaba a Jaime Litvak el haberla introducido, y de ser su
representante número uno. ¿Cómo se sabía que Litvak era “nuevo arqueólogo”?
Fácil: ¡Usaba computadoras! No importaba si Litvak estaba más cercano a la
arqueología analítica británica de David Clarke (en uno de cuyos libros incluso
participó el arqueólogo mexicano y querido maestro, Jaime Litvak [Clarke 1972]):
para muchos, lo que caracterizaba a la Nueva Arqueología era la computación
(y quizá el uso de la estadística).

Para entonces yo había empezado a leer ya a Binford. Su obra me parecía


fascinante, y estaba seguro que ese era el camino para que por fin la
arqueología se convirtiera en una ciencia. Pero en mis lecturas era claro que
nunca fue la computadora la característica central de la Nueva Arqueología.
Posteriormente, las críticas de algunos notables personajes acrecentaron mi duda
de que estuvieran entendiendo lo que realmente era la Nueva Arqueología. En
voz de uno de mis profesores, que ya antes he citado en algún otro trabajo:
“¡Seamos serios! La Nueva Arqueología ni es nueva, ni es arqueología”. Y en
seguida despotricaba contra autores que clarísimamente no podían ser
considerados nuevos arqueólogos.

Decidí entonces darme a la tarea de intentar clarificar mis propios criterios


para clasificar teorías. La tarea no era solamente capricho personal, sino por esas
fechas el destino me había puesto frente a un grupo de estudiantes de
licenciatura, impartiendo el curso de Teoría arqueológica que había heredado de
Litvak. Si consideramos que en ese momento tenía 22 años, estaba terminando
69

apenas la maestría y un buen número de mis alumnos eran mayores que yo, era
evidente que tenía que hacer un buen trabajo. La responsabilidad que Litvak me
había confiado me la tomaba definitivamente en serio y quería hacer un buen
papel.

Desde entonces intenté ir más allá que algunos de los cursos típicos de
teoría en la ENAH que, con excepción de los Litvak y de Javier Guerrero, seguían
un formato que yo podría llamar de “autores y libros clásicos”. Sospecho que el
formato lo importaron de las clases de literatura que se imparten en las
preparatorias. Todos lo conocemos: aprender literatura no significa entender
cómo es que funciona el arte literario, ni mucho menos leer a los autores más
representativos. Significa poder contestar qué autor escribió que libro, y dar una
sinopsis de su contenido. Muchos cursos de teoría antropológica, pero también
arqueológica de la ENAH eran -me temo que algunos todavía son- el equivalente
a este formato preparatoriano; y por desgracia, a veces con el mismo nivel de
profundidad del bachillerato.

Me parecía que enseñar teoría así era perderse de todo lo que realmente
podría aportarnos la teoría. No sólo era mortalmente aburrido20 (de nuevo, aquí
Litvak y Guerrero eran excepciones notabilísimas no solamente en cuanto al
formato, sino al nivel de espectáculo que ambos motaban); sino que enseñada
así, era algo que había ocurrido en el pasado, había sido creado por próceres de
talla inalcanzable y, por supuesto, era totalmente irrelevante a la práctica
cotidiana de la arqueología. Yo no quería para mis alumnos lo mismo. Había que
hacer algo al respecto.

Con prácticamente sólo tres elementos para guiarme (además de las


enseñanzas y el ejemplo de Litvak) fue que me armé de valor e intenté hacer
algo diferente. Esas guías eran los libros de Marvin Harris, “The rise of
anthropological theory” [Harris 1982 (orig. 1968]; el de Binford, que recopilaba sus
artículos hasta 1972 [L. R. Binford 1972] y el libro introductorio de Hempel a la
filosofía de la ciencia [Hempel 1966]. Lo que tomé de ellos eran ciertos criterios y
distinciones que permitían no solamente describir, sino analizar de manera crítica
los autores que estudiábamos en el curso. A veces se trataba de oposiciones que
en manos de autores como Harris, eran casi siempre polares y supuestamente
irreconciliables (“estrategia inductiva” vs. “estrategia deductiva”, “emic” vs.
“etic”); pero en definitiva planteaban elementos que permitían entender por qué,
salvo en una clasificación como la de una “cierta Enciclopedia China llamada
Emporio celestial de conocimientos benévolos” [Borges 2005]21, nadie en su sano
20
Aquí la opinión no es mía, es de muchos alumnos que habían tomado esos cursos y que,
en contextos informales, se atrevían a expresar su punto de vista…
21
“Esas ambigüedades, redundancias y deficiencias recuerdan las que el doctor Franz
Kuhn atribuye a cierta enciclopedia china que se titula Emporio celestial de
conocimientos benévolos. En sus remotas páginas está escrito que los animales se dividen
en (a) pertenecientes al Emperador, (b) embalsamados, (c) amaestrados, (d) lechones,
(e) sirenas, (f) fabulosos, (g) perros sueltos, (h) incluidos en esta clasificación, (i) que se
agitan como locos, (j) innumerables, (k) dibujados con un pincel finísimo de pelo de
camello, (l) etcétera, (m) que acaban de romper el jarrón, (n) que de lejos parecen
70

juicio pondría a Boas en el mismo grupo que a White, como pretendían los que
hablaban de “culturalismo”.

Pero más apasionante era que, al poner en práctica esos criterios de


análisis, se ponía de realce lo que estaba en juego en la polémica: maneras
distintas de concebir la disciplina que tenían definitivas y claras consecuencias
políticas y éticas, y que eran indudablemente relevantes para la práctica
cotidiana de la arqueología. En términos pedagógicos, aún asumiendo el riesgo
de que se pudieran malinterpretar esos intentos clasificatorios de la teoría como
“cajones” rígidos e inamovibles, la estrategia resultó: los estudiantes tenían ahora
un rol más activo: el de tratar de identificar los elementos que permitían colocar a
un autor en una “escuela” y no en otra; o evaluar los méritos relativos de las
diferentes propuestas.

La relevancia para el trabajo arqueológico era inmediata: ¿debía la


arqueología seguir la tradición y restringirse a describir el material arqueológico? o
¿debía intentar producir explicaciones y contrastarlas con la evidencia del
pasado?; ¿era realmente factible producir hipótesis de este tipo?; ¿hacía daño
llegar al campo “contaminado de teoría”, como decía uno de los líderes de la
arqueología mexicana?, ¿era factible realmente llegar “con la mente en
blanco”?, ¿era la elección de técnicas de campo realmente una cuestión de
“estilo personal”, como decía otra de mis profesoras? o ¿era más bien cuestión de
seriedad profesional y respeto por el patrimonio arqueológico? Estas y muchas
otras preguntas surgían semestre a semestre. Aunque no todos los alumnos
reaccionaban con el mismo entusiasmo, los resultados eran promisorios.

Por esas épocas fue que leí a Kuhn. Leí la primera edición del libro, [Kuhn
1962] sin el Poscripto de 1970 [Kuhn 1970] en el que discute y trata de enfrentar las
consecuencias problemáticas de su propuesta. Por supuesto, a mí se me
escaparon igual que se le habían escapado a Binford cuando él lo introdujo al
público de arqueólogos [L. R. Binford 1972:244], aunque la primera mención a
Kuhn ocurre originalmente en un artículo de Paul S. Martin [1971]. Decidí de
inmediato incorporarlo, dado que ahora tenía no solamente un nombre que me
gustaba mucho más que el de “escuelas” o “enfoques” o “marcos teóricos”, sino
que Kuhn presentaba además una imagen muy plausible de los aspectos sociales

moscas. El instituto Bibliográfico de Bruselas también ejerce el caos: ha parcelado el


universo en 1000 subdivisiones, de las cuales la 262 corresponde al Papa; la 282, a la Iglesia
Católica Romana; la 263, al Día del Señor; la 268, a las escuelas dominicales; la 298, al
mormonismo, y la 294, al brahmanismo, budismo, shintoismo y taoísmo. No rehúsa las
subdivisiones heterogéneas, verbigracia, la 179: "Crueldad con los animales. Protección de
los animales. El duelo y el suicidio desde el punto de vista de la moral. Vicios y defectos
varios. Virtudes y cualidades varias…He registrado las arbitrariedades de Wilkins, del
desconocido (o apócrifo) enciclopedista chino y del Instituto Bibliográfico de Bruselas;
notoriamente no hay clasificación del universo que no sea arbitraria y conjetural. La razón
es muy simple: no sabemos qué cosa es el universo”. (Borges 2005), citado en
http://ndirty.cute.fi/~karttu/tekstit/wilkins.htm, 13 de mayo de 2007.
71

e históricos de la ciencia. Tan plausible que, cuando lo leía, parecía que estaba
leyendo sobre las discusiones teóricas entre las diferentes facciones de la
arqueología en México. Por supuesto, no solamente lo adopté, sino que mi tesis
de maestría [Gándara 1977] fue un intento de aplicarlo a la arqueología (y creo
que fue uno de los primeros, al menos en México que fue la fuente original de la
referencia para Binford, hasta donde es posible darse cuenta).

En 1978, durante mi primer cuatrimestre en el Doctorado en la Universidad


Michigan, pude ratificar que mi intuición no estaba tan errada: el excelente curso
de Aram Yengoyan sobre Teoría Arqueológica utilizaba mecanismos similares de
presentación y análisis. Ese otoño, y el invierno siguiente, resultaron
particularmente estimulantes: así como se podían analizar lo que todavía llamaba
entonces paradigmas, había maneras de presentar teorías específicas (que aquí
he propuesto llamar teorías sustantivas), gracias de nuevo a dos extraordinarios
cursos: el de Robert Whallon sobre cazadores recolectores y el de Henry Wright
sobre sociedades complejas. Como se verá adelante, el mecanismo de análisis
de Wright es el antecedente directo de mucho de lo que yo propondré aquí para
el análisis de teorías sustantivas.

Sin embargo, la gran sorpresa fue tomar por primera vez un curso de
filosofía de la ciencia con un filósofo profesional22: en una decisión que me temo
luego me costó ante mis asesores en el Departamento de Antropología, insistí en
que me dejaran tomar el curso del Peter Railton, “Phil 420”. El efecto fue
inolvidable e irreversible: mis intentos autodidactas se habían quedado cortos;
había un mundo entero que explorar en la filosofía de la ciencia, en el que a
cada paso yo veía la posibilidad de emplear lo aprendido en beneficio de la
arqueología. Al curso de Peter, que tomé no una, sino dos veces, por el puro
placer de oírlo, siguieron el curso del Dr. Mailand, sobre filosofía de la ciencia
social, y los seminarios avanzados de Larry Sklar, en donde tuve oportunidad de
conocer la obra de Popper y sus seguidores, entre los que me fascinó Lakatos.
Luego hubo otros sobre filosofía política (Railton), Lógica simbólica (McCartney) y
teoría de la historia (Scott), y sesiones en las que me logré colar como oyente en
cursos de epistemología y metafísica.

Escribo todo esto no solamente por nostalgia personal –quizá son asuntos
que solamente serán interesantes para mí- sino como un acto de reconocimiento
a estos profesores, de los que aprendí mucho de lo que voy a presentar en los
capítulos siguientes. Y aunque el aprendizaje no siempre fue fácil (había que estar
a la altura de los estudiantes graduados del Departamento de Filosofía), y hubo
muchos momentos en que estuve tentado a “tirar la toalla”, la intuición era de

22
Sin restarle mérito a Johnatan Mollinet, que fue mi maestro de metodología científica
durante mi primer año en la ENAH. Pero su enfoque, encapsulado claramente en la frase
con la que abrió el curso, me resultaba restrictivo; palabras más, palabras menos dijo algo
como: “Hoy iniciamos un recorrido por la única filosofía que vale la pena; la del marxismo,
que se expresa en la obra que aquí analizaremos: El Capital”. Y en efecto, eso
prácticamente fue lo único que vimos (aunque recuerdo, en justicia, que también leímos
a Geymonat y a Bachelard). Ese era el espíritu de los tiempos…
72

que todo esto podía ser útil para mejorar la teoría en arqueología y por supuesto,
la docencia en este tema.

La primera aplicación concreta de esta intuición a la arqueología fue un


texto escrito originalmente como trabajo de fin de semestre en Michigan, que
luego creció para convertirse en una ponencia presentada en 1981 y finalmente
en un ensayo de más de 300 cuartillas publicado en dos partes como “La “Vieja
‘Nueva arqueología’” [Gándara 1983]. Se presenta por primera vez ahí el
concepto de “posición teórica”, y se perfilan algunas de las ideas sobre el análisis
de teorías sustantivas. El ensayo presentaba, además, mi crítica a la arqueología
procesual, y era el equivalente a una despedida, un “corte de caja” y un
deslinde: la experiencia michigana me había convencido de la necesidad de
adoptar el materialismo histórico y unirme como aprendiz al grupo de
arqueología social cuya figura central en México es Felipe Bate. Quería con ese
ensayo dejar planteadas mis diferencias con la arqueología procesual, e
indirectamente, las razones para mi cambio.

A mi regreso de Michigan en 1982 apliqué lo aprendido, y el embrión de lo


que sería lo que aquí he llamado “análisis teórico” en mis cursos de la ENAH, con
excelentes resultados, en los que no poco tiene que ver que tuve generaciones
de estudiantes definitivamente sobresalientes. En 1984 fui invitado a hacerme
cargo del curso de Epistemología (Metodología I) del posgrado de la ENAH. El
programa hasta entonces vigente era un recuento de la historia de la teoría del
conocimiento de los griegos a Marx, que generalmente se acababa antes de
llegar al siglo XIX, por limitaciones de tiempo. Yo propuse convertirlo en un curso
de epistemología y filosofía de las ciencia aplicadas a las ciencias sociales. A
partir de ese momento fue el laboratorio de experimentación del que surgió
mucho de lo que presentaré en esta tesis. En versiones subsecuentes del curso,
dictado primero a antropólogos sociales, pero luego también a lingüistas,
antropólogos físicos, historiadores y finalmente a arqueólogos, fue que el
concepto de posición teórica se depuró y se convirtió en el eje estructurante del
curso. Paso ahora a caracterizarlo con mayor detalle, y en una sección
subsiguiente, a aplicarlo para tratar de identificar la posición teórica de Sanders
cuando escribió con Parsons y Santley la “Biblia verde” (“The Basin of Mexico”
[Sanders, et al. 1979]).

Caracterización del concepto de “posición teórica”


El análisis de una teoría sustantiva, como la de SPS, se beneficia
enormemente de tener cuando menos una claridad inicial sobre la posición
teórica de la que esta teoría se deriva. Por ello, es conveniente revisar ahora el
concepto con mayor detalle.

Podemos definir una posición teórica como el conjunto de supuestos


valorativos, ontológicos, epistemológicos y metodológicos que orientan el trabajo
73

de una comunidad académica para la construcción de teorías sustantivas (ver


Ilustración 1)
74

Ilustración 1. El concepto de Posición Teórica.


75

Las teorías sustantivas, como se recordará, son los intentos particulares de


resolver una problemática explicativa o comprensiva-interpretativa; son conjuntos
de enunciados que incluyen cuando menos un principio general y que son
potencialmente refutables. Algunas de esas teorías sustantivas, que se convierten
en emblemáticas de la posición teórica, son las “teorías ejemplares”, y sirven
tanto para establecer su prestigio como para formar a nuevos profesionales.

En el caso de posiciones teóricas que supuestamente no pretenden la


creación de teorías, como sería el caso de las versiones boasianas más
particularistas, se privilegia un componente que en otras posiciones no siempre se
destaca: los “proyectos ejemplares”. Estos proyectos son casos particularmente
notorios y exitosos, que reciben un reconocimiento general de la comunidad
académica. Sirven a los mismos propósitos de promoción y formación que en
otras posiciones tienen las teorías ejemplares. Estos proyectos incorporan maneras
de realizar el trabajo de campo y gabinete que son imitados por otros
investigadores, sin que a veces se internalice el conjunto de la posición teórica de
la que derivan.

Una “rutina de trabajo” es la secuencia de actividades y de


procedimientos técnicos que, derivados de uno o más proyectos ejemplares, son
la base para la formación de los nuevos profesionales en el campo y el gabinete.
Una vez establecidos pueden ser reproducidos sin que los participantes tengan
que entender la justificación profunda ni de la secuencia ni del particular
conjunto de técnicas empleadas.

Todas las posiciones teóricas maduras tienen eventualmente proyectos


ejemplares y generan rutinas de trabajo. Y, al ser la aplicación de conjuntos de
técnicas, aquellas rutinas de trabajo que resultan exitosas o son promovidas
institucionalmente, pueden ser compartidas por más de una posición teórica.

Podemos llamar “comunidad profesional” al conjunto de practicantes de


una disciplina, como en el caso de la comunidad profesional de arqueólogos.
Dada la multiplicidad de programas de formación académica, no toda la
comunidad profesional comparte la misma posición teórica. Podemos llamar
“comunidad académica” al subconjunto de una comunidad profesional que
comparte una posición teórica. Como se verá, las definiciones de posición teórica
y comunidad académica están imbricadas. Una comunidad académica puede ir
perfeccionando la posición teórica con la que trabaja, típicamente como
resultado del trabajo de sus figuras más representativas, pero también como
efecto de responder a las críticas y retos que le presenta el diálogo con otras
posiciones teóricas. Así, a lo largo del tiempo, la posición teórica genera lo que
podemos llamar una “tradición académica”. Las tradiciones académicas se
sustentan normalmente en los programas de formación de profesionales y se
transmiten tanto a través del currículo explícito como del llamado “currículo
oculto”, muchas veces sin una exposición directa a las propuestas de otras
posiciones teóricas, lo que hace aún más invisible para algunos de sus
76

practicantes el darse cuenta de que siguen una posición teórica en particular –tal
como Kuhn había señalado para los “paradigmas”.

Creo que son tres los mecanismos de endoculturación más importantes que
permiten la reproducción de una posición teórica: el primero, como se mencionó,
es el currículo, incluyendo lo que normalmente se llama el “canon” bibliográfico,
es decir, la lista de textos y autores que se consideran indispensables para la
formación de un profesional; el segundo, sería el compartir rutinas de trabajo; el
tercero, la interacción con otros profesionales en reuniones académicas
(congresos, mesas redondas y otros eventos de este tipo), que permiten un
“aprendizaje por modelaje” o “aprendizaje mimético”, que creo es uno de los
medios por los que, en particular, se aprenden las actitudes y, con ellas, los
valores de la posición teórica.

Un par de ejemplos pueden ilustrar cómo es que se aplican estas ideas a la


arqueología. El primero remite a la arqueología mexicana en los años de mil
novecientos setenta. En esa época, muchos arqueólogos se sintieron
profundamente ofendidos cuando en el debate iniciado sobre todo desde el
marxismo, fueron calificados no solamente como “reaccionarios” sino como
“tradicionalistas historiadores de la cultura”. Aparte del epíteto político, muchos
no entendían en qué sentido es que eran historiadores culturales o, más
precisamente, cómo es que sus interlocutores pretendían que ellos no lo eran. Es
decir, hacer historia cultural es hacer arqueología; ¿qué otra arqueología había,
entonces? ¿A qué venía la crítica?

Recuerdo la sorpresa de muchos colegas cuando en una Mesa Redonda


de la Sociedad Mexicana de Antropología en Tegucigalpa, dedicada a la
frontera sur de Mesoamérica, Enrique Nalda dejó fríos a muchos. Se discutía qué
rasgos de la lista de Kirchhoff debían privilegiarse, dado que si se seguía alguno, la
frontera pasaba por un lado, y si seguía otro, se extendía o se contraía. Nalda se
puso de pie y dijo algo así como (en versión libre) “¿Y a quién (diablos) le importa
si la frontera pasa por un lado o por otro? Si de eso se trata la arqueología
estamos fritos. Supongamos que llegamos ahorita a un acuerdo y decimos que la
frontera pasa por aquí. ¿Se acabó entonces la arqueología mesoamericanista?
¿Ya no hay nada que investigar? Lo interesante no es por dónde pasa la frontera
de acuerdo con algún rasgo, sino por qué hay algo que podemos caracterizar
como mesoamericano, por qué se extendió cronológica y geográficamente, y
por qué es que tiene un ámbito delimitado y diferente al de otras de las llamadas
altas culturas. Pero entender que éstos son los problemas importantes implicaría
salir del marco de la historia cultural, cosa que por lo visto nos da trabajo
hacer…”.

En efecto, a muchos colegas formados en el particularismo histórico de la


escuela mexicana de arqueología, les era invisible que eran particularistas y que
los objetivos que perseguían no eran los únicos posibles. Pero, dado que la
mayoría no era conciente de su filiación a una posición teórica, no podían
entender por qué es que se les tachaba de particularistas. Ellos simplemente
hacían arqueología, igual que sus maestros la habían hecho y antes de éstos los
77

maestros de sus maestros. ¡A qué venía tanto ruido! En el canon de esta posición
no había textos que no fueran particularistas, ni cursos que hicieran visibles otras
posiciones.

Antes de la inclusión del curso de teoría arqueológica, idea de Litvak allá


por 1970, el tratamiento explícito de la teoría arqueológica se reducía al par de
semanas que se le dedicaba a la historia de la arqueología en el curso
introductorio de Arqueología General. Y esta historia se presentaba como una
progresión no interrumpida de arqueólogos, con algunos nombres distinguidos,
como Childe, pero fundamentalmente dentro de una sola manera de hacer la
arqueología. E incluso los críticos de la tradición particularista que la combatieron
desde antes, como José Luis Lorenzo, fueron en cierto sentido neutralizados al
aceptarse que esa “otra manera” de hacer arqueología se justificaba solamente
en contextos precerámicos. A nivel de técnicas, se daba un “dejar hacer, dejar
pasar”: la insistencia de Lorenzo en la estratigrafía era aplicable solamente a sitios
prehistóricos, salvo por un ocasional “pozo de control” que era el único en el que
se excavaba realmente de manera estratigráfica. Es decir, las rutinas de trabajo
de esta posición no incorporaban normalmente la excavación estratigráfica (ni el
registro tridimensional, ni la recuperación de muestras paleoambientales), y no
veían por qué tenían que hacerlo. No importa cuantas veces Lorenzo los
calificara (siguiendo a Armillas) de “piramidiotas”, la comunidad académica
mayoritaria no aceptaba la necesidad o la relevancia de excavar de una
manera diferente. “Que eso lo aplique él en Prehistoria”, se disculpaban.

El segundo ejemplo se deriva de mi propia experiencia en Michigan. A


pesar de considerarme un estudiante dedicado, muchas veces me encontraba
en la situación en que alguno de mis profesores me decía “¡pero… cómo! Acaso
no haz leído a…” tal y tal autor. Yo tenía que confesar mi ignorancia. Era obvio
que para ellos esos autores se consideraban indispensables. Eran parte del canon
bibliográfico que se llevaba desde la licenciatura. Durante meses me sentí
increíblemente ignorante y hubo que trabajar duro para ponerse al día. Hasta
que un día, releyendo a Kuhn sobre la invisibilidad de los paradigmas y el papel
de las universidades en este proceso, me di cuenta que mi ignorancia era mucho
más el resultado de haberme formado en una tradición académica diferente,
que de negligencia o flojera. Así que un día me armé de valor, y al siguiente
señalamiento de “pero entonces no haz leído a…” contesté “No, pero he leído a
Piña Chán, a Lorenzo y a García Cook, que seguramente Ud. habrá leído
también”, y resultaba que salvo por aquellos que trabajaban en Mesoamérica, la
mayoría no sabían de qué estaba hablando, ni de quiénes eran Marquina o
García Payón, Medellín Senil o Acosta, Noguera o Muller, Caso o Bernal. Y si la
cuestión era de teoría, prácticamente nadie había leído a Marx, Engels, Lenin,
Trotski o Mao, y tampoco a Althousser, Balibar, Meillasoux, Terray, Godelier o
Mandel, que era lo que se leía en la ENAH por esas épocas. Las tradiciones
académicas tienen como efecto lateral el hacernos a todos en cierto sentido
“provincianos”…

Como se verá, propuestas como las de “comunidad académica” y


“tradición académica” son heredadas sobre todo de Kuhn. ¿Por qué entonces no
78

adoptar de plano la propuesta kuhniana entera? Tal como he discutido con


mayor amplitud en otro lado [Gándara 1992], el problema central con la idea de
“paradigma”, aún revisada y descompuesta en los componentes de “matriz
disciplinaria” y “ejemplares”, lleva implícito un relativismo expresado en el
problema de la “inconmensurabilidad interparadigmática”. Este término, amén
de ser un buen trabalenguas, describe la imposibilidad de comparar dos
paradigmas. Dado que cada paradigma “construye” su mundo, los mundos de
paradigmas distintos no se tocan. Y si no se tocan, no es claro en qué sentido el
cambio de un paradigma a otro es un cambio racionalmente motivado. No es
posible determinar si la ciencia realmente avanza, o es un salto, motivado por
factores sociales como la moda o la búsqueda de prestigio, en la que
simplemente se abandona un paradigma por “viejo y desgastado” y se adopta
otro que no necesariamente implique una mejoría.

Otro problema con la idea de “matriz disciplinaria” es que no queda


totalmente claro qué tipo de supuestos son los que comparte una comunidad
académica. A mí me interesaba caracterizarlos de manera más precisa y, de ser
posible, identificar aquellos que le dan su “sabor” particular e identidad a una
posición teórica. Lakatos resuelve parcialmente ambos problemas. El de la
inconmensurabilidad, mediante la idea de que los (en su terminología) programas
de investigación científica sí pueden compararse entre sí y “pelearse con los
datos”, dado que, por un lado, no “construyen” el mundo –el mundo existe
independientemente de los paradigmas- y por otro, gracias a las teorías de la
observación, que se comparten, es factible determinar en qué momento resulta
racional abandonar o adoptar un nuevo programa de investigación científica.

No es este el lugar para un tratamiento detallado de su propuesta.


Podemos simplemente adelantar que la racionalidad científica se salvaguarda
cuando en un proceso de crisis un programa muestra que resuelve (o disuelve) los
problemas que el programa anterior no podía resolver, tiene mayor contenido
teórico y empírico, y al menos una porción de este contenido empírico adicional
está corroborado (es decir, no ha podido ser refutado).

En cuanto al segundo problema, el de identificar los supuestos que


caracterizan a un programa de investigación científica, Lakatos avanza al
proponer una jerarquía al interior de un programa de investigación científica: es
decir, no todos los supuestos son igualmente importantes. Distingue entre el
“núcleo duro” del programa y su periferia. En este núcleo duro están las creencias
más básicas y preciadas de la comunidad, que rara vez serán sujetas a
evaluación empírica; en la periferia están las teorías de orden menor, que son las
que se someten a la prueba de los datos, así como los procedimientos técnicos.
Las primeras pueden ser modificadas y rectificadas, reconociendo como ciertos
los problemas que se les presentan; los segundos son sujeto del desarrollo de los
procedimientos de observación y análisis.

Aunque esta propuesta afina la caracterización de los supuestos que una


comunidad científica comparte, e indica que no todos son del mismo peso o
importancia, todavía no es claro en qué consisten. Pero si se lee con atención
79

tanto a Kuhn como a Lakatos, yo creo que es factible derivar de estos autores
una idea que permita precisar de qué supuestos se trata. Así que, de nuevo sin
ninguna pretensión de originalidad, en lo que sigue intentaré caracterizar estos
supuestos, agrupándolos por áreas para facilitar la exposición. En la vida real, por
supuesto, estas áreas se intersectan todas. De hecho, sus relaciones permiten
determinar qué tan congruente es una posición teórica, como veremos adelante.

Áreas constitutivas de una posición teórica


Propongo que podemos agrupar los supuestos de una posición teórica en
cuatro áreas constitutivas: el área valorativa, el área ontológica, el área
epistemológica y el área metodológica. De estas dos, las centrales, por razones
que se expondrán en su momento, son el área valorativa y el área ontológica.

En los siguientes capítulos abordaremos en detalle estas cuatro áreas, en el


orden enunciado arriba. Pasamos entonces ahora al área valorativa.
80
81

Capítulo 3

El Área Valorativa
En esta área están los supuestos que tienen que ver con el “para qué y para
quién” de la actividad científica. Son los supuestos éticos y políticos que permiten
seleccionar qué problemas son los relevantes, por qué, y a quién beneficia su
solución23.

Aunque en la tradición empirista la ciencia implica supuestamente la


neutralidad valorativa, aún dentro del neopositivismo se reconoció en su
momento [Rudner 1970 (orig. 1953)), en Brody [1970)), que esta apreciación era
errónea y que la ciencia persigue, cuando menos un valor: la verdad 24. Podemos
agregar que una cosa es la neutralidad valorativa y otra muy diferente el
prejuicio. Cualquiera protestaría ante un juez que tuviera predilección por uno de
los contendientes en un pleito legal, dado que prejuiciaría el resultado; pero, del
mismo modo, nadie aceptaría someterse a un juez que no creyera que es
importante encontrar la verdad y ver que se haga justicia, bajo el argumento de
que él no tiene valores, es “valorativamente neutro”. Esos son los valores que

23
Es importante hacer notar que en nuestra formulación, la idea de valores que orientan
las elecciones científicas es distinta a la de Laudan [1984). De hecho, construí mi
propuesta sin conocer el desarrollo que había hecho Laudan de la suya a partir de sus
trabajos iniciales (por ejemplo, Laudan 1977) y solamente me enteré de ella durante el
proceso de revisión de este texto. Para mí, estos valores centrales son los objetivos
cognitivos: el para qué de la investigación. Laudan utiliza el término más para referirse al
cómo, es decir a la propiedades que se consideran deseables de esos objetivos
cognitivos; o bien a un meta-valor, que no todos los científicos reconocen, para sorpresa
de aquellos que piensan que la ciencia es un asunto unificado: la búsqueda de la verdad.
Laudan correctamente identifica valores que el conocimiento científico debe cumplir, de
acuerdo con diferentes directrices metodológicas: la economía conceptual, la precisión
predictiva, la simplicidad de manipulación, la certidumbre o la inteligibilidad [ver, por
ejemplo, Laudan 1984: p. 48-49). Laudan discute estos valores como “metas” de la
ciencia. Claramente es un sentido diferente al que yo emplearé al hablar de “metas
cognitivas”. No discutiré aquí si una u otra formulación es preferible; simplemente señalo
las diferencias, dado que aparentemente la propuesta de Laudan es muy popular en
México –atributo justamente merecido: el libro es excelente, aunque no pueda hacerle
justicia ya en esta tesis.
24
El argumento que sigue, sin embargo, no es el de Rudner (aunque la corrección de las
teorías juegue ese papel en su artículo). Es uno que creo haber leído en Nagel o en
Cohen durante mis días en Michigan, pero que me ha sido imposible rastrear en la
literatura; al menos no aparece en las obras más conocidas de estos autores que tengo a
la mano. Lamento la omisión bibliográfica, pero el argumento es fuerte y merece
mención, a pesar de que quien escribe estas líneas haya olvidado, veinticinco años
después de su lectura, al autor.
82

guían a un buen juez, que debe ser neutro en relación a las partes, no a los
valores.

Hago todo este periplo, conciente sobre todo de que en la tradición


académica de los Estados Unidos de América, al menos en arqueología, se
considera anatema mezclar ciencia y valores. La política en particular debe ser
eliminada de la ciencia, como ha señalado, por ejemplo, Binford [Binford 1989:3,
23). Pero sin referencia a un conjunto de valores que orienten el trabajo de una
comunidad científica, resulta entonces inexplicable por qué se eligen ciertos
problemas y no otros como los problemas relevantes a resolver.

Objetivos cognitivos
El primer elemento dentro de esta valoración tiene que ver con el tipo de
conocimiento -o más precisamente, la meta de ese conocimiento- que se
persigue. Llamamos “objetivo cognitivo” u “objetivo cognoscitivo” (para los
puristas del español), al objetivo de conocimiento que se persigue y que, en
general, en antropología y ciencias sociales suele ser uno de los cuatro siguientes:
descripción, explicación, comprensión interpretativa (verstehen) y glosa. Estos
cuatro objetivos probablemente no agotan los objetivos posibles; tampoco son
objetivos que se puedan separar con una línea fuerte y dura, dado que rara vez
existen de manera aislada. Es más frecuente encontrar combinaciones de ellos,
aunque algunas combinaciones son más problemáticas que otras. Y, por último,
es importante notar que al menos dos de ellos (explicación y comprensión) están
ligados a otro objetivo cognitivo (la predicción/posdicción), que a su vez se liga a
un objetivo práctico, el del control y la manipulación de la realidad para
determinados fines. En la ciencia social esta conexión es más difícil de ver que en
las ciencias naturales, en las que en muchas ocasiones ha sido la necesidad de
predicción y control la que ha motivado que se seleccionen algunos problemas
sobre otros como los que requieren una solución más urgente. Veamos ahora
estos cuatro objetivos con más detalle.

La descripción
Tiene que ver con preguntas del tipo “Qué, cuándo, dónde, cuánto, cómo
(descriptivo)”. Son las preguntas con las que se originó la arqueología, y que
dominan sobre todo la tradición particularista histórica, al unírsele “Quiénes”, en el
sentido de grupo cultural o étnico. Se intenta ubicar los materiales en tiempo y
espacio, organizando el registro arqueológico en etapas, periodos y subperiodos,
en la dimensión cronológica; y áreas culturales, subáreas culturales y culturas en
la dimensión geográfica (o sus equivalentes en otras posiciones teóricas).
Normalmente se refieren a culturas específicas o a características específicas de
una cultura, como la de determinar cuánta población hubo en un sitio
determinado. Muchas veces estos problemas son entonces de un tipo que
podemos llamar “identificatorio”: qué materiales pueden utilizarse para tipificar a
cierta fase o grupo cultural (en la tradición particularista), o cómo saber si son
83

ejemplos de un estadio o de otro (en la tradición procesual). Interesa determinar


qué pasó, dónde, cuándo y con quiénes pasó.

La descripción aparentemente no involucra teorías, en el sentido de que


no busca construir nuevas teorías; pero si examinamos más claramente el tipo de
enunciados involucrados se puede apreciar que en muchos casos se asumen o se
usan explícitamente teorías previamente desarrolladas. Un ejemplo puede facilitar
ver esta característica: para determinar si un sitio en particular es ejemplo de un
cacicazgo, se tiene que tener un enunciado general que establezca que “todos
los cacicazgos tienen las propiedades p, q y r…”, cuya presencia es lo que
permitirá identificar ese sitio como ejemplo de un cacicazgo. Entonces, en sentido
estricto es falso que la descripción prescinda de la teoría. Muchas veces los
principios generales involucrados simplemente se asumen como verdaderos y por
ello es que no se explicitan.

La descripción fue reconocida durante algún tiempo, a finales del siglo XIX
e inicios del XX, como la meta real de la ciencia. Mach propuso que la ciencia no
es otra cosa que una “descripción económica” del mundo (no en el sentido
economicista, sino de simplicidad, elegancia y parsimonia). La tradición boasiana
actuaba en perfecta concordancia con esa filosofía de la ciencia, al insistir que la
meta de la antropología era la descripción (antropofísica, arqueológica,
etnográfica y lingüística). En esta época se sospechaba de la explicación y de las
nociones de “causalidad” que podían contaminar con entidades “metafísicas” el
carácter empírico de la ciencia.

En arqueología, el énfasis en la descripción fue cuestionado desde los años


de mil novecientos treinta, por el neoevolucionismo: primero Childe [Childe 1944:,
1956:, 1963:; 1974), que proponía que no era suficiente saber qué pasó en la
historia, sino por qué pasó; por Kluckhohn [1939), a quien le parecía que mucha
de la investigación arqueológica se parecía más a una forma descerebrada de
coleccionismo que a una actividad científica; por Steward [Steward and Seltzer
1938), quien cuestionó que, una vez armado todo el esquema cronológico y
tipológico, equivalente a la taxonomía de Lineo, se requeriría todavía de un
Darwin para explicar la variabilidad documentada en dicha taxonomía; por
Taylor [1967 (Orig. 1948)), que mostró el doble discurso de los arqueólogos
tradicionales, privilegiando supuestamente la explicación y luego produciendo
predominantemente monografías descriptivas; y por Willey [Willey and Phillips 1968
(orig. 1958)), que encontraron que se había avanzado tan poco en dar
explicaciones en arqueología, que “era difícil encontrar un nombre para aquello”.
Estas críticas serían retomadas por la arqueología procesual, que propuso
precisamente que el objetivo real de la arqueología, como el de todas las
ciencias, debía ser la explicación [Binford 1972 (orig. 1962)).
84

La explicación
Podemos señalar que la explicación responde a preguntas de tipo “por
qué” y “cómo” (causal). Pero no resulta sencillo hoy día definir lo que es una
explicación. Paul S. Martin [1968) parece haber introducido el modelo hempeliano
de “leyes cobertoras” a la arqueología procesual [Carl Gustav Hempel 1970 (orig.
1965)) y fue el que, durante un corto tiempo, fue adoptado por la arqueología
procesual. Bajo esta concepción, las explicaciones son argumentos en los que las
premisas permiten deducir el evento o proceso a explicar o, cuando menos lo
hacen altamente probable, según los cuatro modelos de explicación
nomológica. Pronto, sin embargo, aparecieron críticas, sobre todo en torno a la
necesidad que tiene este modelo, para funcionar, de leyes generales, y la
dificultad de producirlas en arqueología, al menos de producir leyes que no
fueran triviales [Flannery 1973a). En ese mismo momento, se cuestionaba desde la
filosofía de la ciencia el modelo hempeliano.

Un cuestionamiento que venía de atrás era en el sentido de que la


explicación mediante leyes fuera posible o deseable en la historia. Existe un
interesante intercambio en la literatura entre Hempel y Dray sobre este punto.
Dray sostenía que crear una explicación en historia es simplemente generar la
sucesión de eventos que llevan hasta el que se pretende explicar, en lo que él
llamó “explicación histórica”. Al armar esta sucesión de eventos –lo que luego
Willey llamaría “la secuencia histórica correcta” - se logra una explicación sin
referencia a leyes o relaciones causales universales.

Desde entonces ha habido varias propuestas alternativas, desde las que


sugieren que explicar algo implica proferir un determinado acto, típicamente del
habla, (teorías pragmáticas de la explicación –[Van Fraassen [1991 (orig. 1977)),
Bromberger [1970 (orig. 1966)), Achinstein [1983)]); o que es crear clases de
referencia estadística que hacen más probable un determinado resultado
(explicación como relevancia estadística -[Salmon [Salmon, et al. 1971)), hasta las
que proponen que explicar es determinar las causas y mecanismos que lo
producen (explicación causal [Salmon [1998a)); más recientemente se ha
propuesto que explicar es mostrar que lo explicado pertenece a un conjunto
mayor de procesos o fenómenos (explicación como unificación –[(Kitcher 1991
(orig. 1981):; Kitcher and Salmon 1989))].

El consenso actual apunta a que la explicación es en efecto una de las


metas centrales de la ciencia, pero una que es más fácil señalar en el caso de
teorías desarrolladas, que definir con precisión o normar en abstracto en qué
consistiría una explicación adecuada. Otro consenso aparente es que el término
“ley” pudiera ser demasiado pesado para algunos, al remitir de inmediato a las
leyes de disciplinas tan bien establecidas como la física, que cuentan con un
aparato cuantitativo y formal bien desarrollado. En ese sentido, se piensa que las
explicaciones involucran principios generales, que conectan variables, y que no
necesariamente tienen que ser expresados formal y cuantitativamente como las
leyes de la física. Estos principios son interpretados como involucrando conexiones
causales, en una de las propuestas más populares hoy día, aunque otros piensan
85

que lo único que se requiere (y puede) es que se determinen regularidades. Bajo


estas propuestas la explicación siempre involucra lo que Railton ha llamado
“establecimiento de los mecanismos causales”, que nos permiten no solamente
determinar por qué ocurre algo, sino el mecanismo causal que permite saber
cómo es que ocurre. Por ejemplo, en el caso de teorías demográficas en
arqueología, no sería suficiente decir que la presión demográfica causa la
aparición del , sino que se vuelve indispensable mostrar las conexiones causales
intermedias que hacen que invocar esta variable explique el resultado obtenido.

Como se verá, sin embargo, no hay en la actualidad un consenso


completo, y mucho menos una posición hegemónica, como la hubo en los días
de gloria del neopositivismo en los que el modelo Hempeliano era la guía a seguir.
Para nuestros propósitos, en esta “cápsula del tiempo” en la que analizaremos la
teoría de SPS, el modelo todavía tenía alguna vigencia, por lo que para nuestros
propósitos tomaremos varios de sus elementos como guía, señalando los puntos
en los que nos separamos del modelo. Anticipando un poco, plantearemos que
las explicaciones sí son argumentos (es decir, conjuntos de premisas relacionados
en juicios que permiten inferir con diferentes grados de expectabilidad aquello
que se explica); que entre las premisas debe haber un principio general y que
este principio general es de tipo normalmente causal (punto este último que sería
inaceptable para Hempel, pero que ya estaba siendo considerado por algunos
filósofos de la ciencia a finales de 1970). La explicación tiene un componente
pragmático que ya se apuntaba desde entonces, que hace difícil proponer un
modelo general de explicación, que centra la atención sobre aquello que se
quiere explicar (la situación problemática) y el público al que quiere explicársele,
así como el contexto histórico en que ocurre el acto de explicación. (Volveremos
a este punto en el capítulo 9).

La explicación, tanto por los problemas con el modelo (en la filosofía de la


ciencia) como en su aplicación en la arqueología (dificultad para encontrar leyes
legítimas y construir entonces explicaciones relevantes), estaba siendo ya
cuestionada a inicios de 1980 en nuestra disciplina. Renfrew convocó a una
reunión en Southampton en 1983, cuyo objetivo era precisamente determinar si
había que abandonar o al menos reconsiderar la explicación como meta de la
arqueología procesual. A pesar de la participación de filósofos profesionales, que
intentaron mostrar que las dificultades podrían deberse más al modelo adoptado
que a la meta en sí, el tono general del libro es pesimista, lo que fue aprovechado
por críticos de la arqueología procesual. Ellos reclamaban que las dificultades
encontradas en torno a la explicación no eran accidentales: eran el resultado de
haberla confundido con la meta real de la arqueología, que era la interpretación
comprensiva (verstehen), centro de la propuesta posprocesual que finalmente se
convertiría en la arqueología hermenéutica o interpretativa.
86

Interpretación comprensiva (verstehen o “understanding”)


La idea de que es la interpretación, también llamada “comprensión”, o
verstehen (en inglés: “understanding” o “interpretation”) y no la explicación la
meta de la historia y las ciencias sociales no es una idea nueva. Dilthey inaugura
lo que se ha llamado “separatismo metodológico”, cuando sostiene que las
ciencias que él llamaba “del espíritu” no deben intentar buscar causas y leyes
como las ciencias naturales. Su tarea es determinar el sentido de la actividad
humana. A través de recursos como la empatía (ponerse en el lugar del otro),
busca desentrañar el sentido de la acción.

Así, la interpretación –que no hay que confundir con lo que en arqueología


llamamos “la interpretación de los datos”- busca responder a preguntas de tipo
“qué significa”, referido a una acción, a un texto o a un análogo-de-texto; o “qué
motivó a”, referido a un actor, para entender el significado de lo que hizo.

Si hoy día es difícil determinar qué es una explicación, es aún peor tratar de
definir qué es la comprensión o interpretación. Aquí el consenso es que tiene que
ver algo con la creación de sentido y con la determinación del significado. Hay
discusión sobre qué tipo de eventos o procesos son capaces de tener significado
y si para que algo tenga significado se requiere de un actor que haya intentado
concientemente “decir algo” con su acción. Otra dificultad severa es la de
evaluar entre interpretaciones alternativas. Hay autores que dicen que tal
evaluación es imposible, al menos como una operación que pueda resolverse por
referencia a la empiria; mientras que otros sostienen que sí es posible, pero que
entonces se reduce a aquellas acciones que tienen un autor, y en las que el
significado es recuperable al estar “escrito” en un código accesible y público.

Los arqueólogos interpretativos parecerían considerar que es parte de


nuestra condición posmoderna el no poder (ni quizá requerir) elegir entre
interpretaciones alternativas; ciertamente a su líder, Hodder, la idea le parecía
incluso “neopositivista y reaccionaria” [Hodder, Seminario sobre Arqueología
Interpretativa, IIA. México. 1991]. Yo no me pronunciaré por el momento al
respecto, como tampoco lo haré en torno al asunto de que la interpretación y la
explicación serían incompatibles y mutuamente excluyentes, como parecerían
sostener los arqueólogos interpretativos. Más tarde tendré algo que decir sobre el
uso de principios generales, que se supone no se requieren en la interpretación,
como tampoco se requerirían en la “explicación histórica” en el sentido de Dray y
las “secuencias históricas correctas” de Willey.

Un asunto que quedará pendiente, dado que no he terminado de lograr


una solución que me parezca satisfactoria, es cuándo una pregunta explicativa
puede ser reformulada como pregunta interpretativa y viceversa. En muchas
ocasiones ambas formulaciones son intercambiables; en otras claramente no.
Binford ha señalado una en la que la pregunta “qué significa” no tiene sentido:
señala que, si pudiéramos viajar con la máquina del tiempo hasta el momento del
origen de la agricultura y le preguntáramos a un sujeto qué significa para él el
proceso de domesticación, aún si entendiera nuestra pregunta, seguramente no
87

tendría mucho de interés que responder, dado que este fue un proceso que duró
cientos de años y del que probablemente ningún sujeto fue consciente. Es decir,
habría procesos en los que la pregunta correcta es “por qué” y no “qué significa”
o “qué motivó a”.

Por otro lado, hay contextos en los que la pregunta por qué no tiene
sentido, o al menos no es la pregunta interesante. Así, preguntar por qué la Mona
Lisa tiene ciertos colores puede arrojar como respuesta algo trivial, como que esos
son los que Leonardo quiso usar, o porque eran los más parecidos a la situación
que estaba pintando. La pregunta interesante es “qué significan esos colores en
la Mona Lisa”, y por supuesto, “qué significa la Mona Lisa”, en sí misma. En ese
acto, que es claramente un acto de significación, la pregunta “qué significa” es
la pertinente.

Hay otros en los que ambas son posibles y pueden dar lugar a soluciones no
triviales. En ese caso, se complementan o apuntan a una necesidad práctica,
que es la que en ese momento determinaría cuál es el aspecto que requiere
mayor atención. Para ver esto, pensemos por un momento en un ejemplo no
arqueológico (o al menos no de arqueología prehispánica, aunque sí de
arqueología contemporánea). El ejemplo son los asesinatos conocidos como “las
muertas de Juárez”. Aquí es factible preguntarse “por qué ocurren estos
asesinatos”, y si la causa es única o múltiple; pero también es factible preguntarse
“qué significan”, atendiendo a que las víctimas parecen corresponder a un
patrón que los asesinos encuentran significativo, aparentemente. Ante la
dificultad de evaluar interpretaciones, sin embargo, la segunda pregunta puede
llevar a respuestas de rangos de amplitud crecientes y relevancia decreciente:
así, se puede contestar que son un intento por simbolizar el estatuto inferior en que
la sociedad machista tiene a las mujeres, el poco valor de su vida para estos
machos, o el desprecio a las mujeres de cierta profesión (aunque hoy día es claro
que no todas eran prostitutas). Estas soluciones son al menos plausibles y
medianamente relevantes. Pero también es factible decir que los asesinatos
significan “la crisis y decadencia del sistema capitalista depredador”, o incluso “la
insoportable levedad del ser”, respuestas por desgracia también aceptables bajo
el marco interpretativo, pero cuya relevancia parecería ser menor si lo que nos
interesa con urgencia es detener la serie de asesinatos. En ese caso, parecería
que la pregunta “por qué” las matan nos acerca más al objetivo práctico
deseado, al apuntar a nuevas hipótesis, como la que insiste en que los asesinatos
ocurrieron porque las mujeres fueron usadas para filmar películas pornográficas
del género “smut”, destinadas a públicos a quienes ver morir a una mujer los
excita sexualmente.

Hoy día parecería que la profesión se ha dividido y al menos en la


arqueología anglosajona, da la impresión de que la explicación no es ya
solamente el único objetivo cognitivo deseable, sino tampoco el que busca
prácticamente la mitad de los arqueólogos. Habrá que ver hasta dónde la
arqueología interpretativa resuelve el problema de la evaluación de
interpretaciones (y con ella, la de la elección de interpretaciones alternativas),
antes de ver si esta tendencia se consolida. Por lo pronto, lo cierto es que en el
88

conjunto mayor de las ciencias sociales, la interpretación es claramente un


objetivo cognitivo reconocido como legítimo y alternativo a la explicación25.

La glosa
Este objetivo cognitivo es el más reciente en las ciencias sociales, y habría
seguramente oposición a colocarlo en el mismo estatuto que los tres previos
(descripción, explicación e interpretación). Pero lo cierto es que parece también
estar creciendo, aunque con la claridad de que no intenta ser del mismo tipo que
los anteriores.

En la glosa, la pregunta de nuevo es “qué significa”, pero con una


pregunta subsidiaria de corte instrumental, que sería “¿cómo puedo, mediante la
narración adecuada, ‘iluminar’ el significado de esta acción?”. La formulación es
por necesidad vaga dado que “iluminar” (en el sentido de arrojar luz, no de
pintar) es ya en sí una metáfora. Pero el reciente interés de la antropología por la
literatura, y la apuesta de autores como Geertz en el sentido de que quizá la
antropología nunca fue otra cosa que literatura, implican que este objetivo debe
ser reconocido. A mí los dos ejemplos que me sugirieron la necesidad de incluir la
glosa entre los objetivos cognitivos de las ciencias sociales actuales son Huizinga,
el historiador medievalista; y Monsiváis, el profundo crítico de la sociedad
mexicana contemporánea.

Huizinga, en “El otoño de la edad media”, utiliza la narración literaria (sin


llegar a la ficción, solamente retomando formas de presentación que podrían
considerarse pertenecientes más al arte que a la ciencia), para precisamente
“iluminar” nuestra comprensión de esa época. En ese sentido, enunciados como
“La edad media era una edad en la que llorar era de buen gusto”, no deben ser
interpretados como hipótesis a corroborar, como tampoco lo sería el que “La
edad media era una edad de violeta y dorado”. Pero este par de ejemplos son
suficientes como para mostrar que lo que se conjuran son imágenes poderosas,
más poderosas quizá que cualquier cantidad de estadísticas económicas como
las que llenaron las páginas de la historia medieval econometricista.

Monsiváis hace algo similar en “Amor perdido”, en el que la vida nocturna


de la ciudad de México a mitad del siglo XX renace en las imágenes que él pinta
de los centros nocturnos y los trasnochados personajes que deambulan por las
páginas de su libro. Aprendemos más de estas prácticas culturales de esa manera
y por referencia a boleros y canciones de la época, que con una detallada
enumeración de las ubicaciones, dimensiones y otras características descriptivas
de esos antros que seguramente produciría un arqueólogo de otra persuasión.

25
En rigor, no tiene por qué ser alternativo; como se comenta en otro lado del texto, desde
Weber existen autores que piensan que tanto explicación como comprensión
interpretativa deben ir de la mano en las ciencias sociales. No todos los arqueólogos
interpretativos eliminarían a la explicación como meta legítima.
89

Creo que, mientras no se confunda este objetivo cognitivo con otros, debe
reconocerse su importancia y su lugar entre las metas legítimas de la ciencia
social. Otra historia es pretender que la glosa es la única meta posible, como
parecerían proponer algunos autores posmodernos. Para ellos, las ciencias
sociales no son sino la creación de ficciones sobre el pasado desde el punto de
vista de los autores contemporáneos. Esta negación de la historia que parecería
liberadora a primera vista, deja de serlo cuando se examinan sus consecuencias.
Si no hubo realmente historia, o si ésta es irrecuperable, entonces no es claro en
qué sentido la defensa de los indígenas fue importante en la época novohispana;
o por qué pelearon con pasión los defensores de los derechos civiles en los años
de mil novecientos sesenta; o porqué el Holocausto es una tragedia no sólo para
los judíos, sino para la Humanidad, si todo a fin de cuentas es un invento de los
historiadores.

Hemos intentado caracterizar brevemente estos objetivos cognitivos.


Nuestra caracterización, por necesidad expositiva, los separa y muestra
independientes unos de otros. Pero como mencionábamos antes, rara vez se dan
de manera aislada. Notoriamente, la descripción suele ser un preludio a la
explicación y a la interpretación comprensiva; y, al menos a mi manera de ver las
ciencias sociales, la interpretación comprensiva es una herramienta que ayuda a
clarificar los ámbitos de la explicación (aunque los arqueólogos interpretativos,
como vimos, piensan que ambos objetivos son incompatibles).

La relevancia política de los objetivos cognitivos


¿Cómo se elige un objetivo cognitivo y no otro? En la respuesta a esta
pregunta aflora el carácter valorativo de la decisión. En otras ciencias, hoy día la
descripción se consideraría como un objetivo poco satisfactorio si se persigue de
manera exclusiva. Las necesidades de control y manipulación, normalmente
asociadas a la explicación y a la predicción, harían difícil justificar una ciencia
totalmente descriptiva. En otros contextos, la interpretación recibiría un
tratamiento similar, dado que lo interesante no es tener el equivalente a
“comentaristas sociales” cuyas opiniones no pueden ser evaluadas, sino
conocimiento relevante a la solución de los problemas que agobian actualmente
a la humanidad. Pero en otros contextos la interpretación es vista como una
mirada mucho más humana y penetrante que la explicación causal, así que este
asunto no es uno que tenga una solución fácil.

En el caso de la arqueología la cuestión es aún más compleja, dado que


además hay que preguntarse, en un segundo eslabón de la cadena de
relevancia que atraviesa esta tesis y que iniciáramos en el capítulo 1, si hay algún
objetivo o mezcla de objetivos que pueda contribuir mejor a la conservación y
uso responsable del patrimonio arqueológico. En mi opinión, si el circuito de la
conservación que ha propuesto Jiménez [Jiménez 2005) es una representación
correcta de la realidad, entonces la parte final de este circuito que se inicia con
90

la investigación, que es la comunicación de los resultados a la sociedad en su


conjunto, apunta claramente a que la descripción aislada no es suficiente. Al
público general parecería no estimularlo mucho el listado de atributos de la
cerámica o la arquitectura, o el recuento de fases y tipos característicos de tal o
cual cultura. Es mucho más factible “engancharlo” con elementos que hagan del
pasado algo comprensible, relacionable con la experiencia humana universal.
Para estas funciones, he sostenido en otro lado [Gándara 2003), la explicación y
la interpretación son preferibles.

En particular, si se trabaja con una estrategia de comunicación como la


“interpretación temática”, que hemos empleado en el contexto de sitios y
museos, contar con explicaciones es mucho más eficaz que tener solamente
descripciones [Gándara 2001). Es la diferencia entre los museos interactivos, como
los museos de la ciencia o los museos de los niños, en los que utilizamos los
principios generales detrás de las teorías de diferentes campos, para permitir una
interacción significativa con el público; es decir, no se le presentan al público
datos, o al menos no datos aislados, sino experiencias a partir de los principios
generales involucrados. No les contamos a los niños sobre las propiedades de
tensión superficial, sino que utilizando los principios relevantes, hacemos que los
niños generen enormes burbujas y exploren los principios de primera mano. Para
hacer lo mismo –con toda proporción guardada, por supuesto- en arqueología
tendríamos que contar con los principios generales equivalentes. Pero solamente
la explicación hace de esos principios generales un componente ineludible, así
que solamente la explicación como meta cognitiva nos permitirá eventualmente
contar con ellos. Incluso nuestra ignorancia actual al respecto puede ser utilizada
como elemento interpretativo, si apunta a que esa ignorancia será corregida con
nuevas investigaciones arqueológicas; y que dichas investigaciones solamente
ocurrirán si el patrimonio arqueológico sobrevive. Así, encuentro que la
explicación como objetivo cognitivo central (combinada con descripción e
interpretación, si se quiere), es una mejor guía que cualquier otro objetivo aislado.
Pero esta es una decisión política, y la respuesta apunta, en consecuencia,
precisamente a los valores que le dan su nombre a esta área de análisis.

Justificación ética y política


La posición teórica normalmente tiene, en particular en los escritos
“programáticos” de sus autores centrales, algún tipo de manifiesto o declaración
de principios en los que se establece la justificación ética y política de los
objetivos cognitivos que se persiguen, y del conjunto en general de la propia
posición.

Pero no todas las posiciones teóricas son igualmente explícitas en este


punto. La tradición anglosajona, y en particular estadounidense, suele dar por
sentado que la arqueología es una ciencia, y que la ciencia es buena por
naturaleza. Por ello, no es necesario dar mayor justificación a la actividad de los
arqueólogos. En varios momentos de crisis económica estadounidense, la
91

pertinencia de la arqueología ha sido cuestionada y se observa que el


argumento de “la ciencia por la ciencia” no es tan satisfactorio entonces. Lo
mismo sucede, aunque con más frecuencia, en la propia arqueología mexicana.
En la medida en que nuestra actividad se financia con fondos públicos, hay cada
vez mayor presión para clarificar para qué y a quién sirve lo que hacemos.

Una posición teórica completa aborda esta cuestión de manera frontal; la


idea de que puede haber posiciones teóricas apolíticas no es sino una manera de
decir que hay posiciones teóricas ingenuas, cuya postura política no está clara; o
que su postura es una de arrogancia, en donde la importancia autoevidente de
la arqueología no requeriría ningún tipo de justificación adicional. Si bien no estoy
proponiendo aquí un regreso a los días del “puño en alto y hasta la victoria
siempre”, en que el asunto de la justificación ética y política fue discutido hasta la
saciedad al menos en México, lo cierto es que las condiciones de desigualdad
social e inminente crisis ecológica que enfrenta el mundo actual, comentadas en
la introducción, hace que sea imperioso tomar una postura política clara. Este es
parte del material que se analiza en el área valorativa de una posición teórica.

Preferencias “estéticas”
Hay un último elemento que normalmente se podría analizar en esta área.
Se trata de lo que, a falta de mejor nombre, se podría considerar las “preferencias
estéticas” de la posición. El nombre viene del hecho de que muchas filosofías de
la ciencia (y para ese efecto, también muchos arqueólogos – criterios como la
parsimonia, la elegancia y la simplicidad (o sus contrarios, como prefería Flannery
[1973a)- son aplicables a las teorías científicas. Esa manera de evaluar las teorías
tiene mucho que ver con el desarrollo de disciplinas como la astronomía y las
matemáticas, en las que incluso se habla de la “belleza” de ciertas
demostraciones. Para algunos autores esta es una decisión valorativa y la decisión
es una cuestión estrictamente de gustos. Para otros, apunta a ventajas o
desventajas heurísticas (es decir, que facilitan la adquisición del conocimiento):
para ellos, debería haber un isomorfismo entre la complejidad de lo que se quiere
estudiar y las teorías que se proponen al respecto, y las teorías simplistas para
procesos complejos tienen poca probabilidad de ser útiles. Para un último grupo,
la decisión es más bien de corte metodológico: una teoría simple es más fácil de
refutar que una teoría compleja, como parecerían sostener los filósofos de filiación
popperiana.

Este último argumento es particularmente poderoso si se adopta una


postura metodológica cercana al falsacionismo popperiano. Esta postura insiste
en que la marca de cientificidad de una teoría es el grado al que puede ser
falsada o refutada. La facilidad de refutación es entonces un valor deseable, y la
simplicidad ayudaría a lograrlo. Visto así, este elemento es a la vez valorativo y
metodológico. Algunos analistas quizá prefirieran verlo en el área metodológica
de la posición teórica. A mí me parece que no es tan urgente definir a dónde va,
sobre todo en ausencia de un mecanismo claramente establecido para
determinar la complejidad de una teoría: ¿ha de determinarse por referencia al
92

número de variables involucradas? ¿o por el número de principios que componen


la teoría? ¿o por la complejidad sintáctica de dichos principios? ¿O por el que
involucren enunciados no-probabilísticos (esto es, solamente principios
deterministas, como los de la astronomía clásica)? Es claro que si para explicar un
fenómeno para el que tengo 6 casos propongo una teoría con 30 variables, esa
teoría será menos parsimoniosa que una que logra la misma capacidad
explicativa con 10 variables. Pero más allá de esta intuición, es difícil poner en
operación el criterio. La filosofía de la ciencia modelo-teórica, con su ingenioso
mecanismo para la formalización de una teoría, podría tener una solución a este
problema, cuyos detalles trascienden los intereses y límites del presente estudio
(pero véase Diez y Moulines [1999) para una introducción al tema).

El área valorativa tiene que ver mucho con el área ontológica, a la que
ahora turnamos nuestra atención. Si pensamos que lo social no es sujeto de leyes
o de causas, por ejemplo, entonces difícilmente adoptaremos como objetivo
cognitivo la explicación nomológica, que requiere de ambas. Si tenemos una
concepción del hombre como inherentemente malo o egoísta, es muy factible
que nuestra justificación política y ética para hacer arqueología tenga algo que
ver con potenciar las capacidades humanas, que en ese caso serían más bien los
defectos humanos. No es extraño en ese caso que nuestras teorías se orienten a
destacar mecanismos de control y administración que pongan freno a lo que
pensamos es la naturaleza humana. Pero nos estamos adelantando, así que
pasemos ahora a describir el área ontológica de una posición teórica.
93

Capítulo 4

El Área Ontológica
En esta área se ubican los supuestos que tienen que ver con las preguntas
sobre las características de la realidad. De ahí su nombre, que no es más que una
manera taquigráfica (y ligeramente pedante) de referirse a algo así como “el tipo
de entidades y procesos constitutivos de la realidad y las propiedades que los
caracterizan”, que resulta más largo y barroco. La idea es simple: contestar a la
pregunta ¿de qué está hecha la realidad –en nuestro caso, la realidad social, la
realidad arqueológica?; ¿cuáles son las unidades relevantes de estudio?; ¿qué
propiedades tienen?

La ontología normalmente se estudia en la filosofía profesional como parte


de la metafísica26. Para autores como Harré [1984:100], la metafísica es el estudio
de las categorías más básicas que usamos para pensar la realidad; para otros, es
el análisis de cuestiones que no se pueden resolver mediante una investigación
empírica directa: los hechos no nos ayudan a probar o refutar una ontología,
dado que la propia idea de hechos presupone ya una ontología. Es parte de los
“supuestos de fondo” que son indispensables para poder pensar la realidad. Y, en
tanto supuestos, no son el objeto de investigaciones empíricas27.

El problema es que se pueden asumir diferentes cosas, aunque el


ciudadano promedio es menos prolijo en sus supuestos. Es solamente la obsesión
filosófica la que ha llevado a proponer ontologías que para muchos resultarían
risibles o inconcebibles. Esas propuestas no eran inocentes y generalmente tienen
una agenda secreta escondida bajo la manga. De otra manera no es muy fácil
entender por qué alguien puede llegar al grado de proponer que no existen
objetos materiales, sino solamente nuestras percepciones y sensaciones de algo
que, equivocadamente, pensamos son objetos materiales (Berkeley). Al depender
solamente del sujeto que percibe (“ser es ser percibido”) se logra, sin embargo
algo muy caro a toda una tradición filosófica: se reducen las posibilidades del
error. Yo no asevero que tal objeto es una silla, sino que digo que tengo
sensaciones y percepciones de algo que para mí es una silla. Si resulta que esa

26
Para el marxismo de los años 70’s del siglo pasado, “metafísica” era todo aquello que
no era dialéctico. Pero este es un uso parroquial del término. Pero la metafísica es una
subdisciplina filosófica “vivita y coleando” y va más allá de lo se desprendería de la
definición marxista dogmática del término.
27
Si le proponemos a CONACYT un proyecto para determinar si existe o no la realidad,
probablemente nos manden muy lejos y sin presupuesto. Que la realidad existe
simplemente se acepta o se asume; salvo, por supuesto, que uno tenga una preferencia
por el escepticismo ontológico, en cuyo caso declara tener dudas sobre dicha
existencia…
94

sensación es realmente el resultado de haber tomado algunos tequilas más de los


que aconseja la prudencia, no me equivoqué, dado que no aseveré que la silla
existía. La carta escondida tiene que ver con que la falibilidad de nuestro
conocimiento solamente es salvable cuando se compensa con la capacidad de
Dios de darnos normalmente sensaciones plausibles. Claro que para ello hay que
empezar por aceptar la existencia de Dios, que es lo que para estos autores
realmente está en juego.

En la arqueología las cosas no son tan graves, al menos no normalmente.


Pero de todas maneras se cuecen habas. Por ejemplo, si yo parto de que el
registro arqueológico es un registro de entrada incompleto, entonces es
solamente natural que proponga que no podremos reconstruir elementos de la
organización social y mucho menos de la ideología, tal como propusiera hace
años Lady Jacketta Hawks. Y si es imposible recuperar estos elementos, pues
entonces ni caso tiene buscarlos. El asunto es que este es un supuesto, derivado
me imagino de experiencias previas de fracaso, pero realmente no es sometido a
prueba. Simplemente se asume y la arqueología va feliz por la vida limitándose a
recuperar solo información sobre tecnología y economía, hasta que llega un
Binford que propone un punto de partida diferente: no existe razón para pensar
que en la “estructura arqueológica” no se hayan reflejado el total de los
elementos de una cultura, incluyendo el social y el ideológico. “Es un asunto de
nuestro ingenio metodológico” [Binford 1972:136].

Los supuestos ontológicos son metafísicos precisamente porque las disputas


al respecto normalmente no se resuelven mediante investigaciones empíricas. Eso
no significa que la elección de una ontología sea arbitraria, o no deba estar
apoyada en argumentos racionales. Popper fue uno de los primeros en proponer
que nunca podremos derrotar, por ejemplo, a los escépticos; pero que podemos
preguntarnos si elegir el escepticismo (la tesis de que el conocimiento pudiera no
ser posible, típicamente por las características de la realidad o del sujeto), es la
mejor y más racional de las opciones.

La manera en que estos supuestos se presentan en la arqueología suele ser


menos aparatosa y profunda, pero ahí están. Son, cuando menos, de dos o tres
tipos: sobre la naturaleza de lo social/cultural, sobre la naturaleza del hombre y
sobre la naturaleza del registro arqueológico. Pero antes queda una primera
pregunta, esa sí de escala mayor…

La independencia o dependencia de la realidad en relación con los


sujetos
La primera pregunta es la gran pregunta: ¿existe la realidad con
independencia de los sujetos que la conozcan o perciban? ¿O es la realidad
solamente un producto de la percepción o representación de dichos sujetos? Este
es el tipo de preguntas que pueden mandar rápidamente a dormir a aquellos
que tienen poca paciencia para estas cosas. Pero lo cierto es que es una
polémica actual y totalmente vigente.
95

Para autores como Geertz, la realidad está constituida como “un


entramado de significados”. Los significados radican, por supuesto, en los
individuos y son mentales. Sin individuos no hay significados. Pero, ¿implica eso
que no había realidad antes de que hubiera individuos que representaran
simbólicamente la realidad? Por ejemplo, ¿hubo dinosaurios antes de que hubiera
humanos que los representaran?28 Aún si restringimos la tesis a la realidad social,
¿hubo entonces realidad social antes de que hubiera representación? ¿Por
ejemplo, existieron los homínidos antes de que se desarrollaran capacidades de
representación simbólica?

Quien propone que sí asume una posición que en filosofía tiene un largo
abolengo: el realismo. Este sostiene que la realidad es independiente de las
capacidades o voluntades cognitivas de los sujetos, con una importante adenda
en lo que toca a la realidad social, que solamente esbozaré más adelante. La
posición contraria es el anti-realismo, a veces llamado “idealismo subjetivo”, en su
versión como tesis epistemológica. Esta sostiene que no hay tal cosa como un
mundo que no sea un mundo conocido y representado por los sujetos. O que, si
existiera, no lo podríamos conocer de cualquier manera, dado que a lo único que
tenemos acceso es a nuestras sensaciones y percepciones. En ese sentido el
mundo es una construcción de los sujetos.

La realidad específicamente social presenta un problema, que


abordaremos con más detalle en un capítulo posterior; y es que resulta más o
menos absurdo proponer que “la realidad social existe con independencia de la
capacidad cognitiva o voluntad de los sujetos”. Ello implicaría una ontología en la
que los pobres sujetos no tienen siquiera conciencia de existen y viven en
sociedad. Y políticamente implica un gran pesimismo, dado que si esa realidad
social es independiente de la voluntad de los sujetos, entonces no hay nada que
éstos puedan hacer para modificarla29.

Este es un tema sobre el que existe una enorme confusión en estos días del
pos-posmodernismo. Sin duda hay partes de la realidad que son socialmente
generadas (ni más ni menos que la propia realidad social). Pero ello no implica
que esta construcción de la realidad social, como le llama Searle, ocurra en un
vacío, o sea solamente el producto de una indomable voluntad humana. Ocurre
en el contexto de una realidad que, para los realistas, estaba ahí antes de que

28
Nótese que la pregunta no es “¿hubo un concepto de ‘dinosaurio’ antes de que
hubiera humanos?”. Es trivial que todos los conceptos son productos humanos y que no
existieron antes de que el hombre los creara. La pregunta es si aquello que designa el
término “dinosaurio” existió o no antes de que hubiera humanos que lo designaran así. Si
usted contesta, “por supuesto que existían”, entonces es realista.
29
Este es un punto en el que, desde mediados de los ochentas del siglo XX, uno de los
miembros del grupo Oaxtepec de Arqueología Social, ha venido insistiendo –incluso a
costa de que se le llamara “idealista” y “revisionista”: Héctor Díaz Polanco. Su visión
siempre fue crítica de una forma de realismo que resultara reductora y políticamente
castrante, como en efecto resulta la versión más ortodoxa de lo que se suele llamar
“materialismo” y no realismo, en la tradición marxista.
96

hubiera humanos y tiene y mantiene ciertas capacidades causales incluso


cuando aparece el Hombre.

Para los materialistas, esta realidad no solamente es independiente de los


sujetos (tesis realista), sino está constituida materialmente (es decir, por materia y
energía, en diferentes arreglos y niveles de integración) (tesis materialista). No así
para sus opositores, los idealistas, que sostienen no solamente la no-
independencia de la realidad, sino que proponen que está hecha de entidades
dependientes de los humanos (o de lo divino), como pueden ser las ideas, las
normas, los juegos del lenguaje y las formas de vida (al estilo Wittgeinstein), las
representaciones, la capacidad simbólica o, en el caso extremo, el espíritu o la
voluntad divina. Para un anti-realista, incluso la serranía del Ajusco, al sur de la
ciudad de México, es “una construcción social”, una representación ideal y existe
solamente en la medida en que fue representada por las culturas prehispánicas y
“resignificada” por nosotros, los arqueólogos contemporáneos30. Sin sujetos no
existiría; y gracias a los sujetos, existe como representación ya sea mental,
lingüística o materializada en imágenes.31

Este debate es uno de los centrales hoy día en arqueología, en la historia y


en las ciencias sociales en general. Los arqueólogos interpretativos están, en su
mayor parte, comprometidos con una posición anti-realista e idealista subjetiva y
han ofrecido argumentos particularmente fuertes en su defensa (Ver, por ejemplo,
Hodder et al [1995], Whitley [1998], Shanks and Tilley [1987a, 1987b]). Los
arqueólogos procesuales mantienen una forma débil de realismo (ya que
dependen de la posición neopositivista, que a final de cuentas es anti-realista),
pero son sin duda materialistas. La arqueología marxista sostiene el realismo (a
veces reductivo) y es, por supuesto, materialista. Gran parte de la discusión sobre
teorías sustantivas (o sobre la posibilidad o imposibilidad de generar dichas
teorías), gira sobre este punto.

La cognoscibilidad de la realidad social


Ligada de manera casi indisoluble al punto anterior está la cuestión de
hasta dónde podemos conocer la realidad (en nuestro caso, social, histórica,
arqueológica). Como veremos en un momento más, esta discusión tiene que ver
con otra, sobre de qué está hecha esta realidad, o cuáles son sus unidades
constitutivas y, en el caso de la arqueología, en dónde reside la cultura, cómo se
puede caracterizar el objeto de estudio.
30
El Dr. Iwaniszewski, uno de mis sinodales, señala con razón que en realidad el problema
es aún más complejo, dado que hay un proceso doble de construcción “social”: el de los
habitantes prehispánicos y el nuestro como arqueólogos contemporáneos.
Evidentemente, el acto de construcción que realmente nos interesa como meta, es el de
las sociedades del pasado, cuyo acceso requeriría una doble mediación. Este es un
problema importante que habrá que abordar en algún trabajo posterior.
31
Yo suelo contestar a esta pretensión diciendo que realmente es muy meritorio el trabajo
de las culturas prehispánicas, porque, al menos desde lejos, la serranía del Ajusco parece
una serranía “de a de veras”; ello seguramente implicó un gran esfuerzo constructivo y un
gran cuidado, para que la sierra se vea convincentemente “natural”.
97

Hoy día lo que está de moda es ser escéptico, si no es que de plano


agnóstico. El escepticismo es la tesis de que posiblemente no podamos saber
nada (incluyendo nada sobre la historia, en el caso del escepticismo sobre el
pasado); el agnosticismo es la tesis de que la realidad es de plano incognoscible.
Ambas tesis combinan un componente ontológico y uno sobre cómo es que
conocemos la realidad, es decir un componente epistemológico.

Postergaré hasta el momento en que tratemos el área epistemológica


algunos de los argumentos detrás de estas dos tesis de moda. Pero ambas
descansan, en el fondo, en un supuesto ontológico, que asigna al pasado la
propiedad de ser incognoscible, o cognoscible de una manera muy imperfecta y
poco confiable. El argumento suele correr sobre una versión de que el pasado ya
desapareció y que lo que quedan son solamente evidencias construidas a partir
de teorías generadas por autores contemporáneos. Estos autores no pueden sino
proyectar sus prejuicios y limitaciones contemporáneas hacia el pasado, de tal
manera que la historia es siempre una construcción, una ficción creada desde el
presente para darle sentido al propio presente. Otras veces, el argumento es de
corte antropológico y reside en la supuesta imposibilidad de lograr conocer
realmente “al otro”, dado que cada cultura está atrapada ineludiblemente en su
propio lenguaje y “juego de vida”. Lo más que podemos aspirar es a darnos
cuenta de que lo otro es diferente, pero jamás lo conoceremos con plenitud,
dado que existe una “intraducibilidad” cultural insalvable. Ello no implica que la
antropología y la historia sean inútiles: el ver nuestra cosmovisión occidental
contemporánea proyectada al pasado o a otras culturas, se dice, nos ayuda a
comprendernos mejor a nosotros mismos y a hacer una autocrítica de nuestros
valores y creencias32.

La postura opuesta afirma que la realidad (incluyendo la realidad social) es


cognoscible, aunque quizá en diferentes grados de certeza. Hay quienes piensan
que este conocimiento no es tan problemático, dado que contamos con
evidencia empírica que nos permite comprobar o al menos hacer altamente
probables nuestras teorías; hay quienes proponen que la certidumbre es
inalcanzable, como veremos más tarde. Pero en ambos casos es factible conocer
la realidad, aunque quizá no de manera absoluta e incorregible. Esta postura
puede llamarse “gnosticismo”, aunque a riesgo de confundirla con los hermanos
de la Gran Fraternidad Universal, con los que no tiene nada que ver.

Estatuto y naturaleza del objeto de estudio


32
De nuevo recomiendo que este punto, sobre la imposibilidad de la arqueología, la
historia y la antropología, no lo enfaticen mucho los investigadores que quieran conseguir
financiamientos de CONACYT para sus proyectos… Aunque, en rigor, a veces las
posiciones agnósticas son realmente más bien escépticas y, en ese sentido, han servido
como contrapeso de un optimismo irrestricto sobre nuestro conocimiento del pasado. En
la medida en que vengan acompañadas de argumentos viables (aunque yo no los
comparta) son, por supuesto, respetables y merecerían un debate más profundo que esta
casi caricaturización que he hecho aquí.
98

La mejor manera de ver cómo las concepciones ontológicas afectan la


práctica real de la arqueología es revisar cómo estas concepciones se revelan en
diferentes maneras de entender el objeto de estudio de la arqueología.

Para algunas tradiciones académicas, este objeto es la Cultura, con C


mayúscula, a través del estudio de las culturas, con c minúscula. Muchos
arqueólogos concurrirían con esta propuesta. El problema es que no es tan
sencillo definir a la cultura o determinar qué tipo de entidad es. Para la
arqueología tradicional, heredera del concepto tayloriano original del siglo XIX, la
cultura está constituida por normas, ideas, tradiciones y, por supuesto prácticas y
objetos. Pero lo central en la cultura está en las convenciones que los sujetos
siguen y que rigen lo que hacen. Esto lleva a preguntarse qué tipo de entidad es
entonces la cultura y a responder que, en tanto normas e ideas, la cultura es un
fenómeno fundamentalmente mental. Reside en la cabeza de los hombres.
Aunque parece un supuesto inocente, los opositores a este punto de vista,
llamado “normativo” por Aberlee desde finales de 1950, han mostrado que tiene
muchas consecuencias.

La más importante de estas consecuencias tiene que ver con el acceso al


mundo de las ideas y sobre sus capacidades para causar o ser causadas. Ante la
pregunta, ¿por qué observamos variabilidad cultural?, la respuesta suele ser
porque diferentes culturas tienen diferentes ideas (normas) que la generan. De
acuerdo. Pero, ahora, ¿de dónde sale la diferencia en ideas (normas) que genera
la variabilidad cultural? La solución normativa es que la diferencia en normas se
causa sola, o que es inexplicable, así simplemente es. Las culturas son distintas,
entonces ¿por qué no se dio siempre entre ellas un flujo de ideas que permitiera
que unas culturas adoptaran las ideas de otros, o porque ideas previas prohibían
o dificultaban dicha adopción?

Nadie ha combatido tanto esta idea como Binford, que le llamó “la visión
acuática de la cultura” [Binford 1965], dado que, en efecto, parecería que el
caudal de ideas genera homogeneidad en la medida en que no encuentra
barreras o razones que impidan su penetración. El asunto no es solamente
semántico, sino que va al corazón de la práctica arqueológica: bajo una
concepción normativa, ante la presencia de similitudes en el registro
arqueológico, la única explicación posible es la de “influencias” de un grupo
sobre otro. Se revisa entonces el material de las zonas aledañas o distantes, para
descubrir cuál fue la fuente de la o las influencias y se “amarra” la inferencia
documentando que en efecto el rasgo donado aparece primero en la cultura
donante que en la receptora. Si no es así, simplemente se invierte la dirección del
flujo cultural.

Así, antes de que se identificara la cerámica característica de Tlaxcala, se


pensaba que esta región tenía pocos tipos propios y sí muchas evidencias de
influencias de los vecinos cercanos; cuando se define la secuencia regional,
pronto se ve que, a la inversa, hay tipos tlaxcaltecas en otros lugares del Altiplano
99

Central y que estos tipos son más tempranos en Tlaxcala. No hay problema:
simplemente se da un giro a la dirección de la influencia.

Pero la pregunta de fondo subsiste: ¿qué hace que las normas culturales
sean distintas? Y la pregunta no es cualquier pregunta de interés menor: es la
pregunta que inaugura la antropología: se supone que nuestra tarea sería no
solamente documentar la variabilidad humana, sino que, reconociendo que
somos una sola especie, teníamos que explicar cómo de una naturaleza común
surge la riqueza que la variabilidad cultural muestra a lo largo del tiempo y el
espacio.

Por ello, la tradición opuesta al mentalismo normativo propone que la


cultura no está compuesta de ideas y normas, sino de conductas o prácticas.
Estas conductas o prácticas son observables, públicas y materiales ([White
1949:8); Binford [1972:136]). Surge aquí la pregunta inversa y recíproca a la que los
normativos deben responder: ¿qué causa entonces la diferencia de normas? La
respuesta sería: diferencias en las prácticas, resultado de factores y causas
también de orden material. O, como tristemente se ha respondido en ocasiones,
que estas normas, particularmente las ideológicas, son un “epifenómeno” que, o
es imposible estudiar en arqueología, o simplemente no merece nuestra atención.

He aquí claramente el resultado de la adopción de dos ontologías


diferentes sobre la cultura. El impacto es claro y real: si no pienso que la ideología
es estudiable, lo congruente es que ni lo intente; si pienso que las normas se
causan solas, no tengo por qué buscar causas externas, materiales, así que no
requiero una gran finura para estudiar, por ejemplo, el medio ambiente. Y como
cada ontología normalmente sólo se asume, no se cuestiona, acaba pareciendo
“natural” o “lógica” y simplemente se perpetúa.

Los supuestos ontológicos no se reducen solamente al problema de qué


esta hecha y en dónde reside la cultura, sino a qué propiedades tiene, como
ahora veremos.

Propiedades: causalidad, nomologicidad, jerarquía


Una de las propiedades más debatidas de lo social es si presenta
relaciones de causa y efecto, es decir, si es sujeta de causalidad. Íntimamente
conectada a la respuesta de esta pregunta, está la de si las relaciones causales
se presentan de manera regular y son capturables mediante enunciados
generales, pomposamente llamados “leyes” (en griego “nomos”): de ahí el
nombre de esta segunda propiedad, la de “nomologicidad”. O si bien solamente
son asunto de correlaciones regulares, conjunciones constantes, entre ciertas
variables. Finalmente, si dentro de estos procesos hay elementos en lo cultural o
social que causan otros elementos, es decir si existe una “jerarquía causal”, como
cuando se propone que, en última instancia, son los factores materiales los que
causan variaciones en el ámbito ideológico; o si bien se presenta lo que Harris ha
llamado “una democracia de factores”, en las que, de manera no regular ni
100

sucesiva, unos factores a veces son causa y otras efecto de otros [Harris 1982 (orig.
1968):537, 547-548].

El asunto tiene variantes, porque aún si se acepta que la realidad social es


sujeta de causas, no siempre hay acuerdo sobre qué es, para empezar, una
causa. Hay quienes piensan (como la mayoría), que las relaciones causales
implican una asimetría temporal: las causas van antes de los efectos en un tiempo
determinado, aunque nada prohíbe que en otro tiempo la relación pudiera
invertirse. Otros, notablemente los arqueólogos sistémicos, prefieren un concepto
de “causalidad sistémica”, en el que todo puede ser causa y efecto a la vez
([Flannery 1975, orig. 1972]; Seminario “Archaeological Systematics, University of
Michigan, Ann Arbor, 1981]). Algunos críticos, incluyéndome a mí [Gándara
1983:123-4], señalan que esta visión circular confunde correlación (que puede ser
sincrónica) con causalidad (que es temporalmente asimétrica, al menos en la
mayoría de los análisis de la causalidad –ver Sosa [1975], Salmon [1998a]. Y como
el asunto no es solamente semántico, vemos que las explicaciones que producen
los arqueólogos sistémicos en efecto tienen múltiples circuitos de realimentación,
mientras que las explicaciones producidas por autores con una noción normal de
causalidad buscan relaciones más lineares. Cuando se combina este supuesto
con el supuesto valorativo sobre la complejidad o simplicidad de las teorías,
entendemos el porqué los sistémicos encuentran invariablemente “simplistas” las
teorías de sus contrincantes y éstos, a su vez, castigan de ininteligibles o
innecesariamente complejas a las teorías sistémicas33.

El pleito por la causalidad en las ciencias sociales tiene un rancio abolengo


y se remite a una cuestión de orden político y ético, e incluso a una discusión de
corte teológico: para aquellos que piensan que (al menos buena parte de) la
realidad social es sujeta de fenómenos causales, ello implica que la acción
humana está al menos parcialmente determinada; que identificando las causas y
las conexiones causales, podríamos incluso predecir con alguna precisión la
conducta resultante (o retrodecirla, es decir, mostrar que era la esperada,
cuando la aseveración se hace para un tiempo anterior, como sería el caso de la
arqueología). Sus opositores piensan que este punto de vista es inaceptable,
dado que implica que el libre albedrío y la decisión individual se verían entonces
limitados. En la versión cristiana del asunto, ello implica ponerle un límite al
principal don que Dios le dio al género humano, que es precisamente el libre
albedrío.

Como consecuencia de esta polémica se ha intentado mostrar, por un


lado, que existen muchas regularidades que claramente apuntan a relaciones
33
Es importante señalar que la causalidad, entendida como implicando una asimetría
temporal, no tiene por qué se simplista o lineal (P causa Q que causa R): aquí P puede ser
no solamente una variable, sino un conjunto o incluso un sistema de variables; y la relación
causal puede no ser determinista, sino probabilística; finalmente, P puede no ser la única
manera de producir Q, o invariablemente llevar vía Q a R: es decir, puede haber múltiples
trayectorias causales. Lo único que el análisis requiere es que la causa sea anterior al
efecto: y es en ese sentido que la “causalidad recíproca” no parece una buena manera
de analizar el concepto.
101

causales, no solamente en lo social, sino incluso a nivel de psicología individual.


Pero precisamente fue por eso que el psicoanálisis recibió una buena parte de la
fuerte oposición en su contra, ya que se denunciaba que constituía una forma de
determinismo: la infancia determinaba la madurez, de una manera inaceptable
para los que creían que la conducta adulta es siempre el resultado de decisiones
concientes y racionales.

Esta disyuntiva está íntimamente ligada, entonces, a la posibilidad de


formular explicaciones generales, que simplemente serán imposibles si no existen
relaciones de causalidad; y a la discusión entre dos tradiciones de investigación
histórica: la ideográfica y la nomotética. La primera insiste en que “cada cultura
es un caso”, irrepetible y único; y la segunda, que es realmente un ejemplo de un
proceso de mayor escala, generalizable mediante principios generales. Otra
consecuencia metodológica será el énfasis en una de dos escalas de trabajo, la
“micro” escala, que en ocasiones ve al sitio arqueológico como un microcosmos
en el que la otra escala se refleja y en ocasiones se considera como la única
escala interesante; y la escala “macro”, que mínimamente es regional, pero suele
ser mayor. Aunque estos enfoques pueden conciliarse, no así la diferencia entre
una aproximación ideográfica y otra nomotética.

Propiedades: individualismo metodológico vs. realismo social


Conectada íntimamente a la disyuntiva de la determinación vs. el libre
albedrío humano está la cuestión de hasta dónde lo social es reductible o no a lo
individual, por un lado; y hasta dónde, de aceptarse la existencia de lo social, es
este ámbito el que condiciona o determina la conducta individual.

Aunque parezca increíble, hay quien ha llegado a sugerir que lo social


simplemente no existe. Y fue uno de los filósofos de la ciencia a quien más
respeto, pero que tenía la costumbre de que cada vez que hablaba de política o
de lo social, decía cosas cuando menos debatibles si es que no totalmente
erradas de entrada: me refiero a Sir Karl Popper. En un curioso vuelco de su
realismo sobre las entidades que figuran en las teorías científicas –es decir, la tesis
de que los conceptos teóricos realmente refieren a entidades existentes en la
realidad- Popper propone un instrumentalismo en torno al concepto de
“sociedad”. La sociedad no existe. Hablar de “lo social” no es sino una especie de
taquigrafía, para no tener que enumerar a todos los individuos a los que nos
estamos refiriendo. Estos individuos son lo único que existe. A ellos sí los podemos
tocar, medir, entrevistar, etc... La sociedad es un concepto que cumple una
función instrumental, una convención que nos permite comunicarnos más
eficazmente sobre lo social, pero es eliminable a favor de enunciados sobre
individuos. Esta postura, llamada “individualismo metodológico” es frecuente en
la economía contemporánea, en la que se asume adicionalmente que los
individuos buscan ante todo su propio interés, son egoístas y en general,
racionales, cuando se les equipa con la información suficiente.
102

Popper reacciona a la postura opuesta, el llamado “realismo social”,


representado emblemáticamente por Durkheim, aunque compartido por muchas
posiciones teóricas. Para estos autores, existe una entidad que es superior a los
individuos, que tiene una existencia propia y autónoma en relación con individuos
específicos, a los que trasciende. Es el superorgánico de Kroeber, la conciencia
colectiva de Durkheim, la sociedad en Marx y la cultura como mecanismo
extrasomático de adaptación humana en White, para dar solamente algunos
ejemplos. Está detrás de afirmaciones como la que dice que las instituciones son
más que el conjunto de los individuos que las conforman en un momento dado: si
el soldado Ryan cae en batalla por no haber sido rescatado a tiempo,
rápidamente es reemplazado por otro y a la institución del ejército el cambio le es
poco relevante. El ejército como institución es más que su personal en un
momento específico.

Las ontologías individualistas metodológicas tratan de reducir al máximo los


supuestos sobre el número de entidades que conforman el objeto de estudio y de
las propiedades que tienen. Desconfía de lo que llama “entelequias”, cuya
existencia es dudosa, dado que nadie ha visto a “la cultura” o a la “sociedad” o
a instituciones como “el ejército” sino, en particular, a la cultura pro bélica
estadounidense, la sociedad capitalista norteamericana o el cuarto batallón de
Marines. Sus opositores dicen que las entidades supra-individuales no tienen nada
de misterioso, o al menos no más misterioso que otras entidades de las que hablan
las teorías, como la gravedad o los quarks; y que estas entidades no solamente
existen, sino que permiten explicar un importante rango de fenómenos sociales.

En arqueología habría lo que casi podría concebirse como un anti-


individualismo metodológico, que se origina epistemológicamente: es decir, ante
la imposibilidad de conocer en detalle las acciones de individuos particulares, se
insiste que no tiene caso tratar de recuperar evidencia de sus acciones. Casi
toda la arqueología adopta alguna variante del realismo social, aunque, como
hemos visto, con importantes diferencias sobre cómo está constituido, o en dónde
reside lo cultural o qué propiedades tiene.

Propiedades: emergencia vs. reducción/absorción


Una siguiente esfera de análisis tiene que ver con propiedades íntimamente
ligadas a la de la existencia o no de un sujeto de estudio propiamente social, que
además intenta localizar en dónde debe ponerse fundamentalmente el foco de
atención cuando se intenta generar teorías.

Una primera propiedad es la de la naturaleza de las propiedades que


tendrían “eficacia causal”, es decir, para aquellas ontologías en donde se asume
que existen causas, podrían ser las responsables de los efectos socialmente
observados. Aquí el debate está entre dos puntos de vista que son los extremos
de un continuo y entre los que pueden ubicarse diferentes puntos de vista. Un
extremo es el del llamado reduccionismo, que propone que la eficacia causal
que puede explicar lo social yace fuera de lo social, en entidades típicamente
103

estudiadas en alguna disciplina que se ocupa de un nivel inferior de integración


de la materia y la energía. Por ejemplo que, en el último análisis, los fenómenos
sociales son reducibles a cuestiones ecológicas, o genéticas, o incluso
bioquímicas. Mientras que nadie duda que los humanos somos sujetos de las leyes
de estas y otras muchas disciplinas34, lo que se cuestiona aquí es si esas leyes son
capaces de explicar fenómenos genuinamente sociales. La respuesta de una
postura reduccionista es que, a la larga, se verá que no hay tal cosa como
fenómenos genuinamente sociales.

El punto de vista opuesto propone que las propiedades sociales son


“emergentes”, es decir, no son reductibles a los niveles inferiores de la ecología, la
biología, la química o la física. Ello no es otra cosa que decir que tendrán que ser
solamente las teorías sociales las que expliquen los fenómenos sociales. Puesta en
práctica, esta postura sostiene que las entidades que operen en las teorías
sociales deberán ser fundamentalmente sociales, es decir, pertenecientes al
léxico utilizado para referirse a lo social. De tener razón este punto de vista,
entonces, a pesar de lo meritorio y quizá estimulante de esfuerzos como el de la
teoría general de sistemas, en los años de mil novecientos setenta, o de la teoría
del caos, en tiempos más recientes, mientras no sepamos cómo traducir los
términos sociales a los términos de estas teorías (ya sea que se interpreten como
teorías matemáticas o teorías físicas), no podremos eliminar los términos sociales a
favor de los términos de estas otras disciplinas. Dicho con un ejemplo burdo: a la
pregunta ¿por qué surge el Estado?, que involucra los término de una teoría social
“surgimiento” y “Estado”, no se vale contestar con las fórmulas del efecto
mariposa, o las de los “atractores extraños”, que involucran términos matemáticos
o físicos, sin antes dar las reglas de reducción que permiten traducir unos términos
en otros y proporcionar explicaciones satisfactorias en el campo social.

Una manera alternativa de proponer esta oposición es entre “nature vs.


nurture”, en inglés, que es difícil traducir exactamente, pero que podría equivaler
a “naturaleza” vs. “cultura”. Puesto en estos términos, el asunto es más
complicado, dado que es más difícil determinar la contribución causal de cada
componente. Es indudable que reaccionamos de manera instintiva a muchos
estímulos e incluso a pulsiones básicas. Lo que no es tan claro es si incluso estas
pulsiones están siempre mediadas por el ámbito cultural o simbólico. Estudios
como los de la ciencia cognitiva parecen apoyar la apuesta de la lingüística
estructuralista profunda de autores como Chomski (citado en Gardner [1991], en
el sentido de que nuestra capacidad de aprendizaje de la lengua es innata y
está fundamentada, en efecto, en oposiciones binarias del tipo que Lèvi-Strauss
encontraba fundacionales para el conjunto de la cultura. El hecho de que los
errores lingüísticos sean estructuralmente similares en niños de edades parecidas
pero en diferentes lenguas (como la proyección de las formas regulares a verbos
de conjugación irregular –“se me rotó mi juguete”) apunta a cuestiones que
estarían ligadas a lo biológico.

34
Suelo ilustrar este proceso en mis clases narrando mis fallidos intentos de suicidarme
intentando saltar desde la base del Empire State hasta su cima. Para mi fortuna (y
desgracia de mis lectores), la ley de la gravedad frustró cruelmente mis empeños…
104

Existe una tercera opción, que he llamado “absorción”, para destacar que,
a diferencia de la reducción, que opera desde una disciplina de nivel menor en
la escala ontológica, pretende que las leyes y teorías que realmente darán
cuenta de lo social lo harán así desde una disciplina de nivel mayor, que es capaz
de explicar no solamente los sistemas sociales, sino cualquier sistema complejo.
Esa era la propuesta de Flannery [Flannery 1975, orig. 1972], que yo
equivocadamente califiqué de reduccionista, ya que identificaba a esta teoría
con la teoría general de sistemas propuesta por Bertalanfy y otros (ver Gándara
[Gándara 1983]; curiosamente, anoto ya desde entonces la posibilidad de que la
teoría de sistemas aludida sea la de la ecología y no la teoría general de sistemas
–Ibíd.:122). Con una enorme generosidad y paciencia, Flannery me hizo ver que la
teoría que él tenía en mente era una teoría diferente, sobre sistemas complejos,
que le debía en mucho de su inspiración a la teoría ecosistémica de animales,
pero que veía a este campo como uno de aplicación específica de principios
generalizables no solamente a lo humano sino a sistemas de mayor complejidad
aún. Hoy día se habla de teorías de la complejidad, que pudieran estar
ocupando el lugar que Flannery anticipaba para una teoría de este tipo. Yo he
de confesar mi profunda ignorancia al respecto. Pero, en cualquier caso, las
reglas para la “absorción” serían las mismas que para la reducción y están bien
establecidas en la literatura (Diez y Moulines [1999:373-377)], Nagel [1961: Capítulo
11:336-397]): quien pretenda absorber una teoría de un campo menor deberá
primero mostrar cómo se traducen los términos de una teoría a otra, luego cómo
se traducen los principios generales de una teoría a otra y por último, tener
corroboración empírica de que tal traducción recupera los datos que la teoría
anterior explicaba y ofrece adicionalmente ventajas como contenido teórico y
empírico excedente, además de la capacidad de unificación teórica (con su
ganancia de reducir el número de entidades y principios requeridos para
entender el mundo).

Propiedades: agencia vs. estructura


La discusión sobre el libre albedrío vs. la determinación es parcialmente
reeditada cuando se discute esta propiedad de lo social. Aquellos que favorecen
teorías antideterministas del libre albedrío suelen favorecer las teorías de la
“agencia”. El nombre se refiere a la facultad de los agentes de tomar decisiones y
expresar su voluntad en acciones que son típicamente autodeterminadas o
reacciones a retos externos. Las teorías de la agencia, que están poniéndose de
moda apenas en la arqueología, son asunto de discusión de larga data en las
ciencias sociales. La motivación es la oposición a un determinismo total que no
daría pie a explicar por qué, si la determinación de la sociedad o de la cultura es
tan fuerte, la cultura y la sociedad han cambiado como resultado de la acción
de sujetos, ya sean individuales o sociales. Estos agentes tienen capacidades
cognitivas y motivaciones personales, emocionales, etc., que permiten reconstruir
sus intenciones e interpretar su accionar en el sentido hermenéutico. De nuevo
estamos ante uno de los polos de un continuo en el que, antes de llegar al otro
extremo, seguramente encontraremos posiciones intermedias.
105

El otro extremo son las teorías que suelen ver en la raíz de los procesos
sociales la determinación de entidades superiores al individuo o sujeto social.
Algunos candidatos para ocupar esta posición han sido la estructura social (y, en
particular, la infraestructura económica -en ocasiones- la ideología o
superestructura ideológica -en otras), la conciencia colectiva, la cultura, el
sistema social o el ecosistema. Aquí lo que se privilegia es explicar por qué la
homogeneidad de la conducta, que resultaría misteriosa o producto de la
extraordinaria casualidad de que muchos agentes decidieran actuar en un
mismo sentido.

Un par ejemplos pueden ayudar a entender esta polaridad. El primero es


Susanita, el personaje de la tira cómica Mafalda, cuya meta en la vida es casarse
y tener muchos hijitos. Susanita, como todavía muchas mujeres, piensa que esta
decisión es su decisión, es el resultado de su voluntad perfectamente
autodeterminada. Mafalda, más cínica, continuamente intenta hacerle ver que
esa es una ilusión y que la triste realidad es que es el sistema el que la ha hecho
creer que ella está decidiendo por sí misma algo que el sistema necesita que ella
haga. Susanita está determinada estructuralmente y no lo sabe. Claro que puede
romper con la expectativa, lo que muestra que realmente no está tan
determinada estructuralmente, pero lo hará a costa de sufrir el precio de no
seguir la regla, hasta que la regla cambie. Esa sería una explicación de
determinación estructural.

Pero ¿quién cambia la regla? Si resulta que muchas mujeres deciden que
el matrimonio y la procreación no son mandatos divinos y que ni siquiera se les
antojan, ¿no son acaso ellas las que cambiarían (como de hecho están
cambiando) la norma? Bajo un determinismo estructural esto no es posible. Habría
que buscar qué condiciones estructurales (por ejemplo, la necesidad de
fragmentar el mercado creando nuevos tipos de consumidores, como la mujer
adulta no casada), llevan a que mujeres individuales crean que están tomando
esa decisión, cuando de nuevo se trata de una determinación estructural.

A la inversa, si ciertas versiones marxistas del poder de la ideología fueran


ciertas, entonces el capitalismo tiende un velo ideológico que impide a los sujetos
ver la realidad como ésta realmente es. Salvo a Marx, que denuncia este
proceso. Entonces, ¿es en realidad tan determinante la ideología, o hay lugar
para que individuos y sujetos sociales tengan realmente capacidad de
actuación?

Ha habido, en los años en que esta venerable polémica tiene en las


ciencias sociales –aunque sea nueva para los arqueólogos- varios intentos de
acercar los polos del debate. El más conocido es quizá la teoría de la
estructuración, de Giddens, que reconoce capacidad de agencia individual
pero dentro de los límites establecidos previamente por la estructura, aunque en
condiciones especiales, esas capacidades de agencia individual, al
colectivizarse, pueden afectar las estructuras preexistentes. En su propuesta, no
hay necesariamente un choque total entre libre albedrío y determinación.
106

Un ejemplo de Giddens ayuda a entender por qué esto es así. Pensemos,


nos convoca, en un automovilista. Al menos en los países “democráticos”, en los
que cualquiera que pueda pagar los peajes respectivos puede ir a donde desee,
los individuos son libres de manejar sus automóviles a voluntad, por cualquier calle
o carretera. Eso muestra que tienen libre albedrío y que lo ejercen. Pero,
curiosamente, no pueden decir que circulan sobre la banqueta, o en sentido
contrario, o en donde no hay caminos, so pena de recibir las consecuencias en su
persona o automóvil. Es decir, son libres de transitar por cualquier calle o
carretera, pero solamente sobre calles o carreteras previamente existentes35. Por
supuesto, pueden unirse y mediante un accionar social, clausurar algunos
caminos y crear otros, de nuevo ejerciendo su libre albedrío. El caso es que una
vez puesta esta estructura, los individuos de nuevo circularán (al menos
normalmente) solamente sobre los caminos previamente disponibles. Es decir, la
estructura es “estructurante” de la acción, pero la acción puede transformar la
estructura en condiciones especiales. No me detendré más aquí sobre esta teoría
cuyas complejidades escapan al tratamiento que podemos concederle ahora,
pero ofrezco este breve ejemplo como uno de una teoría que ha intentado salvar
las distancias entre los polos de agencia y estructura o sistema.

En arqueología una variante popular es la que Marcus y Flannery


introdujeron, tomada de Sherryl Ortner, en “Zapotec Civilization” (Marcus and
Flannery 1996). Se llama “teoría de la acción”, desafortunado nombre, porque
ese es el mismo nombre de la teoría weberiana en la que por primera vez se
trataron algunos de estos asuntos y el nombre genérico de las teorías herederas
de esta tradición. En cualquier caso, la teoría propone reconocer tanto la
contribución del “sistema” como del “actor”, cuyos poderes de toma de decisión
deben ser tomados en cuenta. Ambos son capaces de crear situaciones que
promueven en cambio.

Propiedades: Estatismo vs. historicidad/dialéctica


Una característica común tanto a las ontologías que polarizan la
dicotomía, como las que intentan mediarla, es que acaban juntas del mismo lado
en otra dicotomía importante: aquella que define si el sujeto es ahistórico y
estático, a partir de una serie de características que de alguna manera
constituyen su “esencia”; versus aquellas ontologías que ven al sujeto como una
entidad dinámica, histórica, que se transforma en el tiempo. En las ontologías del
primer tipo hay que responder a la dicotomía agencia-estructura de manera
ahistórica: si domina un polo lo hace siempre, dado que el sujeto es
fundamentalmente el mismo todo el trayecto histórico. En las del segundo tipo, al
que podemos asociar al marxismo, el sujeto es cambiante, por lo que preguntar
qué polo de la dicotomía agencia-estructura domina es una pregunta que debe
especificar primero de qué momento histórico estamos hablando.

35
Salvo, por supuesto, que estén en alguna aventura a campo abierto en un vehículo
todo terreno, o sean Mel Gibson en “Arma Mortal 4”, quien atraviesa un edificio de lado a
lado en un auto a toda velocidad…
107

Como me recordó hace algunos años uno de mis alumnos, José Pantoja36,
aunque es difícil encontrar una formulación precisa de la propuesta, es lugar
común en el materialismo histórico proponer que el hombre ha ganado
capacidad de agencia a medida que logra control primero de la naturaleza (y
por desgracia) luego de otros hombres. Es decir que, entre los grupos cazadores-
recolectores incluso la idea de “individuo” tiene poco sentido, dado que no
solamente hay una interdependencia importante de factores que tienen que ver
con el entorno natural, sino del social. A medida que el hombre gana control de
la naturaleza y conciencia de las relaciones sociales en las que está inmerso,
puede no solamente actuar con mayor autonomía, sino ser crítico de esas mismas
relaciones. En el caso del marxismo su capacidad de agencia no es individual,
sino en tanto “sujeto histórico”, o sujeto social que la propia relación con la
estructura convierte en pieza clave en un momento de cambio, razón por la que
esta manera de ver el asunto de la agencia se liga a la teoría marxista de que
hay sujetos privilegiados como “sujetos históricos” en ciertos momentos. En el
capitalismo serían los polos del capital y el trabajo asalariado los que tendrían
mayor capacidad de agencia. El carácter dinámico del sujeto es una
consecuencia directa de la adopción de una ontología dialéctica, en la que la
realidad está cambiando todo el tiempo, incluyendo la propia naturaleza del
sujeto.

Una variante de este mismo argumento es la idea de que las leyes sociales
tienen aplicación solamente para el tipo de sociedades en las que históricamente
se presentan las relaciones en cuestión; esto es, que no tiene sentido intentar
aplicar las leyes que rigen el capitalismo a sociedades precapitalistas. De hecho,
no solamente no tiene sentido, sino que es un error conceptual, dado que simple
y sencillamente hay características como el propio capital, que no surgen
históricamente sino hasta cierto momento, de forma tal que la proyección al
pasado de principios de la teoría del capital son errores de anacronismo. Esta es
la razón por la que la analogía etnográfica en el caso de la arqueología social
siempre debe aplicarse con el cuidado de que las propiedades que se comparan
sean del tipo que pueden proyectarse sin riesgo de anacronía.

Este era mi argumento en la crítica al uso que hace Binford de la analogía


entre los Nunamiut y los cazadores musterienses. Quizá podemos aceptar que el
snowmobil sea el equivalente funcional del trineo, o que el rifle con mira de
precisión sea el equivalente a la lanza; pero aún aceptando esas –
reconociblemente forzadas- analogías, lo que no tiene análogo en el pasado es
la situación en la que el cazador Nunamiut falla en la cacería de manera
repetida y no se muere de hambre, porque puede reclamar el equivalente al
seguro de desempleo. El seguro de desempleo (“welfare compensation”) fue una
de las reformas que el capitalismo introdujo luego de la gran crisis de 1929.
Dudamos que ni siquiera forzando el término tenga un análogo en la situación
musteriense [Gándara 1990b]. Esta crítica es elaborada en un artículo posterior
[Gándara 2006].

36
José Pantoja, comunicación personal, curso de Epistemología, ENAH. México. 1997),
108

Otra consecuencia de la adopción de una ontología en que la realidad es


vista como algo dinámico e histórico es que debemos, en todo caso, asegurarnos
de que los análogos seleccionados realmente no sean productos indirectos del
impacto del capitalismo en sociedades menos desarrolladas. De otra manera,
asumir que estas sociedades se mantuvieron sin cambio es un supuesto riesgoso.
Algo similar reclamaba Fried (ex militante marxista), cuando denunciaba que el
concepto de “tribu” como estadio evolutivo es falaz; en su opinión, todas las tribus
analizadas por Service como base para la postulación del estadio son realmente
reacciones a la intromisión de los poderes coloniales. Y que, si en vez de asumir
que no tienen historia, como bien criticaba Wolf [1982], intentáramos investigar la
historia que por supuesto tienen, encontraríamos clara evidencia de este
proceso37. Es irónico que en muchos de estos casos, la historia a la que los colegas
procesuales norteamericanos se niegan a poner atención, es muchas veces la
historia en la que su propio país ha sido el agente principal de disrupción y, en
ocasiones, destrucción…

Los modelos de Hollis y de Lloyd


Una manera de abordar los supuestos ontológicos, distinta a la presentada
aquí mediante el tratamiento de propiedades específicas como un conjunto de
dicotomías o continuos entre polos, es tomar algún esquema de clasificación de
ontologías desarrollado para las ciencias sociales. Dos de los que yo he usado con
éxito en mi docencia son el de Hollis [1994] y, antes, el de Lloyd [1986].

37
Esta es parte de mi justificación para poner en duda a Hawai como ejemplo del
cacicazgo, como lo hace Earle [1975], para luego concluir que se trata de un cacicazgo
anómalo y de ahí justificar la creación de un nuevo estadio evolutivo, el de cacicazgo
complejo. La evidencia de su estudio proviene de documentos de mediados del siglo XIX,
alrededor de 70 años después de que Vancouver convirtiera a Hawai en protectorado
inglés; casi 30 años después de que se instaurara un gobierno pelele colonial ya con la
población mermada por las enfermedades occidentales y la nobleza convertida al
protestantismo; y después de una reforma agraria que fue una solución para poder
enfrentar el cobro, mediante una invasión militar, de la deuda ante los países colonialistas
que años antes habían vendido armamento y otras mercancías a los jefes insulares a los
que primero enfrentaron –para luego promover a Honolulu como centro de la hegemonía
del archipiélago. Pero la cosa se pone peor: incluso si ponemos en duda que estos cerca
de 80 años de historia traumática no son suficientes para descalificar el caso como un
caso legítimo, hay autores que, recuperando la historia tradicional hawaiana y
complementándola con excavaciones, han propuesto que el Estado se fundó en Hawai
alrededor del año 1200. Esto es, ya era una sociedad estatal cuatrocientos años antes de
la invasión inglesa. Difícilmente era, entonces, un cacicazgo, complejo o simple. Aquí
parte de la culpa recae, por desgracia, en el propio Service, que identificó a Hawai como
un ejemplo del cacicazgo, a pesar de haber descrito su organización social como
dividida en dos clases endogámicas y señalar la presencia de un “verdugo real” que se
encargaba de ejecutar a los responsables de crímenes contra la figura del “cacique”
(Service, en Profiles in Ethnology).
109

Ambos autores encuentran similitudes entre los supuestos ontológicos de


diferentes tradiciones académicas, similitudes suficientes como para agrupar a
dichas tradiciones en clases o familias. El esquema de Lloyd recupera por esta vía
cinco ontologías diferentes, mientras que Hollis aparentemente piensa que
pueden reducirse a solamente cuatro y que, en rigor, son la combinación de un
criterio valorativo/metodológico (en nuestros términos) y un supuesto fundacional
ontológico.

Este supuesto sería la adopción de una visión holista (equivalente al


realismo social tratado antes), que se contrasta con una visión individualista
(equivalente al individualismo metodológico). La combinación de estas
ontologías con dos objetivos cognitivos (la explicación y la interpretación) genera
una matriz de cuatro entradas (ver su figura 1.2 [Hollis 1994:19]). A su vez, esta
matriz arroja entonces cuatro posibilidades para las entidades que constituyen lo
social: los sistemas o estructuras, los individuos o agentes, la totalidad social (como
cultura o formas de vida, juegos de significado) y los actores.

En la primera, Hollis ubicaría a tradiciones académicas como el


funcionalismo en sociología y el evolucionismo en antropología, así como al
marxismo, dado que están interesados en generar teorías explicativas que
involucren principios generales y que compartirían todas supuestamente una
preponderancia de la estructura, los sistemas, sobre los sujetos. En la segunda
estarían los enfoques derivados del individualismo metodológico, del que hay
varios ejemplos en economía y las relaciones internacionales y del que Hollis
destaca la teoría de los juegos; en esta ontología lo único que existe son
individuos centrados en sí mismos, con completo libre albedrío, que buscan su
satisfacción personal (son “self-interested”, en inglés) y son perfectamente
racionales dada la información disponible; se pretende que a través de un
número finito de “juegos” sencillos o posibles interacciones (como el “juego del
prisionero” o el de “gallina”), esta teoría es capaz de generar lo que en otras
tradiciones serían las instituciones sociales. En la tercera estarían las tradiciones
que reconocen la existencia de una totalidad social mayor a cualquier individuo,
que orienta la conducta individual al proponer normas y “juegos de vida” (no
confundir con los juegos de la teoría de los juegos mencionada antes) que rigen
las opciones de los agentes. Se trata de reglas socialmente impuestas,
convencionales, no de leyes nomológicas causales, lo que orienta la acción y
permite interpretarla hermenéuticamente, dado que esa es la meta y no la
explicación nomológica. Estos agentes tienen cierto margen de maniobra, pero
están fundamentalmente determinados por el marco social amplio en el que
actúan. Finalmente estarían los actores, llamados así no por referencia a la teoría
de la acción weberiana, sino a la dramaturgia. En posiciones teóricas como el
interaccionismo simbólico y en algunos momentos de la obra de Geertz, los
individuos son actores en el sentido de que representan papeles en los que les
interesa aparecer lo mejor posible. En tanto actores, reconocen que hay una
obra, en la que los papeles están cuando menos delineados y la línea dramática
definida en general. Pero como en el teatro, estos actores pueden improvisar y,
bajo ciertos límites, incluso modificar paulatinamente el guión. El guión lo
110

proporciona la cultura o la sociedad, pero los sujetos son actores con capacidad
no solamente de adaptarse al guión sino de modificarlo.

Lloyd, en un libro escrito casi 10 años atrás [Lloyd 1986], intentó un ejercicio
similar, concluyendo que existen cuando menos cinco tradiciones académicas en
la ciencia social (aunque él estaba escribiendo en particular sobre la historia
social). Los criterios clasificatorios son menos claros que en el caso de Hollis, pero
quizá por el hecho de usar un mayor número de ellos, las clases resultantes
parecerían más creíbles y relacionables a autores particulares (aunque uno
pueda estar en desacuerdo con la ubicación de algún autor particular y… ¡es
fácil estarlo!). Las tradiciones que Lloyd propone serían (Ver su figura 7, Ibíd.:191) el
evolucionismo sistémico (una mezcla extraña entre el evolucionismo
antropológico y el funcionalismo en sociología), el individualismo (incluyendo las
teorías de la modernización del sociólogo Parsons, que aparece también en el
tipo anterior, así como a Hommans, North y Olson), el estructuralismo (de raíz Lèvi-
straussiana, pero no limitado a él), el realismo simbólico (que incluiría a Geertz y al
interaccionismo simbólico de Goffman) y su favorito, el estructuracionismo
relacional de Giddens, en donde estaría también parte del marxismo y que Lloyd
propone prácticamente como la solución a los problemas de la explicación en la
historia.

No tenemos espacio aquí para hacer una sinopsis detallada de estos textos
o polemizar con los tipos resultantes, ya sean en la propuesta de Hollis o en la de
Lloyd; pero me parecía importante mostrar estos dos enfoques como maneras
alternativas de abordar la ontología social como elemento rector de una posición
teórica (y las subsecuentes tradiciones académicas que se derivan de ella).
Debe, en cualquier caso, reconocerse a Lloyd el entregarnos uno de los primeros
esfuerzos de abordar sistemáticamente esta problemática para las ciencias
sociales en su conjunto, tarea monumental y para la que se requiere una
erudición considerable. Se trata de una obra cuya lectura es altamente
recomendable para quien quisiera tener un panorama global, que presenta
además una extraordinaria síntesis de las principales discusiones en la filosofía de
la ciencia de ese momento (inicios de 1989), centrado en el problema de la
explicación en la historia social.

En cuanto a Hollis, el mérito es quizá el proporcionarnos un tratamiento más


balanceado y equitativo. Hollis se pregunta hasta dónde las cuatro tradiciones de
las que habla (y sus respectivas ontologías), son compatibles; hasta dónde
pueden mezclarse sin caer en un eclecticismo peligroso. Propone una imagen
interesante con la que cierra el libro: en el centro de la matriz podemos imaginar
un poste, del que se amarra una cuerda; y Hollis, a lo largo del libro, recorrido,
cuerda en mano, cuadrante a cuadrante, tratando de ver si la tradición siguiente
resuelve los problemas de la anterior. Avanza de uno a otro, buscando maneras
de conciliar las diferencias entre ellas; pero la insatisfacción con el resultado lo
lleva a dar un nuevo giro, que hace que la cuerda se vaya enredando en el
poste y que él, en efecto, se encuentre cada vez más cerca del centro, aunque
nunca totalmente satisfecho…
111

La naturaleza humana
¿Existe algo así como “la esencia humana”? Esa pregunta genera de
nuevo propuestas ontológicas ya no sobre cómo es la realidad social, sino la
condición humana en general. Es sorprendente el número de veces que se nos
intenta vender como hipótesis científica una ontología de lo humano,
típicamente motivada desde una postura política o ética. Hemos mencionado ya
antes la polémica entre “naturaleza” y “cultura” y la dificultad de determinar en
ocasiones sus aportes relativos.

Resulta entonces importante estar conciente de qué concepción del


hombre está detrás de las propuestas, sobre todo con vista en las consecuencias
éticas y políticas de dicha concepción. ¿Es una visión pesimista? En ese caso, lo
que se nos propone de manera velada detrás de las pseudo-teorías es que el
hombre “es malo por naturaleza”, o “es egoísta por naturaleza”, o “está
obsesionado por el prestigio y el poder, por naturaleza”. A la inversa, ¿es una
visión optimista? Es probable que entonces las teorías en cuestión destaquen sus
avances, su altruismo, su adaptabilidad u otras propiedades favorables. Por
supuesto, no tiene nada de malo -de hecho es inevitable- el tener ideas con
respecto a la “naturaleza humana”. Los problemas surgen cuando estas opiniones
se ofrecen como “teorías empíricas confirmadas por los datos”.

Esto me lleva a un concepto que será crucial entre las herramientas de


análisis que proponemos en esta tesis: el concepto de “ontologización”.
Ontologizamos cuando respondemos a una pregunta de tipo “por qué”,
contestando “porque sí, porque así es la realidad”. Es decir, cuando nos negamos
a contestar realmente la pregunta. Esta negativa puede estar acompañada de
un acto de modestia y reconocimiento de ignorancia: “dado que no sabemos de
momento por qué, en lo que lo averiguamos, proponemos que porque sí, porque
así es la realidad, así es el hombre, así son las cosas”. Cuando ontologizamos por
esa razón, quizá estamos siendo honestos simplemente y aceptando que todavía
queda mucho que aprender. O bien puede estar acompañada de un acto de
arrogancia e impaciencia: “porque sí, porque es obvio que así es, cualquiera se
da cuenta que así es la vida, así es el hombre, así son las cosas, porque no hay
nada más que preguntar”. Este segundo tipo de ontologización es el que me
parece más peligroso: pone fin a nuestro espíritu inquisitivo, decide que no hay
más que aprender e insinúa que solamente los necios siguen preguntando.

La ontologización es inevitable. Ello se debe a una propiedad que,


propongo, tienen las explicaciones en tanto respuestas a preguntas de tipo “por
qué”. A la respuesta a una pregunta de este tipo siempre puede seguir otra
pregunta igual. Es decir, si contesto a “¿Por qué X?” con “Porque p”, entonces
alguien puede preguntar: ¿Y por qué p?, a lo que la respuesta es “porque p*”;
“pero ¿por qué p*?”, lleva a “porque p**” y “y por qué p**” conduce a “porque
p***” y así sucesivamente, en lo que podemos llamar una “cadena explicativa”.

Hay tres desenlaces posibles para esta cadena: el primero, que en algún
punto respondamos regresando a una respuesta previa, como lo haríamos si
112

dijéramos que “p*** por que p”, lo que crea un círculo que normalmente vemos
como vicioso y que quizá otros puedan ver como una muestra de coherencia,
aunque en la ciencia normalmente esta solución ha sido históricamente
inaceptable como una solución definitiva. El segundo desenlace sería que
dijéramos “Porque R” y ante la pregunta “¿y por qué R?”, contestáramos “porque
así son las cosas y es obvio son así, así que no hay nada más que preguntar”. Esta
es la solución de ontologización que podemos calificar como “perniciosa” o
“arrogante”. Finalmente, está la posibilidad de contestar a “¿y por qué R?”,
diciendo “pues porque por el momento hasta ahí podemos contestar y parece
haber consenso sobre esa respuesta, aunque lo podemos seguir investigando”.
Esta es la solución de ontologización que podemos llamar “temporal” o
“humilde”. Y creo que todos podemos recordar casos en la historia de la ciencia
en la que se llegó a esas pausas momentáneas en la cadena de explicación,
solamente para reanudar la cadena en cuanto supimos más sobre algún
fenómeno o proceso, como sería el caso de preguntas sobre la naturaleza de los
elementos químicos que parecían insolubles pero que, llegado el momento,
llevaron a investigar la existencia y conducta del átomo y luego de las partículas
subatómicas, las partículas sub-subatómicas y así sucesivamente.

Si ontologizar es inevitable, el problema es decidir cuándo y qué tipo de


ontologización se adopta. En la Segunda Parte de este trabajo utilizaré el
concepto de ontologización para proponer un criterio, el de fertilidad explicativa,
que intenta responder a esa pregunta. Por el momento, lo que me interesa
señalar es que, en lo que toca a las preguntas sobre la ontología de lo humano,
es importante entender las consecuencias que tiene el intentar pasar una
ontología de este tipo como si fuera realmente una hipótesis o una teoría
sustantiva.

Las consecuencias de la ontologización en este caso son típicamente dos:


la “naturalización” y la “des-historización” de las propiedades en discusión.
Podemos ilustrarlas con un par de ejemplos. Si, ante la pregunta “¿por qué surge
el Estado?”, luego de un número de pasos en la cadena explicativa llegamos a
una respuesta de tipo “porque el hombre siempre quiere poder”, lo que estamos
haciendo indirectamente es proponer que, en consecuencia, esa es una
característica “natural” del hombre –es parte de su “esencia”. Y al sostener que es
“natural” y que siempre ha estado allí, hacemos de esa propiedad una
propiedad eterna, inmanente del hombre –la despojamos de la historia que
normalmente tiene.

A su vez, estas consecuencias tienen corolarios políticos y éticos: si así son


las cosas y así es el hombre, es parte de su naturaleza inmutable, ¿qué sentido
tiene intentar cambios políticos o cualquier otro tipo de iniciativa que permita
mejorar las cosas? No importa lo que se haga, el hombre siempre regresará a las
andadas. El corolario es claro: hay que aceptar con resignación el estado de
cosas y no intentar cambiarlo. Insistir en un cambio no solamente es ocioso, sino
que normalmente causa más dolor que bienestar y a final de cuentas no llegará a
nada: el hombre inherentemente “es así”.
113

La antropología y la historia tienen un carácter subversivo precisamente


porque una y otra vez han mostrado que algunas de esas propiedades
ontológicas “naturales” y “eternas”, es decir “inherentes”, resultaron solamente ser
una proyección de (ciertas) características de (ciertos) grupos en la sociedad
occidental capitalista. Por ejemplo, la supuesta tendencia “inherente” a buscar
maximizar la ganancia del capital acabó denunciada como una mentira, al
mostrar la historia que no solamente la sociedad capitalista era una novedad
reciente en el trayecto humano, sino que grupos no occidentales
contemporáneos, las sociedades igualitarias que la antropología daba a
conocer, no solamente no tenían capital, sino que no tenían ningún interés en
maximizar su ganancia. La arqueología mostró que es altamente probable que
las sociedades cazadoras recolectoras del pasado tampoco lo tenían, lo que,
combinado con la conciencia de la magnitud del pasado humano (alrededor de
2.4 o 2.5 millones de años como género humano38), claramente arroja que los
últimos doscientos años en un rincón específico del planeta difícilmente son
suficientes para justificar que “el hombre inherentemente busca maximizar la
ganancia del capital”.

La variabilidad que la historia y la antropología (y con ellas la arqueología)


muestran en tiempo y espacio es un excelente campo de pruebas para muchas
de estas “teorías” que realmente no son más que intentos de ontologización
arrogante. En la Segunda Parte de este texto introduciré el criterio de “simetría
explicativa”, que juega precisamente con esa propiedad. Cualquier
ontologización disfrazada de teoría deberá dar cuenta, para las propiedades que
hipostasia como “naturales” y “eternas” del hecho de que si son propiedades
universales del hombre, entonces deberán haber producido los mismos efectos en
todo el planeta y a lo largo de toda la historia. Muchas pseudo-teorías no
alcanzan a pasar esta prueba, como veremos.

Dado que las ontologías, en tanto elementos del discurso metafísico, no se


pueden “comprobar” ni “refutar” en sentido estricto, sino solamente criticarse de
manera racional y por referencia a sus consecuencias éticas y políticas, el asunto
es entonces estar cuando menos claro de dichas consecuencias. A lo largo de
este texto insistiré en un criterio de orden general que pienso puede ayudarnos a
tomar decisiones. Es el criterio de la congruencia personal. ¿Realmente creo en
las propuestas ontológicas que sostengo académicamente, o son solamente un,
a veces no tan divertido, divertimento de salón?; ¿Vivo mi vida tal como mi
ontología supondría que lo haga, o lo que sostengo lo hago solamente “de
dientes pa’ fuera”?; ¿Realmente me creo lo que estoy proponiendo, o es
solamente una pose académica? Y finalmente, ¿Qué se gana y qué se pierde al
adoptar esa postura?

En el caso de muchas de las ontologías pesimistas del humano, lo que se


gana, dirían algunos, es un realismo y una sensación de humildad ante el
38
Agradezco a Aura Ponce de León (Comunicación personal, México, Febrero 2008)
clarificarme el asunto de los rangos de fechas para este proceso; y aprovecho para
aclarar que, en efecto, me refiero al género y no a la especie (Sapiens sapiens) que, por
supuesto es mucho más reciente
114

reconocimiento de nuestras limitaciones. A mi me parece que en realidad este


realismo es una sensación de inmovilismo, de parálisis política disfrazada de
serena resignación y, en el peor de los casos, un cínico nihilismo ético. Lo que se
pierde es una sensación de esperanza, un reconocimiento de que podemos
mejorar el mundo, de que vale la pena intentar, que tenemos la obligación moral
de seguir intentando.

Al menos para mí, eso es mucho que perder…

La naturaleza del registro arqueológico


En este apartado no me refiero a las técnicas del registro arqueológico, por
supuesto, sino al conjunto del material arqueológico. A diferencia de otras
ciencias sociales, la arqueología tiene un doble problema de acceso a la
realidad que estudia: el común a cualquier acto de conocer y el adicional de
conocer a partir de algo que ha sido separado de su contexto sistémico (en
términos schifferianos), es fragmentario y ha transitado por fenómenos que lo
alteran una vez depositado.

Es en este momento en el que entran en juego nuestros supuestos sobre


cómo es ese algo que es nuestra vía para el conocimiento de las sociedades
antiguas y recientes cuando nos aproximamos a ellas vía la arqueología.
Mencionamos antes que uno de los puntos en que primero se revelan estos
supuestos ontológicos es en el de los límites del conocimiento que podemos
obtener a partir del material arqueológico y cómo si estos límites se aceptan sin
crítica, podemos perdernos de aprender sobre aspectos de la sociedad, tal como
argumentó Binford contra Hawkes.

Nadie como Schiffer ha avanzado, en mi opinión, nuestro conocimiento


sobre lo que él llama “el contexto arqueológico” (para diferenciarlo del “contexto
sistémico”, el de las sociedades vivas, en operación) (Schiffer [1973, 1976, 1987;
Schiffer and NetLibrary Inc. 1995, 1996]). Sus trabajos sobre los procesos previos y
posteriores a la deposición que afectan este contexto son la base sobre la que
podemos evaluar muchas de las inferencias que hacemos como arqueólogos. En
virtud de que se trata de propuestas suficientemente generales como para ser
aceptadas por varias posiciones teóricas, éstas propuestas se adoptan para cubrir
el papel que aquí hemos asignado a las “teorías de lo observable” que
constituyen, en nuestro caso, la teoría arqueológica en sentido estricto. En ese
sentido, son teorías sustantivas sujetas a la prueba de la realidad. Regresaremos
brevemente a ellas en el nuestra discusión sobre el área metodológica de una
posición teórica.

Nos interesa ahora explorar los supuestos ontológicos que están detrás de
estas teorías de la observación y que tienen consecuencias, ya no solamente
sobre la estrategia de la investigación (el pesimismo u optimismo sobre los límites
115

del material arqueológico comentados antes), sino sobre la elección de ciertas


técnicas de obtención y análisis de datos.

En muchos casos, estos supuestos son una consecuencia directa, casi


deductiva, de los supuestos ontológicos sobre la naturaleza de la sociedad y, en
particular, de la cultura (en el sentido antropológico tradicional del término).
Examinamos antes este tipo de articulación cuando hablamos de la concepción
normativa de la cultura y sus efectos sobre el rango de inferencias posibles dentro
del particularismo histórico. Quiero explorar ahora sus implicaciones en cuanto a
la forma en que observamos y analizamos el propio material arqueológico.

En México se sostiene con frecuencia que las elección de técnicas de


registro y análisis es un asunto de preferencia personal, o cuando mucho una
elección académica que debe ser respetada como se respeta la libertad de
cátedra. Me permito disentir. Me parece que en México y en muchos otros países
la elección de técnicas es un resultado de los supuestos sobre la naturaleza de la
cultura que son traducidos ahora a supuestos ontológicos sobre el material
arqueológico. Para verlo, analicemos brevemente un par de ejemplos.

Para el primero permítaseme remitirme a una anécdota personal. Mientras


trabajaba en 1974 en Chalcatzingo, Morelos, pude platicar con uno de mis
maestros favoritos, el Dr. Román Piña Chan, sobre la secuencia cerámica del sitio.
Piña había logrado, años atrás, una de las primeras secuencias completas del
sitio, utilizando ese poder casi de percepción extrasensorial que de alguna
manera le indicaba en dónde excavar para obtener los mejores resultados. La
plática ocurrió en el contexto de una polémica con el director del Proyecto,
David Grove, sobre la pertinencia del uso del muestreo probabilístico en
arqueología. Yo tenía fresca la lectura del artículo de Binford de 1964, en el que
hace una de las argumentaciones más efectivas a favor del uso de dichas
técnicas. Grove no estaba de acuerdo y en consecuencia tanto la recolección
de superficie como la decisión de dónde excavar se hacían “a juicio”, como es
común en la arqueología mesoamericanista.

Por todo este contexto, era interesante saber cómo es que Piña había
decidido dónde excavar, años atrás, para obtener su secuencia cerámica. Uno
de los lugares elegidos resultó ser un conjunto de terrazas muy cercano a uno de
los arroyos que cruzan el sitio. Deduzco que Piña notó en los cortes del arroyo
evidencia de que se tenía una secuencia de deposición larga (aunque esto es
conjetura mía, él nunca articuló en detalle el criterio empleado). A mi pregunta
(con la necedad de un estudiante de cuarto año de la carrera), sobre si él
consideraba ese lugar como representativo del conjunto del sitio, contestó que
por supuesto lo era, al menos para los propósitos de establecer una buena parte
de la secuencia cerámica.

La respuesta chocaba directamente con la propuesta Binfordiana que


insistía en controlar la representatividad de nuestras observaciones; una muestra
tan pequeña, en un lugar elegido a juicio, parecía ser una mala apuesta a favor
de la representatividad. Le daba además en cierto sentido la razón a Grove, que
116

hablaba de la necesidad de optimizar el presupuesto limitado del proyecto y, en


consecuencia, de eliminar los pasos que no fueran en su opinión indispensables,
como el del diseño de un esquema de muestreo.

En ese momento entendí una de las consecuencias de la adopción de una


ontología normativa de la cultura, señalada indirectamente por Binford en el
artículo citado [Binford 1964]: bajo la concepción normativa, mentalista, de la
cultura, la cultura reside en las cabezas de los miembros de una cultura y es
universalmente compartida. Dicho de otra manera, todos los miembros de la
cultura “cargan” en la mente las mismas normas. Dado que son estas normas las
que indican cómo hacer, entre otras cosas, la cerámica y cómo disponer de ella
cuando ya no sirve, en principio estas normas deberían crear una homogeneidad
en los patrones respectivos de manufactura, uso y desecho. Esto implica que
prácticamente en cualquier punto de un sitio en el que se excave,
encontraremos fundamentalmente lo mismo, dado que la uniformidad de los
depósitos en los sitios no es más que la expresión de la homogeneidad con que se
comparten las normas culturales.

La consecuencia es que, entonces, cualquier punto del sitio es igualmente


representativo, dado que la población muestreada es homogénea en ese
sentido. Es decir, los sitios son como “pasteles” más o menos indiferenciados, en los
que casi cualquier rebanada mostrará la misma composición y contenido
(exceptuando, por supuesto ¡…las roscas de reyes mexicanas!). La estadística
enseña que en poblaciones homogéneas en torno a la variable de interés, una
muestra pequeña e incluso a juicio, puede ser suficientemente representativa de
la población objetivo.

¿Pero qué sucedería si los sitios no fueran homogéneos porque las normas
no fueran homogéneas?; ¿o incluso si las normas fueran homogéneas pero
hubiera una diferenciación funcional en los sitios complejos? Y Chalcatzingo
ciertamente es un sitio complejo, con arquitectura monumental, petrograbados,
estelas y altares de “influencia olmeca”, áreas residenciales de elite y áreas más
modestas.

Piña asintió de inmediato que precisamente por ello era importante no


tener solamente un par de pozos, sino que había que elegir con cuidado dónde
excavar en las diferentes áreas del sitio. En efecto, pensé, en vez de partir del
supuesto de que las normas culturales se comparten homogéneamente,
podemos partir del supuesto de que la cultura, como proponía Binford, es
“diferencialmente participada”, en el sentido en que no todos los miembros de un
grupo realizan las mismas actividades en los mismos lugares con los mismos utillajes
y no dejan en consecuencia los mismos residuos y desechos. Pero entonces se
sigue que los sitios no son pasteles indiferenciados en los que cualquier rebanada
arrojará los mismos tipos cerámicos o la misma evidencia en general. Y si esto es
117

así, entonces es importante saber hasta dónde los trozos seleccionados


representan al conjunto39.

Anécdota aparte, la intención es mostrar que la elección o no de técnicas


de muestreo probabilístico descansa no solamente en cuestiones de tipo personal
o presupuestal; lo hace realmente en los supuestos que se tengan sobre el rango
de variabilidad de los depósitos de un sitio y de la importancia de controlar la
representatividad de la muestra obtenida.

En un segundo ejemplo, ya sin anécdota de por medio, es factible ver que


algo similar sucede con un elemento aún más delicado (y sobre el que espero
habrá mayor consenso que en torno a la utilización del muestreo en arqueología):
el asunto de las muestras de material paleoambiental. Un número considerable
de colegas encuentran que no es necesario (o factible, de nuevo por
restricciones presupuestales), recuperar y registrar material paleoambiental. En
consecuencia no emplean técnicas como la flotación, el muestro de paleopolen
y otras similares. Y cuando lo hacen y las muestras son (¡insólitamente!) analizadas,
los datos resultantes aparecen simplemente como apéndices en el reporte de la
excavación.

De nuevo, lo que está en juego aquí no es una cuestión de preferencia


personal, ni de restricción presupuestal; lo que está en juego es una concepción
del material arqueológico en donde ese tipo de materiales se considera optativo,
opcional; podríamos decir que “el tiempo (y presupuesto) que te quede libre
dedícalo a él”, parafraseando la canción popular mexicana. Bajo la concepción
tradicional de cultura el medio ambiente es solamente como un telón de fondo,
el lugar de donde se sacan las largas y aburridas listas de nombres científicos que
engalanan los capítulos de “el entorno geográfico”; por ello, cuando se obtienen
muestras paleoambientales y se analizan, es adecuado que los resultados
queden desintegrados y vayan a parar a los apéndices. De esa concepción de
cultura se sigue una concepción del registro arqueológico, en donde esos
materiales no son realmente indispensables, o tan importantes como la cerámica
residual a la que tanto tiempo se le dedica. De nuevo, un supuesto ontológico
afecta la práctica real, cotidiana de la arqueología, con consecuencias para la
conservación adecuada del patrimonio arqueológico.

Espero, cuando menos, haber articulado en esta sección la importancia de


analizar los supuestos ontológicos de una posición teórica. En el caso de la
arqueología estos supuestos serán sobre la naturaleza de la cultura o la sociedad,
sobre la naturaleza humana y sobre la naturaleza del registro arqueológico. En
conjunto, estos supuestos determinan en buena medida no solamente el rango
de teorías sustantivas que generará la posición teórica, sino incluso, como espero
haber mostrado, el conjunto de procedimientos técnicos a emplear. Los supuestos
39
La reacción de Grove fue distinta. Al día siguiente de mi plática con Piña, me mostró
cómo iba a resolver el problema del muestreo en el sitio. Me llevó a la Gran Plaza, tomó
un guijarro y dijo, al tiempo que lanzaba el guijarro hacia atrás sobre su hombro: “He ahí tu
muestra aleatoria; ahí es donde vas a excavar”. Y ahí excavé…
118

ontológicos tienen consecuencias éticas y políticas. La ontologización que he


llamado arrogante naturaliza y hace ahistóricos y universales rasgos que bajo otra
concepción son productos históricos y por lo mismo dinámicos y heterogéneos. La
consecuencia es la justificación del estado de cosas actual y el crear un
desánimo o sensación de inutilidad de la acción política para mejorar el mundo.
En el caso de los supuestos ontológicos sobre el registro arqueológico, la
consecuencia es la selección de técnicas de registro y análisis que no siempre
cumplen con la meta de la arqueología de preservar adecuadamente el
patrimonio que sociedades previas nos heredaron y que la sociedad actual nos
confía para conservar responsablemente.
119

Capítulo 5

El área epistemológica
Cognoscibilidad del objeto y límites del conocimiento
El término “epistemológico” es un término cómodo. Dan ganas de usarlo:
suena bien y viste mejor. De hecho, tengo una querida amiga arqueóloga que lo
usa sin empacho cada seis o siete adjetivos.

En algunas tradiciones, destacando entre ellas la francesa, parecería que


se equipara por el conjunto que aquí hemos llamado “teórico”. Se nos invita
entonces, a entrar en el debate epistemológico, pero a veces se trata de asuntos
ontológicos o de carácter valorativo. Aunque la confusión no tiene realmente
consecuencias severas, se presta a confusiones y en cualquier caso se aleja del
significado más generalmente entendido del término.

En este texto lo utilizaremos en ese sentido más popular: el de lo relativo a


cuestiones de cómo sabemos, cómo sabemos que sabemos y qué tan confiable
es nuestro conocimiento. La epistemología, en tanto disciplina filosófica intenta
contestar a la pregunta “¿y cómo sabes?” y luego, “y cómo sabes que sabes”; o
con mayor generalidad, cuándo podemos decir que tenemos conocimiento y en
qué justificamos nuestra pretensión. Aplicado como adjetivo o adverbio,
normalmente se refiere a cuestiones de acceso a la realidad (para su
conocimiento) y el énfasis está en uno de los dos polos del proceso de
conocimiento, el del sujeto. Este uso tiene un empleo simétrico en el otro polo del
proceso, cuando utilizamos“ontológico” como adjetivo o adverbio, para
referirnos a características de la realidad –mismas que discutimos en el capítulo
pasado para el caso de la realidad social en arqueología.

La arqueología es un campo en el que la discusión epistemológica es


constitutiva de la disciplina. Se dice que la arqueología no tiene acceso directo a
la realidad social que estudia. Ello implica que nuestro acceso está mediado,
depende del material arqueológico. Se ha generado un escepticismo, que la
mayoría de las veces es saludable y una dinámica académica no tan saludable,
dado que uno de los pasatiempos favoritos de los arqueólogos es poner en duda
los datos de sus colegas. ¿Y de dónde se saca tal inferencia el arqueólogo X…?
Lo cierto es que el problema de la justificación de nuestras inferencias (que es un
problema clásico en epistemología) es una tarea cotidiana para el arqueólogo.

Esta área de la posición teórica incluye precisamente los supuestos sobre


hasta dónde y cómo es que podemos conocer el pasado a través del registro
arqueológico (o en general, la realidad). Se trata de supuestos muy
profundamente integrados a la práctica cotidiana y por ello, muchas veces no
explicitados, discutidos o examinados críticamente. Hemos hecho ya referencia
aquí a las opiniones de Hawkes, que proponía de entrada que hay aspectos de la
120

realidad social que son incognoscibles mediante la arqueología. Este es un


supuesto al mismo tiempo ontológico (cómo es la realidad) y epistemológico
(hasta dónde podemos conocerla). Implica un pesimismo epistemológico al que
se opuso, como vimos, Binford, que creía que los límites de nuestro conocimiento
serán los de nuestro ingenio metodológico y técnico.

Pero los supuestos epistemológicos normalmente empleados en


arqueología van más allá: tienen que ver con la posibilidad de lograr la
certidumbre o certeza total del conocimiento y con la naturaleza (y aporte
relativo) de las observaciones que hacemos en campo y gabinete, comparadas
con los aportes desde la teoría. Involucran el grado de confianza sobre los datos
empíricos y la manera en que nuestras técnicas pueden influir en su confiabilidad.
¿Es factible conocer el pasado con total certidumbre? ¿Podemos llegar a la
verdad absoluta en arqueología? O, a la inversa, cómo parecen proponer
algunos arqueólogos posprocesuales, ¿es nuestra pretensión de conocimiento del
pasado una mera ilusión?; ¿estamos simplemente proyectando nuestras propias
creencias contemporáneas al pasado, que resulta fundamentalmente
incognoscible?; ¿será cierto que hay tantas verdades en arqueología como hay
arqueólogos?

El análisis del conocimiento


Este tipo de cuestiones han ocupado mucha de la polémica reciente en
arqueología. En mi opinión, derivan de una confusión en cuanto a ciertos términos
y propiedades epistemológicos. Y, si bien han puesto el dedo en la llaga sobre la
confiabilidad de nuestras reconstrucciones sobre el pasado –y por ello hay que
aplaudirles- amenazan con llevarnos mucho más allá, hacia una forma de
escepticismo relativista que, como espero mostrar al final de este capítulo, es
incongruente.

Por ello, haré una breve excursión a un punto central del debate, que es la
propia caracterización que hacemos del conocimiento, lo que técnicamente se
conoce como “análisis del conocimiento” (Para una introducción pensada para
arqueólogos, ver [Gándara 1990a]). El propósito del análisis es poder determinar
cuándo podemos decir que alguien sabe algo. Como en el caso de otros análisis,
su intención es permitirnos separar aquellos casos que podrían ser candidatos
legítimos al conocimiento de los que no lo son; dicho de otra manera, hacer una
partición del mundo, de la que en un lado queden ejemplos de conocimiento y
del otro los que no lo son. Un análisis en el que todo fuera conocimiento (o en el
que nada fuera conocimiento) no serían satisfactorios –aunque, como veremos, el
escéptico filosófico a veces parecería apostar a la segunda de estas
posibilidades.

El análisis más conocido y popular es el que heredamos de la tradición


griega y que se conoce como “análisis tradicional del conocimiento”. Bajo esta
propuesta, decimos que alguien sabe algo si esa persona lo cree, tiene razones
121

para creerlo y, además, lo que cree es verdadero. Es decir, se propone que debe
cumplir tres condiciones: creencia, justificación y verdad40.

La creencia
Aunque parece algo trivial, este análisis arroja de inmediato importantes
consecuencias para la polémica arqueológica actual. En un intento de
liberalismo democratizante, algunos autores como Hodder han sostenido que
cada quién tiene su verdad –pero a la hora de discutir en detalle, han
reconocido que lo que realmente quieren decir es que cada quien tiene su
creencia [Hodder, comunicación personal, ciudad de México, 2002].

Yo soy el primero en defender el derecho de cualquiera a sus propias


creencias. Pero ello no implica que, por el simple hecho de creer algo, eso que se
cree se haga verdadero. Daniel Russo cree y está convencido de que las
montañas de Tepoztlán son en realidad monumentos esculpidos por
extraterrestres con poderosas herramientas. Está tan convencido que intenta
convencernos a nosotros (o al menos vendernos sus libros). La propuesta de que
cualquier creencia es automáticamente verdadera haría que, en efecto, los
cerros tepoztecos sean obras extraterrestres; pero si alguien cree que no lo son,
bajo el mismo, criterio entonces no lo son, lo que resulta al menos problemático.
Aquí la confusión es entre el derecho a creer y la verdad.

Esta confusión empeora cuando decimos “es que esa es la verdad de


Russo, esa es su verdad, él tiene derecho a su verdad”. No. Esa es la creencia de
Russo, su creencia, a la que como ya dijimos, por supuesto tiene derecho. Para
que algo cuente como conocimiento, a la creencia deben unírsele razones para
creer lo que se cree (justificación) y que lo que se crea en realidad sea así
(verdad).

Quien propone que no es necesario dar razones para lo que se cree está
adoptando una posición epistemológica conocida: se llama dogmatismo.
Algunos filósofos lo defendieron, dado que tenían bajo la manga el as de que
solamente el conocimiento revelado por Dios es realmente digno de ser
considerado verdadero. Y ese conocimiento se adquiere por fe, no mediante
justificaciones terrenales. El dogmatismo tiene otras fuentes, por supuesto, además
de la religiosa. En los años de mil novecientos setenta y ochenta fue común el
dogmatismo político: lo que dijera el Partido Comunista Soviético era
automáticamente verdadero e incuestionable. Y hay dogmatismos de
comunidad académica (como cuando es para todos obvio que algo es de tal
manera y no de otra y no estamos dispuestos a discutirlo).

Esa disposición a dudar, a discutir, es lo que propone el opositor del


dogmático, el escéptico. Claro que él quiere hacerlo para mostrar que quizá

40
Dicho de manera más precisa, dado un sujeto S y una proposición (o enunciado –para
nuestros propósitos esta diferencia no es importante) p, S sabe que p sí y sólo si S cree que
p, tiene razones para justificar su creencia y p es verdadera (o simplemente y p).
122

nadie tiene nunca el grado de justificación suficiente como para decir que sabe.
De nuevo, la motivación para una posición tan extravagante a veces venía de la
religión (de nuevo, el único conocimiento indudable provenía de Dios); pero a
veces ha sido el resultado de una defensa de la propia ciencia ante los embates
de la autoridad política o religiosa. El escéptico demanda razones que justifiquen
la creencia, para luego poder ponerlas en duda.

Completan este triángulo los relativistas. Aunque a primera vista parecerían


enemigos de los dogmáticos, en realidad llegan a una conclusión parecida:
cualquier conocimiento es igualmente legítimo, porque cualquier justificación
para la creencia es igualmente aceptable, por lo que no es realmente
indispensable discutir las justificaciones (y es en eso en lo que se parecen a los
dogmáticos). Es decir, el derecho a que la fe (no me refiero solamente a la
religiosa) tome el lugar del conocimiento es un privilegio que no debe restringirse
a la iglesia o al partido, sino que debe generalizarse a cualquiera que pretenda
saber.

Al centro de este triángulo, cercano a veces más a uno de los vértices que
a otro, estaría lo que en algunas ocasiones se ha llamado “racionalismo crítico”.
Sostiene, concediendo en parte la razón al escéptico, que nuestra justificación
quizá nunca sea suficiente, pero que estamos obligados a proporcionar una; y en
parte al dogmático, en el sentido de que habrá algunas cosas para las que de
momento no tengamos una buena justificación; aunque, de nuevo, estamos
obligados a buscarla, a dar las razones que tenemos para proponer lo que
proponemos. Coincide con el relativista en que seguramente hay muchas
maneras de justificar lo que se cree, pero difiere de él en el sentido de que estas
maneras son evaluables y que estamos obligados a preferir a las mejores
justificaciones disponibles.

En todo este debate, sin embargo, se aprecia que precisamente lo que


está en juego es mantener diferenciados y claramente separados los tres
componentes del conocimiento: creencia, justificación y verdad; el dogmático
equipara creencia con verdad y por lo tanto no requiere justificación; el
escéptico propone que la justificación jamás será suficiente; y el relativista elimina
la verdad a favor de la justificación, añadiendo que cualquier justificación es
igualmente respetable.

Sin embargo, este primer acercamiento es demasiado esquemático. Lo


que está en el fondo son no solamente diferentes maneras de analizar el
conocimiento, sino cada uno de los componentes de dicho análisis.

La creencia es el menos controvertido quizá. La creencia puede definirse


como la disposición a aseverar. Es un estado “doxástico”, del sujeto, capaz de
grados que van desde la certidumbre total (en donde no es factible
equivocarse), hasta la duda total. La certeza, sin embargo, es un estado del
sujeto; y salvo que uno defina que lo único que hay en el mundo sean estados del
sujeto, no puede confundirse con los estados de la realidad. Dicho de otra
manera, se abren aquí dos posiciones: una, que propone que si el sujeto está
123

super convencido de algo, de hecho tiene certeza, completa certidumbre al


respecto, entonces lo que cree debe ser verdadero; y otra, en que lo que el
sujeto crea, con certidumbre o sin ella, es diferente al estado del mundo. Es decir,
que los estados del sujeto (estados epistemológicos) no tienen por qué coincidir
con los estados del mundo (estados ontológicos). Esta última posición ha recibido
diferentes nombres, pero en general se conoce como “realismo”. La primera tiene
muchas variantes, pero en conjunto podemos describirlas como “anti-realistas”.

De regreso a Russo, él parece estar muy convencido de lo que cree.


Incluso puede dar razones más o menos convincentes de lo que cree. Pero
solamente un anti-realista podría tomar ese estado del sujeto como equivalente a
la verdad.

Hay quien ha puesto en duda que la creencia sea necesaria para tener
conocimiento; los argumentos son demasiado técnicos y alejados de nuestros
propósitos como para retomarlos aquí (pero véase, por ejemplo Lehrer [1974:18-
19]). Digamos simplemente que de las tres propiedades del conocimiento, esta es
la menos polémica.

La justificación
Buena parte de la polémica se ha centrado en esta segunda propiedad.
¿Cuándo podemos decir que tenemos suficiente justificación como para
pretender que sabemos algo? Aquí el diálogo con el escéptico ha resultado
clave, dado que este personaje se ha encargado de encontrar ejemplos que
ponen en duda hasta la más fuerte de las justificaciones.

Para entender su estrategia, es necesario introducir un nuevo término


técnico: la “cadena ancestral de la justificación”. Le llamamos así a la serie de
enunciados con la que se apoya o justifica el enunciado sobre el que
pretendemos conocimiento. Es decir, si yo pretendo que se que p, alguien puede
preguntarme “¿y cómo sabes que p?” La respuesta será uno o más enunciados,
del estilo “bueno, porque p’”. Pero ahora nuestro interlocutor puede simplemente
variar la pregunta: “y cómo sabes que p’”; a lo que contestaremos algo así como
“bueno, porque p’’. El escéptico puede seguir preguntando, con lo que se
genera la secuencia de enunciados que, en conjunto, apoyan al enunciado
original p.

Es fácil ver que se abren aquí tres posibilidades. Si el escéptico sigue


preguntando puede suceder una de tres cosas: que llegado cierto punto, nos
neguemos a contestar, arguyendo que ese último enunciado es tan claro, tan
autoevidente, que se justifica solo y es capaz de justificar al resto de la cadena
ancestral hasta el enunciado en cuestión, al menos por el momento; la segunda,
es que algunos pasos adelante, nos demos cuenta que la cadena regresa sobre sí
misma, es decir, se reinserta en algún enunciado previamente considerado;
finalmente, podemos seguir el juego del escéptico y a cada nueva pregunta
124

contestar con un nuevo enunciado de forma tal que la cadena de justificación se


va al infinito.

La primera se conoce técnicamente como “fundamentalismo”, por


referencia a la idea de cimiento (“foundation”, en inglés). La intuición detrás de la
propuesta es que hay enunciados que se autojustifican y pueden justificar el resto
de la cadena. Tiene dos variantes: la radical, que dice que estos enunciados son
incuestionables o “incorregibles” en el sentido de que nada podría cambiar
nuestro estado de creencia sobre ellos; son la garantía de certeza absoluta. Y la
segunda variante, llamada “moderada”, que propone que quizá el cimiento en
cuestión es solamente temporal, pero que cualquier persona racional en una
época determinada, aceptaría ciertos enunciados como incuestionables (por
ejemplo, los del sentido común o los de la ciencia de ese momento); proponen
que, sin ser dogmáticos, aceptemos de momento que esos son los buenos y los
demos como justificados y justificadores del resto. El problema para ambos ha
sido encontrar enunciados incorregibles. La dificultad ha sido tan grande, que el
fundamentalismo prácticamente desapareció durante el siglo XX, al derrotarse su
última versión, el llamado “sensacionalismo” o “fenomenalismo”.41

La segunda concepción es la opuesta al fundamentalismo, el anti-


fundamentalismo y tiene también dos variantes: la primera se llama
“coherentismo”: propone que, en realidad y a veces por efecto de la manera en
que funciona nuestro propio lenguaje, a veces por las limitaciones de nuestro
aparato cognitivo, cualquier justificación acaba por regresar sobre sí misma en un
círculo que, salvo que sea muy corto, no es necesariamente vicioso. Es más,
insisten, no hay más que esa opción, sobre todo si se considera el fracaso que han
tenido históricamente los fundamentalistas para encontrar candidatos de
enunciados realmente incorregibles.

La segunda variante, llamada “falibilismo”, rechaza el fundamentalismo


pero tampoco acepta el coherentismo, ya que señala que es factible construir
dos o más sistemas igualmente coherentes y que entonces no es claro como se
debe elegir entre ellos; y que el negarse a seguir discutiendo o dar razones es
realmente un acto de dogmatismo disfrazado con el velo de la coherencia del
discurso. El falibilismo concede al escéptico el hecho de que podríamos en
cualquier momento estar equivocados y que estamos obligados siempre a dar
razones para nuestras creencias. Que es cierto que jamás llegaremos a la certeza

41
No confundir con el sensacionalismo periodístico, por supuesto. Era la tesis de que si, en
vez de hablar de la realidad externa nos limitamos a reportar nuestras sensaciones
básicas, entonces no podemos equivocarnos. Si yo digo “yo siento como si me doliera la
muela” y resulta que ya me la sacaron, no me equivoqué, dado que no afirmé que es la
muela la que me duele, sino solamente que tenía una sensación que parecía localizarse
ahí. Las posiciones más radicales proponían dejar de hablar por entero de objetos para
reducirse a sensaciones: en vez de decir que tenemos frente a nosotros un vaso maya,
habría que decir que tenemos una sensación “durosa, cilindricosa, continua, huecosa,
policromosa,…etc.” frente a nosotros. Esta postura fue la versión moderna de la idea de
Berkeley de que la mejor manera de evitar equivocarse sobre los objetos es simplemente
proponer que lo que existe realmente son sólo nuestras percepciones.
125

total, pero que esa es la condición humana. Y critica al escéptico por no ser
congruente: de hecho, el escéptico no puede decir que sabe que el
escepticismo es correcto, entonces alguien sabe algo y por definición su juego es
poner eso en duda. Por ello, el escepticismo no es capaz siquiera de
recomendarse a sí mismo. El escéptico vive su vida en realidad como si algunas
formas de conocimiento fueran al menos tentativamente verdaderas, por lo que
en la práctica traiciona lo que sostiene en la epistemología.

Para el falibilista, que el conocimiento pueda fallar no es lo mismo que


decir que ya falló. Y para él, que falle el conocimiento es la mejor indicación de
que realmente no sabíamos algo y ahora podemos, entonces, intentar
aprenderlo. La certeza es imposible. Debemos mantener una actitud humilde
siempre ante el conocimiento y estar dispuestos a corregir lo que creíamos. El
dogmatismo es un obstáculo al conocimiento. Es importante mantener siempre la
polémica abierta.

Los críticos del falibilismo (ver, por ejemplo, en México las opiniones de
Hurtado [Hurtado 2002] –y la réplica de Beltrán [Beltrán 2002] en el mismo
volumen)- dicen que se trata de una forma de escepticismo velada; y que en la
práctica, el falibilista o es un escéptico de closet, o un fundamentalista
moderado. No es nuestra intención (ni estaríamos capacitados para) resolver este
asunto aquí. Lo que nos interesa destacar es que estas dos grandes
concepciones, la fundamentalista, (con sus dos variantes) y la anti-
fundamentalista, (con el coherentismo y el falibilismo), van a permear de manera
profunda la elección de concepciones del método científico. Y que, en realidad,
mucho del debate actual en arqueología tiene su génesis en las diferencias
apuntadas aquí.

El fundamentalismo fue la concepción que dominó la filosofía durante


muchos siglos, con dos tradiciones en competencia: el empirismo y el
racionalismo. La diferencia fundamental entre ellas deriva de cuál consideran es
la fuente última de la certeza, si la experiencia o la razón (aunque en ambos
casos se reconocen los aportes recíprocos de cada una). En arqueología el
fundamentalismo radical es raro. Quizá algunas variantes de la arqueología
tradicionalista de historia cultural sean fundamentalistas, de corte empirista, que
considera además que la observación es en general confiable y neutra en
relación con la teoría; pero es más común que se adopten el fundamentalismo
moderado (que es la epistemología detrás del neopositivismo y del pragmatismo),
como en la nueva arqueología; o el coherentismo (como en la arqueología
posprocesual). El falibilismo es mucho más raro, aunque a veces se cita como si
fuera compatible con la epistemología neopositivista [Blanton [1990]).

Binford reclamaba a la arqueología tradicional el pensar que la fuente de


la justificación de una teoría era el prestigio personal de quien la proponía, una
forma de dogmatismo que le parecía inaceptable (ver su polémica [Binford
1972a (orig. 1968):87] con Thompson [1972]). Para él, la base de la evaluación era
la información empírica, pero que, a diferencia de los tradicionalistas, debía ser
controlada en cuanto a confiabilidad y representatividad; es decir, los datos
126

pueden ser problemáticos, cosa que la arqueología tradicional normalmente no


acepta (postura conocida como “empirismo ingenuo”). Pero, a su vez, Binford es
tildado de ingenuo al pensar que los datos justifican las teorías, según los
posprocesuales, para los que la única forma de evaluación es la coherencia
interna y eso con límites –es decir, son partidarios de alguna forma de
coherentismo. Su rechazo a lo que consideran “la verdad absoluta” es realmente
un rechazo al fundamentalismo tanto radical como moderado de sus
antecesores.

El falibilismo, propuesto formalmente por Popper a mediados del siglo XX


[Popper 1963, 1976, 1980; Popper and Schlipp 1974], se ha explorado menos en
arqueología. He propuesto que esa es realmente la epistemología detrás del
materialismo histórico. Esta afirmación ha sido no muy bien recibida, dado que la
mayoría de los colegas parecen pensar que la dialéctica es la epistemología del
marxismo. Y, en la práctica, el materialismo histórico solía ser más bien dogmático.
A mi me parece, sin ser de ninguna manera experto en la obra marxista, que el
espíritu detrás de las propuestas de los clásicos apunta más a una posición que
hoy llamaríamos falibilista y que quizá en efecto deriva de la idea dialéctica de
que cada vez que se inicia un nuevo ciclo de investigación las teorías se vuelven
a considerar como hipótesis sujetas a revisión (ver, por ejemplo, [Bate 1998:Fig. 2.2,
p.39 y ss.]).

Mucha de la discusión sobre el método científico que se ha dado con los


posprocesuales es realmente una discusión sobre la certeza. Se acusa de
“positivista” a cualquiera que sea sospechoso de pensar que podemos llegar a la
certeza. Esas críticas afectarían al fundamentalismo, (y con él a su variante
moderada, que en efecto sigue la arqueología procesual) pero ciertamente son
tangenciales para la postura falibilista, que considera la certeza es una quimera.
Proponer que podemos evaluar una teoría no implica que el resultado de nuestra
evaluación sea infalible. De hecho, nada sería infalible para el falibilismo. ¡Incluso
el falibilismo podría estar equivocado!

La verdad
Si las teorías de la justificación han sido objeto de fuertes debates, es por
que la tercera propiedad del conocimiento, la verdad, se pensó durante algún
tiempo como prácticamente imposible de definir. De nuevo, hay cuando menos
tres posturas al respecto. La primera es la característica de las epistemologías
realistas, en las que una cosa es la creencia de los sujetos y otra los estados del
mundo. En esta primera teoría, un enunciado es verdadero si y sólo si corresponde
al mundo. Llamada “teoría de la correspondencia”, fue durante mucho tiempo la
más popular, hasta que surgieron problemas derivados de puntos de vista anti-
realistas, que cuestionaban la independencia de la realidad como algo contra lo
que pudieran evaluar los enunciados; o bien que surgían de cuestiones técnicas
(como la imposibilidad de saber a qué corresponde un enunciado como los
127

llamados “epiménides”, que parecen no corresponder a nada42); o


complicaciones ontológicas sobre cómo era posible que dos entidades distintas,
la realidad y los enunciados, pudieran corresponder. Una discusión detallada de
estas dificultades está fuera de nuestros objetivos. Baste señalar que con el
regreso del idealismo filosófico, el realismo y el criterio de verdad como
correspondencia fueron puestos en duda.

Las dos alternativas más populares fueron el pragmatismo y el


coherentismo. En el caso del primero, producto norteamericano de finales del
siglo XIX, se denunciaba el asunto de la verdad como un asunto “metafísico” e
irresoluble y, por consiguiente, poco útil su discusión. De qué nos sirve postular una
teoría de la verdad si no sabemos cuándo algo es verdadero o falso, sino
precisamente porque funciona. Es decir, llamamos verdaderos a los enunciados
que son útiles. Si alguno resulta no serlo, nos damos cuenta precisamente en el
momento en que ya no nos son útiles. Por lo tanto, cualquier referencia a una
realidad inaccesible con la que supuestamente corresponden, es superflua.
Mientras un enunciado funcione podemos considerarlo como verdadero. Esta
posición es compatible con un fundamentalismo moderado. La teoría de la
verdad resultante se llama “verdad como éxito pragmático” En ocasiones
parecería estar detrás de la arqueología tradicional43.

La segunda reacción consiste en proponer que no hay tal relación entre


enunciados y realidad, sino solamente una relación entre unos y otros enunciados
de una teoría. Y mientras estos enunciados no sean incoherentes o resulten en un
sistema que sea incoherente, entonces debemos considerarlos verdaderos. No
hay una realidad externa contra la que debemos cotejarlos. Su evaluación es
interna al propio sistema. Como se verá, esta teoría de la verdad (“verdad como
coherencia”) está ligada a la teoría de la justificación como coherencia.

Uno de los problemas de la teoría de la coherencia es que no es fácil


determinar en qué consiste esta propiedad. Ciertamente no es igual o reducible a
la consistencia lógica (es decir, que no es posible sostener simultáneamente
enunciados contradictorios, “p” y “no p”). El otro problema, quizá más grave, es
que, al igual que con la justificación, es posible tener dos teorías igualmente
coherentes pero contradictorias entre sí; y no es claro en ese caso cómo debe

42
Se llaman así en honor a Epiménides, el cretense que supuestamente dijo “Y en verdad
os digo, todos los cretenses son unos mentirosos”.
43
Curiosamente, sería también la teoría de la verdad de la arqueología marxista, si en
efecto el criterio marxista de verdad fuera la praxis. Aunque se trata de una práctica de
sujetos sociales, no individual, el éxito en la transformación de la realidad sería una
evidencia de que una teoría puede ser verdadera, pero he sostenido que entonces no
habría distinción con el criterio pragmático. La dificultad es que el éxito pragmático o la
praxis dependen de los intereses de los sujetos en cuestión. Si al capitalismo le funcionan la
discriminación racial o la etnofagia, para utilizar el término de Díaz-Polanco, entonces los
enunciados sobre los que descansan son verdaderos: tienen éxito. El dominio actual del
capitalismo depredador sería entonces una indicación de su éxito y en consecuencia de
su verdad. La verdad acaba entonces relativizada, lo que no parece muy compatible
con la posición realista que supuestamente caracteriza al materialismo dialéctico…
128

seleccionarse entre ellas (de no ser atendiendo a cuestiones formales o estéticas,


como la simplicidad o la parsimonia).

El coherentismo (en cuanto a la verdad y la justificación) es, hoy día, una


de las epistemologías más populares, bajo el nombre genérico de “epistemología
constructivista” (aunque no se refieren a la versión de Piaget del mismo asunto,
popular entre los pedagogos). Unida a una ontología anti-realista, propone que
es el sujeto que conoce el que construye la realidad que conoce. Lo hace dado
que no hay otra realidad que la que el sujeto hereda de su grupo, a través del
lenguaje o de los “juegos de vida” de su cultura. En particular en aquellas
posiciones teóricas que tienden a ver a la cultura como “un entramado de
significaciones”, en virtud de que no hay significaciones sin sujetos, la realidad no
tiene autonomía. Y se propone que no solamente es la realidad social la que
tiene estas características, sino el conjunto de la realidad. Para esta
epistemología, por lo tanto, la verdad de una teoría no puede ser evaluada por
su comparación con una realidad independiente, dado que dicha realidad
independiente simplemente no existe. Lo más a lo que podemos aspirar es a crear
un discurso coherente. Y dado que es posible crear más de uno, entonces o todos
son igualmente respetables y “verdaderos”, o bien deben considerarse
complementarios. De ahí que esta epistemología sea acusada normalmente de
ser una forma de relativismo no solo epistemológico sino ontológico. Y también de
ahí que para ella no haya diferencia en ocasiones entre creencia y verdad, dado
que la verdad no sería sino una relación armónica entre creencias.

El inexplicable escepticismo posmoderno y las veleidades del relativismo


posprocesual
En años recientes, el posmodernismo ha venido a poner de nuevo de
moda al escepticismo. A veces se trata de escepticismo del tipo llamado “global”
(es decir, se duda de que nadie sepa nada); a veces se trata de un escepticismo
“local”, sobre algún área de conocimiento, como podrían ser el pasado u otras
culturas.

Antaño, el escéptico lo era porque tenía una agenda oculta que motivaba
su discurso; como vimos, esta agenda solía estar relacionada con una visión
religiosa. Hoy día es mucho más difícil entender qué motiva a los escépticos
modernos. Algunos parecerían ser resultado solamente de una confusión: la de
pensar que cualquiera que pretenda conocer lo hace pensando que alcanzará
una verdad inamovible, cosa que como vimos solamente pretenden los
fundamentalistas. A veces parecería simplemente el resultado de una
argumentación que, si no falaz, es al menos incongruente.

En Historia, por ejemplo, se popularizó en México la obra de Chartier, un


experto francés sobre la historia del libro. Los aportes empíricos de este autor son
innegables: ha recuperado la manera en que la industria del libro nació y creció
129

para dar pie al libro moderno. De este aporte empírico, sus seguidores creen
encontrar pie para un argumento epistemológico, que se desarrollaría más o
menos como sigue: a) los libros no se hacían antes como se hacen hoy; b) si no se
hacían antes como se hacían hoy, entonces es probable que tampoco se
leyeran igual que hoy (por ejemplo, es el caso de la novela por entregas, que el
autor iba modificando según tenía éxito comercial); c) pero si no se leían igual
antes que hoy, entonces no tenemos ninguna certeza de que lo que leemos hoy
en esos libros es lo que leían antes sus lectores; ergo, nuestra lectura actual no es
sino una proyección del presente y está condenada a jamás permitirnos entender
cómo se leía antes: el significado original nos está vedado. Ampliado este
argumento para ir más allá de los libros, para cubrir cualquier tipo de texto, se
convierte en una extraña negación de la posibilidad de hacer historiografía:
como el sujeto construye el sentido al momento que lee, ya no hay un sentido
original recuperable del documento histórico. Dicho de otra manera, la historia es
imposible.

Yo no entiendo, primero, el gusto y la emoción con la que presentan


algunos colegas historiadores este argumento (o variantes de él). Y segundo, no
entiendo al argumento en sí que, además, dudo realmente haya que culpar a
Chartier de proponerlo. Mi desconcierto se centra en la primera y la segunda
premisa: si se les aplica la pregunta epistemológica fundamental, ¿cómo
sabemos que los libros no se leían igual al no producirse igual que hoy? Veo dos
salidas: una, la máquina del tiempo: estos escépticos tienen acceso a la máquina
del tiempo y con ella viajaron a finales del siglo XVIII para constatar esas
diferencias, lo cual suena fascinante, pero es poco probable; la otra, que su
abuelita, o alguien muy longevo, se los dijo. Por que de no ser estas dos, la única
que queda es que ellos leyeron en documentos que los libros se producían y leían
de manera diferente. Pero aquí está precisamente la incongruencia: se supone
que no tenemos acceso al significado real de los documentos del pasado. Eso
incluye a todos los documentos y, entre ellos, a aquellos que nos informan
supuestamente de esas diferencias. Entonces: ¿tenemos o no acceso a dichos
significados?

Los escépticos de la historia quieren, como dicen los angloparlantes, “tener


su pastel y comérselo”: pero si se lo comen ya no lo tienen. Aquí la incongruencia
consiste en afirmar la imposibilidad de una lectura correcta y luego vendernos
como correcta su lectura sobre la diferencia en la producción y consumo de
libros y documentos del pasado. Encuentro todo el asunto más o menos ridículo
y, en definitiva recomiendo a cualquier historiador y arqueólogo interesado en
seguir esta epistemología no incluir en su propuesta de financiamiento para su
proyecto, el supuesto de que la historia es una disciplina imposible.

No muy lejos andan los arqueólogos posprocesuales, cuyo relativismo es en


realidad un lobo dogmático disfrazado de gentil y liberal oveja. Al proponer que
no hay una “lectura” del pasado que pueda ser privilegiada, venden su
propuesta como una apertura de la arqueología más allá de los claustrofóbicos
claustros académicos: cualquiera puede interpretar lo que quiera. Esta tesis, que
más que a anarquismo suena a liberalismo decimonónico, pronto resulta ser una
130

apertura solamente en el dicho; y cuando es una apertura real, resulta nociva


para la arqueología.

Un ejemplo, de nuevo tomado de una anécdota, puede ayudar a ilustrar


esta idea. Hace unos años, Ian Hodder, en el mismo curso en cuyo contexto se
dio el intercambio reportado antes, cerraba la primera de las conferencias con la
idea de que su sitio Chatal Huyuk, está siendo apropiado por diferentes grupos a
través de distintas interpretaciones, entre las que la suya, la del arqueólogo
profesional, no es sino una más. Es el caso de los turcos que ahora quieren ver en
el sitio el origen de la identidad turca (a pesar de que es varios miles de años
anterior a cualquier cosa que se pueda llamar auténticamente turca); o a las
feministas del grupo New Age de la Diosa Madre, que atribuyen a una figurilla
encontrada en el sitio el inicio del culto a la Diosa Madre (aunque, como Hodder
explicó, la figurilla se encontró en un basurero, no precisamente un lugar que
destaque su centralidad en el sistema de creencias de Chatal Huyuk). Pero la
idea es que todas estas interpretaciones son legítimas (me imagino que en el
sentido de que la gente tiene derecho de hacerlas, lo que me parece razonable)
y más, son igualmente dignas de crédito, porque no hay una que tenga algún
tipo de privilegio.

Desconcertado ante ese aserto, pregunté a Ian si entonces cualquier


interpretación (y uso del patrimonio, en consecuencia), son realmente legítimos e
igualmente respetables; pensé que quizá había entendido mal lo que dijo,
después de todo, la charla era en inglés. Pero no, él ratificó su posición. En ese
momento se me ocurrió que había una manera fácil de saber si en realidad,
como él dijo, “no hay límite” a las interpretaciones posibles. Decidí, ahí y
entonces, crear una nueva religión: la de “Destruyamos Chatal Huyuk, porque de
ahí salió el Diablo”, (interpretación apoyada en los bucéfala -cornamentas de
toro- que adornan el templo principal del asentamiento). Y nuestra tarea es, tan
rápido como sea posible, ir a destruir el sitio. Por supuesto, Ian saltó y dijo “¡pero
hay límites!”. Interesante. Eso era exactamente lo que había dicho que no existía,
apenas un momento antes.

Si las interpretaciones del coleccionista, el saqueador, el traficante de


antigüedades son tan legítimas como las del arqueólogo profesional y las
instituciones de conservación del patrimonio, veo poca razón para que nuestro
trabajo se financie con fondos públicos; mucho menos razón para que tengamos
legislaciones que prohíban y castiguen a quienes ponen en peligro dicho
patrimonio. Pero bajo el relativismo posprocesual, cualquier aproximación es
igualmente creíble.

El relativismo y el escepticismo tienen el mismo problema como enfoques


epistemológicos: son incongruentes y ni siquiera son capaces de recomendarse a
sí mismos. Es por ello un misterio para mí el que autores como Geertz y sus
seguidores citen con complacencia a autores como Winch, que desde los años
cincuenta venía sosteniendo la imposibilidad de conocer realmente a otras
culturas, dada la imposibilidad de una “traducción completa” entre nuestro
lenguaje y el suyo. Como otros seguidores del último Wittgenstein, consideran que
131

el lenguaje “crea la realidad” y los mecanismos para aproximarnos a ella. En ese


sentido, jamás podremos en realidad saber qué dice una persona de otra cultura,
dado que no entenderemos jamás su lengua y, con ello, el acceso a su realidad.
Esto se propone como una sorprendente revelación, que ignora con rauda
elegancia los aportes de la lingüística antropológica, que en el siglo XX nos
permitió recuperar muchísimas lenguas no-occidentales. De la tesis de que no
todos los lenguajes son iguales (que encuentro inobjetable), a que por ser
diferentes nunca lograremos un conocimiento “profundo” de otras culturas, hay
un salto enorme que en lógica tiene un nombre: non-sequitur.

De nuevo, en estos casos resulta interesante tratar de entender qué puede


estar motivando este escepticismo. De ser correcta la tesis de Winch, la
antropología sería imposible. Pero… ¡un momento! Quizá no estoy entendiendo la
tesis de Winch: después de todo, está escrita en inglés y aunque algo aprendí de
este idioma en Michigan, seguramente no tengo una “comprensión profunda” de
la cultura inglesa. Es más, al ser de una cultura y un lenguaje diferente, me está
realmente vedado entenderla de manera profunda. Como a él, me imagino,
entenderme a mí. Aunque… ¿de dónde me saco entonces que son diferentes, si
realmente no tengo acceso a ellas? Una vez más, el argumento es incongruente.
Afortunadamente en este caso va acompañado (y quizá sirve de sustento) a una
forma de relativismo. Este relativismo es tan generoso que permite no solamente
negar la posibilidad de hacer antropología (que es una de las interpretaciones
legítimas), sino también el derecho de hacer el intento (que es otra interpretación
igualmente legítima).

Como en otros casos, lo que se requiere es preguntarse qué se gana y qué


se pierde en ambas opciones. Yo prefiero quedarme con lo que estos autores
seguramente considerarían un “reducto positivista ingenuo” y pensar que la
antropología no solamente es posible, sino que es relevante para la solución de
los problemas del mundo actual…

En síntesis…
¿Es posible conocer el pasado? ¿Con qué limites, con qué grado de
certeza? ¿Es confiable siempre la información que obtenemos en campo y
gabinete, o es posible incluso someterla a crítica? ¿Existe la verdad, o es
solamente un asunto de creencias? ¿Deberíamos aspirar a ella, o simplemente
reconocer que vivimos en un “entramado de significados” del que no podemos
escapar?

Estas son algunas de las preguntas a las que los supuestos del área
epistemológica intentan dar respuesta. Las teorías que produzcamos tendrán
normalmente que ver con el grado al que suponemos podemos conocer el
pasado. Así, existe una relación estrecha entre estos supuestos y la producción y
tipo de teorías que una posición teórica genera. Los supuestos epistemológicos
132

tendrán un efecto sobre otra área, el área metodológica, como ahora


examinaremos.
133
134

Capítulo 6

El área metodológica
La discusión sobre si la arqueología ya es o debería ser una ciencia es una
de las más antiguas en la disciplina. Se han propuesto soluciones de todo tipo,
incluyendo que la arqueología es una ya ciencia porque utiliza técnicas
científicas, como el Carbono 14. Pero la mayoría de los teóricos en arqueología
no encuentran esta solución aceptable. Aunque para un tratamiento en donde
se equipara técnicas con ciencia, el lector puede consultar Jones [2002], que
intenta cubrir un abismo, en mi opinión inexistente, entre lo que él llama “ciencia”
(fundamentalmente el uso de técnicas, en la arqueología instrumental llamada
“arqueometría”) y la hermenéutica, enfoque que el autor considera indispensable
pero difícil de compatibilizar con su idea de ciencia como el uso de técnicas. Me
temo que la dicotomía está mal de entrada. La naturaleza científica de la
arqueología debe radicar en otro lado, no en su uso de las técnicas.

Precisamente es el responder a este tipo de preguntas lo que genera un


área metodológica dentro de una posición teórica. Se intenta clarificar si la
arqueología es o debe ser una ciencia y en el segundo caso, en qué consistiría
este estatus, es decir, que delimitaría a la ciencia de la no-ciencia. Típicamente
este problema, llamado del “criterio de demarcación”, se soluciona por
referencia al elemento considerado distintivo de la ciencia, el método científico.
Pero he ahí que no hay una versión única de este método científico, por lo que
una posición teórica debe elegir, como en otros casos, entre varias opciones
disponibles. Complementan esta área una particular selección de técnicas de
campo y gabinete, a veces tomadas de otras disciplinas, así como las teorías de
la observación (o de lo observable) que establecen la confiabilidad y
representatividad de la información obtenida con dichas técnicas. Junto con
ciertos procedimientos para facilitar la adquisición de conocimiento (llamados
“heurísticas”, entre las que incluyo las llamadas “reglas metodológicas” que una
comunidad sigue), se desarrollan así “rutinas de trabajo” que la posición repetirá
al considerarlas como exitosas y no problemáticas. Adicionalmente, tendrá una
orientación metodológica en una serie de dicotomías muy cercanamente
relacionadas con las dicotomías (o continua) discutidos en el área ontológica.
Pasemos ahora a ver estos elementos en detalle.

Criterios de demarcación
Para algunos colegas, es totalmente irrelevante si la arqueología es o no
una ciencia. Para ellos es divertida, emocionante, nos da de comer y genera
múltiples oportunidades para viajar, así que con eso es suficiente. Respeto este
punto de vista. Si de entrada uno no es arqueólogo por el simple placer de serlo,
entonces probablemente no sea un buen arqueólogo (ciertamente, no está en la
135

disciplina por los supersalarios que nos pagan…). Pero, aunque de entrada esta
justificación es intuitivamente satisfactoria, no es capaz de proporcionar entonces
una justificación al costo que tiene la arqueología en relación con la investigación
y protección del patrimonio arqueológico. No solamente en México, sino
prácticamente en todos los países que tienen una estructura de investigación
arqueológica consolidada, las leyes de protección giran siempre en torno a la
capacidad especial que tendría la arqueología, en tanto ciencia, para hacerse
cargo del patrimonio, investigándolo y poniéndolo en el uso social que
normalmente se reconoce es su destino legítimo. Por ello, si este argumento ha de
sostenerse, no es suficiente reconocer que la arqueología es emocionante o
divertida; hay que mostrar que, en efecto, es una ciencia.

Otra ruta podría ser su defensa desde una concepción diferente. Una en
que la arqueología no tendría por qué ser una ciencia. Por ejemplo, que se trata
de recuperar objetos bellos para documentar la historia del arte; o que la
intención es una recuperación simbólica para la construcción (así, construcción,
en el sentido de algo que se crea de novo) de identidades. O bien que se trata
de la reconstrucción de una historia que no requiere ser científica, sino solamente
una buena historia, una historia creíble y bien escrita. Históricamente ha habido
pronunciamientos de este tipo. No es el lugar para discutirlos aquí, salvo que en
estos enfoques el arqueólogo sale sobrando, o al menos sale caro: sería mucho
más barato y rápido habilitar a coleccionistas, historiadores del arte 44, literatos e
ideólogos para que recuperen del registro arqueológico lo que ellos consideren
más relevante a sus diferentes objetivos.

Entonces, el campo de debate es si la arqueología ya es o debería ser una


ciencia45; y recae sobre los que piensan que sí debería serlo, el clarificar entonces

44
No quisiera que la inclusión en esta lista de los historiadores del arte se vaya a entender
como derogatoria; de ninguna manera. Sus aportes a la arqueología son múltiples y bien
conocidos. El asunto es si su trabajo es capaz de sustituir al del arqueólogo en todos los
frentes en donde éste se mueve. Ambas disciplinas tienen sus propios campos de
especialización y por supuesto, el campo de intersección en el que confluyen y a través
del que generan contribuciones conjuntas.
45
Aura Ponce de León me hace ver que parecería, de lo dicho en los últimos párrafos,
que la ciencia sería el único tipo de conocimiento interesante, legítimo, útil o necesario
(Comunicación personal, México, Febrero de 2008). Reconozco que muchas veces suelo
dar esa impresión, tanto en clase como por escrito. Pero lo curioso es que no es así como
pienso: de hecho, no comparto la posición llamada “cientismo” o “cientificismo”, que
equipara conocimiento con conocimiento científico y descarta cualquier otra forma de
conocimiento (postura que, en momentos extremos sostuvieron tanto los neopositivistas
como algunos seguidores de Bachelard): para ellos, la única epistemología posible es la
de la ciencia, y por ello epistemología y filosofía de la ciencia son lo mismo. Mi propia
visión es que existen muchas formas de conocimiento y de acceder a él. Entre las que en
particular valoro estaría el arte, la tradición y el conocimiento popular, la exploración
lúdica e incluso el aprendizaje que logramos con el cuerpo –en más de una actividad que
no requiero detallar aquí. Otras no las comparto, pero las respeto, como serían las vías
teológicas e incluso ciertas formas de misticismo o de otras disciplinas mentales, que han
producido importantes cuerpos de conocimiento por vías diferentes a la aplicación del
método científico. El asunto es si la arqueología debería identificarse con éste último o
136

qué entienden por ciencia; es decir, proporcionar un “criterio de demarcación”46,


para usar la frase de Popper [1963:20-21].

Este es un campo minado, porque precisamente al haberse debatido


durante tantos años y aparentemente no lograr una conclusión satisfactoria, es
capaz de provocar lágrimas de aburrimiento en muchos colegas; o, en el caso de
los filósofos de la ciencia, la práctica convicción de que dicho criterio es
imposible, como vehemente ha argumentado Olivé [2000:51-56; incluye una
excelente síntesis de los principales participantes en este debate]47.
Paradójicamente, es este debate uno de los lugares en donde la filosofía de la
ciencia se ha utilizado en la arqueología como argumento de autoridad, para
aplicar su lado prescriptivo o normativo a “lo que debería ser la arqueología”. Es
también un campo interesante, dado que muestra que a lo largo de la historia de
la arqueología, ésta ha recurrido o al menos ha usado los resultados de diferentes
filosofías de la ciencia, en ocasiones sin darse cuenta, en otras de manera
explícita. Esta observación es crucial para nuestro argumento de que no existe ni
puede existir, en realidad, una arqueología que no tenga un componente
autoreflexivo, filosófico. Y que no existe tal cosa como el arqueólogo totalmente
virgen de filosofía de la ciencia: existe solamente aquél que no sabe qué filosofía
de la ciencia está siguiendo, de dónde la tomó o por qué esa y no otra. En este
punto, como en otros, las posiciones teóricas necesariamente tienen que hacer
elecciones entre diferentes opciones. Lo ideal es que esas elecciones sean
explícitas y racionales, más que asuntos de inercia social o moda.

podría beneficiarse más de parecerse a alguno de los otros. ¿O quizá debería de tomar
de varios?...
46
No confundir con el criterio de significado, tan caro para el neopositivismo…
47
La imposibilidad de un criterio que sea aplicable a lo largo de la historia y a través de
diferentes comunidades y disciplinas científicas no implica que no haya otras maneras de
distinguir, por referencia que incluye consideraciones ya no solamente metodológicas o
formales, sino sociales, a las prácticas científicas, como hace el propio Olivé (2000).
Concuerdo en lo esencial con este argumento. No obstante, en esta tesis privilegio lo que
considero el mínimo elemento común de la ciencia, que sería la actitud de apertura a la
crítica vía la necesidad de justificar la creencia mediante la –admitidamente tentativa-
intención de refutar en principio lo que se propone y obtener corroboración de teorías
que progresivamente amplían el rango de fenómenos que explican. Me imagino que ello
me ubica dentro del campo popperiano/lakatosiano y seguramente en una minoría en el
panorama metodológico actual. Sus detractores utilizan como ejemplo clásico de por
qué este criterio falla, el del debate entre evolucionismo y creacionismo. Se supone que al
aceptar que el creacionismo está refutado o es refutable, irónicamente se le concede un
estatuto científico. Pero ello sucede solamente si la evaluación se restringe a hipótesis de
nivel bajo que serían supuestamente refutables. Si se asciende en escala, habría que
preguntarse qué fuente alimenta a la putativa “teoría sustantiva” y su conexión con la
“posición teórica” religiosa. Tarde o temprano saldrá la Biblia como libro sagrado
incuestionable y la autoridad del Papa como sujeto infalible cuando habla “ex cátedra”.
La apariencia de falsabilidad se verá entonces como eso, como mera apariencia, al
chocar de frente contra una vocación dogmática característica no solamente del
cristianismo sino de prácticamente cualquier religión. Aunque no pretendo que estas
líneas constituyan argumento, me parece una línea de argumentación plausible.
137

¿Cuáles son las opciones que históricamente se han considerado en el


caso del criterio de demarcación? Lakatos hace un resumen que me parece muy
útil para nuestros efectos y que aparece en varias de sus obras [Lakatos 1970,
1982; Lakatos, et al. 1983]. Él liga este recuento con la manera en que han
cambiado los estándares de honestidad académica; y, por supuesto, la
secuencia termina con su propia propuesta. En cualquier caso, es un buen
recurso de exposición, así es que lo usaré aquí, ampliándola cuando lo considere
útil.

Verificacionismo o justificacionismo: la ciencia como conocimiento


comprobado, verificado
El primer criterio de demarcación formalmente expresado es el que Lakatos
llama “verificacionismo” o “justificacionismo”[Lakatos 1970], que se asocia a
autores como Bacon y los inicios de la ciencia, aunque realmente se formula con
mayor precisión hasta el siglo XIX, con Comte y el primer positivismo. Es un criterio
exigente y, como Harré ha mostrado [Harré 1984:39], tiene consecuencias
considerables. Consiste en proponer que la ciencia se distingue de otras formas
de conocimiento por ser conocimiento comprobado. Comprobado en el sentido
epistemológico de verificado más allá de cualquier duda, es decir, en el sentido
fundamentalista radical. Sería un conocimiento “incorregible”, en el sentido de
que ninguna nueva observación nos haría cambiar nuestra creencia. ¿Cómo se
llega a tan formidable pretensión? Utilizando el método científico, que para estos
autores se modela de una de dos maneras: la de la geometría (y las matemáticas
y la lógica, es decir, mediante la demostración, que es final e infalible), o la de la
inducción, que se combinaba con la pretensión de que una técnica (la
experimentación) es realmente un método. Es decir, el “método experimental”
permite, por inducción acumulativa, comprobar las pretensiones de la ciencia.

La propuesta tuvo, entonces, variantes. A finales del siglo XIX, Mach la


complementa, en el segundo momento del positivismo (el llamado “empirio-
criticismo”. Rechaza que la ciencia tenga que ver con la explicación, mucho
menos con la explicación causal; se trata de una “descripción económica del
mundo” (en el sentido de elegante, simple, parsimoniosa), una descripción
sistemática y rigurosa, en la que se registran los procesos que ocurren juntos de
manera repetida. En su base está la inducción.

Es curioso que este criterio de demarcación siga siendo el prevaleciente en


la arqueología. Mi explicación para ello es que es el criterio que ha capturado la
imaginación popular. Y el que aprendemos desde cuando menos la secundaria48.
48
He propuesto en son de broma, pero que en ocasiones me da miedo pudiera tener visos
de verdad, que existe una sociedad secreta, con fondos del capital transnacional,
llamada “Sociedad para la perversión de los jóvenes educandos en cuanto a la
naturaleza real de la ciencia y el método científico” (o SPPJECNRCMC, por sus siglas,
impronunciables, por cierto). Su misión es promulgar y difundir una concepción obsoleta e
imposible de la ciencia. Gastan millones de dólares y euros en infiltrar el sistema
educativo, para corromper primero a los docentes, luego éstos a los alumnos, haciéndoles
creer que la ciencia produce conocimiento comprobado. Llevan décadas operando y lo
138

Como veremos adelante, se trata de lo que yo he llamado “los fáciles pasos de


Fab”, por referencia al detergente que abrió ese mercado en México, que
insinuaba que la ropa con Fab se lava sola: simplemente es cuestión de seguir los
pasos “Remoje, exprima y tienda”, que en la ciencia serían “observe, analice,
haga una ‘teoría’ y compruébela convirtiéndola en ley”. Cualquiera sabe que
está comprobado que los dentistas prefieren cierta marca de dentífrico, o que
cierto producto realmente evita la caída del cabello, o cien y un embustes más
que se basan en este criterio, que hoy sabemos es un mito.

El convencionalismo: la ciencia como conocimiento coherente


Quienes destronaron este criterio fueron científicos (que eran a la vez
filósofos de la ciencia), de dos campos que, entre ellos, eran casi tan opuestos
entre sí como con relación al verificacionismo. Pero ambos coincidían en la
imposibilidad del proyecto verificacionista de que la ciencia fuera conocimiento
comprobado. El primero fue Duhem y el grupo conocido como
“convencionalistas”. El segundo fue Hempel y la corriente conocida como
“neopositivismo” o más tarde, como “empirismo lógico”.

Ambos tenían muy fresco y reciente el triunfo de la teoría de la relatividad


de Einstein, que mostraba que la teoría de Newton era falsa, o al menos había
sido superada. Ello echaba al trasto la idea de que la acumulación de evidencia
positiva (esto es, por la vía de la inducción), no era garantía de verdad. Pero a
este hecho (que conmocionó a los expertos), añadieron cada bando sus propios
argumentos de por qué método inductivo era una ficción.

Del lado de Duhem, este autor propuso el problema que ahora lleva su
nombre. Consiste en que nunca evaluamos realmente una hipótesis de manera
aislada. Para poderla evaluar requerimos siempre de supuestos e hipótesis
auxiliares. El problema consiste en que si una hipótesis falla ya no es tan claro
saber si es culpa de la hipótesis central misma, o de las hipótesis auxiliares. Y es un
problema porque no se puede hacer ciencia sin hipótesis auxiliares, al menos sin
una de ellas: la llamada cláusula ceteris paribus, que dice que la observación o el
experimento ocurren en “condiciones normales”, sin intervención significativa de
elementos no controlados. El problema se complica, dado que no solamente
rechazar una hipótesis se convierte entonces en una fuga hacia el infinito, sino
también determinar el mérito relativo en caso de que los datos la apoyen.

Para verlo, tomemos el caso en que la hipótesis no es soportada por los


datos y que atribuye la culpa a las hipótesis auxiliares1. No hay problema:
tomemos entonces ahora como centro de atención a una de estas hipótesis
auxiliares. Claro que para evaluarla, ahora requeriremos de otras hipótesis
auxiliares2. En caso de que fallen, no hay problema: tomamos a esas hipótesis
auxiliares2 y considerémoslas como principales, aunque claro ello requerirá de
nuevas hipótesis auxiliares3 y así sucesivamente, potencialmente hasta el infinito.

hacen con mucho éxito, como el lector puede fácilmente constatar haciendo una
encuesta informal entre sus conocidos sobre qué hace especial a la ciencia…
139

Nunca lograremos una comprobación completa, porque no podemos ni siquiera


empezar a evaluar una hipótesis si no es con ayuda de hipótesis auxiliares.

La solución de Duhem para el problema que él mismo formuló requería


hacer una decisión “metodológica” y considerar que en caso de duda, era
preferible poner en duda los datos y mantener las teorías. Su argumento era que
la construcción de teorías es mucho más compleja y laboriosa y que los datos de
cualquier manera pueden fallar, así que es preferible mantener una teoría aún
ante la oposición de los datos. Eventualmente, si la teoría era fallida, le pasaría lo
que a una fachada que ha recibido demasiados retoques y reparaciones, que
finalmente se viene abajo. Es decir, el propio paso del tiempo mostraría si la
decisión metodológica estaba bien motivada. Para ello era necesario además
considerar a las teorías realmente como instrumentos, como convenciones que
permitían ligar observaciones. La inducción seguía siendo crucial; simplemente no
era “a prueba de balas”.

El probabilismo: la ciencia como conocimiento altamente probable,


verificable
La otra impugnación al verificacionismo vino, como decíamos, de los
neopositivistas. La versión mejor conocida en arqueología del argumento en su
contra proviene de Hempel [Hempel 1966:28 y ss.], aunque es tardía en relación
con las formulaciones originales que hicieron otros miembros de esta tradición. En
cualquier caso, el argumento aquí lo que hace es derribar el mito de lo que he
llamado antes los “fáciles pasos Fab”. En particular, mostrar que la ciencia, de
seguir la propuesta de los verificacionistas, sería imposible. La idea de que el
primer paso del método es la observación “inocente” o “neutral”, es simple y
sencillamente imposible. El campo de lo que podemos observar es infinito, como
lo es el de los atributos que podríamos estar registrando. El ejemplo de Hempel es
famoso: si mando a un equipo de investigación a observar la playa, ¿qué se
supone que hagan? Aunque yo tengo algunas ideas sobre lo que a mí me
gustaría observar en ese contexto privilegiado, es cierto que con esa directiva
“vayan y observen la playa”, no hay manera de determinar si hay que contar los
granos de arena, el número de olas que llegan a la playa, el estado de ánimo de
los participantes, la marca de sus instrumentos de escritura, o qué… De hecho, de
este pasaje yo derivo la idea de “rutinas de trabajo” que presentaré con más
detalle adelante, dado que en ausencia de una directiva más precisa, lo que los
investigadores harían es recaer en rutinas de trabajo previamente definidas. En
cualquier caso, es evidente que no están actuando de manera neutral o
inocente y que el primer paso del método no es la observación, así, sin más.

Lakatos [1970:21] presenta este debate además con toda la gravedad que
se reconocía en ese momento y la urgencia de su solución: si la ciencia es
conocimiento comprobado y ningún conocimiento está comprobado, entonces
no hay nada que distinga la ciencia de la no ciencia. Es decir, el criterio
verificacionista nos deja en la situación de reconocer que no existe entonces
140

conocimiento científico. Esa propuesta contradice nuestras intuiciones, así es que


la solución debe estar en otro lado.

Para Duhem y antes para Mach, tiene que ver con la capacidad de la
ciencia de presentar una imagen unificada (y Duhem quizá insistiría, bonita,
elegante, parsimoniosa) del mundo. De reducir el número de entidades y
procesos que nos rodean, de simplificar nuestra comprensión, aumentando
nuestra posibilidad de control. El problema con esta solución, me parece, es que
también las grandes religiones son capaces de hacer esta simplificación
reduciendo el número de factores y procesos. Así es que si de eso se trata, sin
más, entonces no podemos diferenciar entre ciencia y religión. Debe haber algo
más, que era precisamente la preocupación de los neopositivistas que, como es
sabido, eran primero científicos practicantes que se interesaron en la filosofía a
partir de las propuestas de Wittgenstein y sus maestros Russell y Whitehead.

Para ellos, el “algo más” era que el conocimiento científico, si bien no


estaba comprobado, ni era en principio comprobable, era al menos altamente
probable, más probable que otras formas de conocimiento. Especificar este
criterio requería contar con una adecuada teoría de la probabilidad, tarea a la
que este grupo se dedicó desde la década de mil novecientos treinta. Pero su
criterio real de demarcación tenía que ver con la propuesta, derivada del primer
Wittgenstein, del criterio del significado. La manera de evitar que la ciencia se
llenara de entidades misteriosas o místicas era requerir que todos los términos de
las teorías científicas tuvieran significado. Y el significado de un término derivaba
de su contenido empírico, del “método de su verificación” (aunque aquí la idea
de verificación no remite a la prueba concluyente, sino solamente a la idea de
que hay que evaluar empíricamente su contenido). De ahí la preocupación que
luego resultaría en enfoques como el operacionalismo o el instrumentalismo. Se
trataba de evitar, a toda costa, compromisos metafísicos, porque precisamente la
ontología y la metafísica con ella, eran ejemplos clásicos de pronunciamientos no
falsos, sino simplemente carentes de sentido.

Este criterio de demarcación estaba ligado a una versión del método,


como veremos adelante. Este método ya no era el método inductivo, porque los
neopositivistas mostraron que no es lo mismo enumerar una serie (aunque sea muy
grande de casos), que decir que se tiene una ley que cubre potencialmente
todos los casos. La diferencia no es trivial: las leyes son centrales a la propuesta,
dado que son las que permiten ir de una observación particular a otra
observación particular, en el caso de la predicción o la retrodicción y ambas son
claves para el uso práctico de la ciencia. Si lo que tengo es solamente una lista
de casos en los que ciertas correlaciones se han dado, no tengo realmente una
ley, que debería hablar del total de casos de ese tipo, para poder ser luego
proyectada a casos nuevos, incluso desconocidos previamente.

Se requería entonces algo diferente, más poderoso. Ese algo era lo que
luego se llamó el método “hipotético-deductivo”. Popper [1976] ha reclamado
que este método lo formuló (o rescató de la tradición filosófica) él y que los
neopositivistas (con los que tenía una relación tensa desde los días previos al
141

nazismo), se lo robaron. Como veremos adelante, consiste en una idea muy


simple: derivar consecuencias observables de una hipótesis y ver si se dan en la
realidad. Si sucede así, decimos que hemos “confirmado” la hipótesis. En caso
contrario, que la hemos “desconformado” o “refutado”.

Esta fue la metodología que Binford tomó como centro para la arqueología
procesual. Para 1968 el neopositivismo era ya oficialmente una de las
características de la “nueva arqueología” [Binford 1968:90]. Como hemos
mencionado antes, al parecer Binford no sabía que para entonces el
neopositivismo era ya objeto de severas críticas.

La solución neopositivista parecía recuperar para la ciencia un estatuto


especial, como ha señalado Lakatos: era un conocimiento más probable que
otros gracias a haber sido producido mediante un procedimiento confiable, el
método científico. Si bien el conocimiento científico no estaba comprobado,
cuando menos estaba confirmado por referencia a sus consecuencias empíricas,
mérito que no podía reclamar para sí, por ejemplo, la religión.

Pero fue precisamente Popper [1963, 1980] el que destruyó este fugaz
momento de ilusión. Mostró que el criterio de significado derivado de Wittgenstein
era problemático (para empezar, no tenía significado si se le autoaplicaba el
propio criterio); y por ello es que propuso que lo que requeríamos no era un
criterio de significado, sino de demarcación entre ciencia y no ciencia. Pero la
situación era todavía peor: si la ciencia era supuestamente conocimiento más
probable que otros, entonces no había ciencia, porque la ciencia es
fundamentalmente un conocimiento poco probable. Y la confirmación hace
poco para mejorar esta situación: la evidencia a favor de una hipótesis es
infinitesimal en relación con el número de casos potenciales de los que una
hipótesis habla.

El argumento detrás de esta propuesta es complejo y más técnico quizá de


lo que yo puedo presentar con soltura aquí. Pero la intuición es sencilla: las
hipótesis (o las teorías en las que participan), “predican” sobre un número
potencialmente infinito de casos [Lakatos 1970:21-22]. ¡Ese es un número muy
grande de casos! Tan grande, que no importa cuánta evidencia a favor de una
teoría tengamos, si ponemos en una fracción en el numerador el número de
casos a favor, en el denominador pondríamos infinito y el resultado, para
empezar, es incalculable salvo bajo ciertos trucos estadísticos. Y cuando se
hacen, de todas maneras arrojan una probabilidad bajísima. Para Popper esta
era una evidencia de que la ciencia es en realidad un conocimiento especial, un
conocimiento que, partiendo de riesgos enormes (al ser poco probable lo que se
propone, para empezar), de alguna manera ha avanzado nuestro conocimiento
del mundo. No era en la probabilidad en donde había que buscar el criterio de
demarcación. Si la ciencia era conocimiento probable, entonces no había
ciencia.
142

El falsacionismo dogmático: la ciencia como conocimiento refutable por


los datos
Desde la década de los treintas Popper [1980: original, 1935 en alemán]
propuso un criterio diferente. Lo que distinguía a la ciencia era una actitud de
apertura a la crítica, que se materializaba en su característica central: la ciencia
era conocimiento refutable en principio. A diferencia del dogma (religioso o
político), la ciencia estaba (¿debería estar?) sujeta siempre a la crítica. La marca
de cientificidad estaba entonces en la posibilidad de decir, de antemano, en qué
condiciones un científico estaba dispuesto a abandonar una teoría; es decir, que
observaciones o resultados teóricos cuentan en contra de la teoría. Si no es
posible formularlos, es que la teoría es irrefutable y bajo este criterio, anticientífica.

Claramente el componente normativo o prescriptivo de esta propuesta es


importante. Popper parecería no estar reportando cómo es la ciencia o cómo se
ha desarrollado históricamente; comparte con los neopositivistas la idea de una
“reconstrucción racional”, que es un eufemismo para decir que no está apoyado
en la investigación de eventos reales históricos. Pero proporciona sin duda un
criterio claro de demarcación. Este criterio, que se popularizó con la publicación
de la obra maestra de Popper en inglés hasta 1958, se conocía, como dijimos,
desde 1930. Para diferenciar su propuesta de la de los neopositivistas (quienes en
opinión de Popper habían tomado su idea del método hipotético-deductivo sin
entenderla plenamente), él la llama el método de las “conjeturas y refutaciones”.
Y la marca de su propuesta es que no importa de dónde provengan las
conjeturas –uno puede ser audaz al crearlas- lo que garantizará su cientificidad es
que al evaluarlas debemos ser “implacables con las refutaciones”. El criterio de
demarcación Popperiano se conoce como “falsacionismo”, o “falsificacionismo”
y sigue de cerca la propuesta de este autor en epistemología, el falibilismo,
presentado en el capítulo anterior.

Lakatos [1970:22-31] aclara que la insistencia en la refutación fue mal


entendida cuando Popper introdujo su propuesta en los años de 1930. En alguna
de las sesiones en las que se reunían neopositivistas en el “Círculo de Viena”,
Popper presentó sus ideas y uno de los invitados era un joven filósofo inglés, Ayer,
quien quedó maravillado con su exposición y publicó su propia versión a su
regreso a Inglaterra [Lakatos 1983 (original 1970):123, nota a pie 338]. El libro de
Ayer [1971], “Truth, Value and Logic” era un texto de divulgación que resumía los
preceptos principales del neopositivismo lógico, con algunas otras ideas
adicionales propuestas por el propio Ayer, o retomadas de autores como Popper.
Bien escrito y fácil de leer, el libro fue muy popular. Pero tenía un defecto, a los
ojos de Lakatos (quien más tarde sería el colega y discípulo más cercano a
Popper durante algún tiempo): presentaba la idea de conjeturas y refutaciones
en forma simplificada, dando pie a la falsa imagen de que Popper proponía que
en cuanto surgiera un caso en contra de una teoría, ésta debía ser abandonada.
Los cánones de racionalidad exigían que se eliminara del panorama y no se
trabajara más sobre ella: los datos la habían derrotado.
143

Pero cualquiera que haya leído a Popper con cuidado encontrará que uno
de los pilares de su propuesta es precisamente el proponer que no hay “datos”
puros y neutrales como hubieran querido los neopositivistas. Esto implica que
pueden darse, en principio, casos de refutación espuria, en los que lo que está
mal son los datos, no las teorías en cuestión. Pero estas aclaraciones sobre la
propuesta popperiano no se popularizaron tan rápido como la versión que Ayer
había hecho de Popper. Lakatos ha propuesto distinguir esta versión simplista
llamándola “falsificacionismo dogmático”. La distinción resultará importante,
como veremos adelante.

Es curioso que, aunque Popper nunca fue popular entre los arqueólogos (y
citas a su trabajo ocurren realmente tarde, como la que hace Blanton [1990], el
espíritu de la metodología falsificacionista dogmática parece haber entrado
subrepticiamente en la arqueología –o al menos resonó una cuerda sensible en
un sub-grupo de arqueólogos procesuales, los llamados “arqueólogos sistémicos”
(asociados a Flannery y la Universidad de Michigan), que desde la década de
1970 pusieron mucho énfasis en la refutación o rechazo de las teorías que ellos
consideraban demasiado simplistas. Quizá la idea de que una teoría es refutada
en cuanto aparecen datos en contra es parte del “sentido común” de la
arqueología y entonces no se trata de un caso de adopción velada de una
metodología, sino de la expresión de algo que ya estaba ahí. En cualquier caso,
las refutaciones dogmáticas, como vimos en el prólogo, estaban a la orden del
día durante el período de interés para esta tesis (inicios de la década de 1980).

El holismo o historicismo: la ciencia como solución de acertijos


Mucho más claro sería el impacto de una metodología que se popularizó
en la arqueología en la década de 1970, aunque se había venido gestando
desde más o menos la misma época en que Ayer difundía la versión dogmática
de Popper. Me refiero a la metodología de Kuhn [Kuhn 1962, 1970], cuyas raíces
deben rastrearse en los años de 1930. En ese momento se había empezado a
reconocer en varios países europeos la necesidad de hacer investigación
histórica real (y no solamente “reconstrucciones racionales”). Autores como Koyré
y Geymonat tuvieron influencia más allá de Europa, en un grupo de historiadores
que sabían también de filosofía de la ciencia (o eran filósofos de la ciencia al
mismo tiempo), incluyendo a Stillman Drake y sus discípulos. De este grupo, un
grupo en general insatisfecho o de plano contrario al neopositivismo (y como
veremos, también de la propuesta Popperiana en su versión dogmática), salió
Thomas Kuhn.

Siempre me ha parecido irónico que Kuhn fuera invitado por los


neopositivistas a publicar sus ideas en una serie de anuarios que era el órgano de
difusión neopositivista por excelencia: la Enciclopedia Unificada de la Ciencia.
Años atrás, Carnap y otros autores49 había inaugurado la serie, con el manifiesto
de la filosofía neopositivista. En 1962 Kuhn publica dentro de la misma serie “La

49
http://en.wikipedia.org/wiki/International_Encyclopedia_of_Unified_Science; consultada
en febrero de 2007
144

estructura de las revoluciones científicas” [Kuhn 1962]. Y ese sería prácticamente


el último título de la serie: tal fue su impacto.

Lo que Kuhn proponía es que un examen de la historia real, no


“reconstruida”, de la ciencia no mostraba ejemplos de prácticas que
correspondieran ni con la propuesta neopositivista ni con la popperiana (en la
versión que hemos llamado “dogmática”). Los científicos rara vez trabajaban con
hipótesis aisladas para “confirmarlas”, al estilo que proponían los neopositivistas.
Muchos descubrimientos son más bien el resultado de accidentes que derivan, en
último análisis del trabajo cotidiano, rutinario, de científicos orientados más bien
por un complejo de supuestos que no necesariamente están sometiendo a
prueba, sino que asumen como orientación en la solución de “acertijos” [Kuhn
1970]. A ese conjunto de supuestos Kuhn le llamaría “paradigma” y, luego, en
reacción a las críticas de ambigüedad y vaguedad que hicieran Masterman y
otros discípulos de Popper “matriz disciplinaria” (ver [Lakatos and Musgrave 1970;
Kuhn 1977]).

La propuesta de Kuhn, a la que ya nos hemos referido antes (capítulo 1)


tenía una consecuencia que él aparentemente no previó, pero que Popper y sus
discípulos rápidamente le hicieron ver. El contexto fue una reunión no muy
simétrica realizada en el London School of Economics a finales de 1960. [Lakatos y
Musgrave [1970]. En esa ocasión, que debe haber sido una auténtica “carnicería”
Kuhn expuso un resumen de su teoría del cambio científico, en la que los
paradigmas se suceden unos a otros en una serie de “revoluciones científicas”,
resultado de la aparición de “anomalías” dentro de un paradigma, que éste no
puede resolver; con ello su prestigio se pone en duda, hasta que finalmente un
nuevo paradigma no solamente resuelve las anomalías, sino que explica la
incapacidad del paradigma anterior para resolverlas; ello le otorga un prestigio
que motivará a que muchos científicos (incluso algunos que no están realmente
convencidos), se adhieran y eventualmente la popularidad del nuevo paradigma
haga obsoleto al anterior.

Terminada su exposición, los alumnos de Popper ofrecieron sus críticas y


comentarios a Kuhn, finalizando con el propio maestro, quien calificó la propuesta
de irracional ya que, en su opinión, no era sino la reivindicación de “la ley de la
chusma”: la ciencia cambiaba entonces como cambia la moda, por capricho y
no era claro si en realidad el conocimiento científico avanza en algún sentido
claro. Esta es una consecuencia ineludible de la propuesta de Kuhn de que cada
“paradigma construye su mundo” y este mundo está cerrado sobre sí mismo, es
“inconmensurable” con el de otros paradigmas.

El centro de la propuesta, como quizá algún lector haya detectado, es una


tesis epistemológica, que se convierte en una tesis ontológica: cada comunidad
científica al conocer construye el mundo, un mundo que es entonces diferente y
no tiene puntos de contacto con el de otras comunidades científicas. Cada una
construye sus “datos” de manera tan total que no hay un mundo compartido que
pueda servir para comparar entonces a un paradigma con otro, porque simple y
sencillamente ya no hay un mundo independiente de los paradigmas. Pero si esto
145

es así, entonces el cambio paradigmático no nos está acercando más a una


verdad que es cuando menos un ideal a seguir: el progreso científico no es sino
una quimera, una meta que carece de sentido. Las revoluciones científicas no
implican el avance que Kuhn desearía. No hay avance en la medida en que no
hay manera de afirmar que el nuevo paradigma mejoró al anterior: ambos, por
definición, no se pueden tocar, no hay medida común para evaluarlos. Eso es
exactamente lo que significa “inconmensurable”.

Recuerdo mi sorpresa, estando en el doctorado en Michigan, cuando


entendí estas dificultades por primera vez. Y mi molestia con el artículo de un
autor que luego adquiriría enorme prestigio, que aplaudía a Kuhn este “logro”:
Rorty, en un artículo reveladoramente titulado “El mundo, perdido y para bien”
[Rorty 1972].

La crítica de Popper, documentada en el libro que recogió el debate


[Lakatos and Musgrave 1970] puede calificarse de demoledora y hasta cruel.
Kuhn intentó responder, pero sus esfuerzos fueron vanos. Lo único que logró fue
debilitar su posición, tratando de aclarar que él sí cree en la racionalidad y el
progreso científico y que de alguna manera nos estamos acercando cada vez
más a la verdad, aunque quizá nunca la podamos tener de manera absoluta.
Pero es esa “alguna manera” la que no está clara en su propuesta y Popper
muestra que es prácticamente imposible de construir dentro de la propuesta
kuhniana.

La violencia de la argumentación popperiana afectó a dos más de los


participantes en el debate: dos alumnos de Popper, que aparentemente sentían
que su maestro se había excedido; que en la propuesta kuhniana había
elementos valiosos que podrían ser retomados. Esos alumnos eran el propio
Lakatos y su amigo y eterno interlocutor, Paul Feyerabend. Ellos habían
presentado ponencias en el mismo evento intentando, el primero, tender un
puente entre Popper y Kuhn; el segundo, tomar a Kuhn como la gota que
finalmente colmara el vaso y la paciencia de aquellos que pensaban que, en
realidad, había que encontrar alguna metodología que hiciera de la ciencia una
actividad racional: más bien había que aceptar que cualquier esperanza de
producir una metodología era ingenua. Así, de esa misma reunión salieron dos
propuestas: la del propio Lakatos, de los programas de investigación científica ya
mencionada brevemente en el capítulo 1; y la de Feyerabend [Feyerabend 1975
(orig. 1970)] que luego elaboraría en su libro de 1975 [Feyerabend 1975] en el
sentido de que la única regla metodológica que vale la pena es “todo se vale”,
es decir, el anarquismo metodológico.

La propuesta de Kuhn, sin embargo, no murió en ese intercambio con


Popper y sus alumnos. Aunque había recibido lo que parecía un golpe mortal,
hubo varios intentos de conciliarla con una visión del cambio científico como algo
racional. En conjunto, a las propuestas derivadas o similares a las de Kuhn se les
ha llamado “historicismo” (por ejemplo, en Diez y Moulines [1999: Capítulo 9:309-
325)], o Klee [1997:129-156]), término que en ciencias sociales tiene otras
connotaciones, por lo que yo prefiero el otro nombre que se les ha dado: holismo.
146

Este nombre tiene la ventaja de que pone el énfasis en una característica


que, en mi opinión, es central de la propuesta: el que la ciencia no es un asunto
de hipótesis aisladas y “datos”, sino que involucra incluso más que las teorías
sustantivas que Popper ya anotaba eran la unidad real de discusión. Los
paradigmas incluyen supuestos que no son probados, ni para confirmación ni
para refutación, sino que simplemente se asumen como guías para la elección de
problemas a resolver y limitan el tipo de soluciones consideradas como legítimas.

El holismo (y no solamente un interés en que cualquier metodología


estuviera reflejada históricamente en la práctica de los científicos reales), es, en
mi opinión, lo que une a propuestas como las de Hanson [1958] y Toulmin [Toulmin
1953, 1961], dos filósofos críticos también del neopositivismo, a la obra de Kuhn; y
es el hilo que lleva hasta propuestas que intentaron mesurar los problemas de
relativismo e irracionalidad que plagaban la propuesta original, como una
particularmente popular en México, la de Larry Laudan [1986]. Kuhn mismo intentó
mejorar y precisar su propuesta en obras posteriores [Kuhn 1977, 1983], pero la
importancia de la visión holista sigue siendo indudable. Mucho del interés
filosófico detrás del holismo es, por supuesto, anterior a Kuhn y debe buscarse en
autores como Quine [1961a], que años atrás habían criticado los intentos del
neopositivismo de crear un “lenguaje de la ciencia” que permitiera definiciones
no-ambiguas para términos específicos, al mostrar que en realidad los significados
de un término siempre están conectados con otros dentro de un entramado que
constituye la teoría en su totalidad. Es de ahí que surgen las dificultades, dado
que si “electricidad” aparece en la teoría de Franklin, su significado depende, al
menos parcialmente, del significado de otros términos dentro de esa misma
teoría; y en ese sentido es que es una entidad diferente a “electricidad” dentro
de una teoría como la de Faraday. Este problema, el del significado o de la
referencia de los términos teóricos, alcanzaría una gran relevancia como
resultado de la popularización de la obra de Kuhn.

Kuhn logró, además, algo que los neopositivistas (salvo quizá Hempel, unos
años después [Hempel 1966], no habían logrado: escribir un texto que pudiera ser
leído de manera amena y sin requerir del formalismo de la lógica de predicados
que normalmente agraciaba las páginas de los tratados neopositivistas. El
resultado fue que su obra se filtró rápidamente hacia profesionales fuera de la
filosofía y la historia de la ciencia. Su incorporación de elementos de sociología y
psicología de la ciencia (amén del riguroso tratamiento histórico), hacían de su
propuesta algo atractivo particularmente para las ciencias jóvenes, que veían en
la dinámica de crecimiento, crisis y revolución paradigmática quizá la vía para
hacer madurar sus disciplinas. En arqueología, este fue el papel que Binford
[Binford 1972] vio en la obra de Kuhn, sin darse cuenta de las implicaciones
relativistas e irracionales de la propuesta.

Retomando la secuencia propuesta por Lakatos, tendríamos así cuando


menos los siguientes criterios de demarcación: el verificacionista, el
convencionalista, el probabilista, el falsificacionista dogmático y el holista. La
secuencia no termina ahí, dado que, como vimos, el debate entre Popper y Kuhn
tuvo dos secuelas. La primera (que es con la que termina su recuento Lakatos
147

[1970:41-72]), es la propia propuesta de este autor. La segunda, que añadimos


nosotros a su lista, es la de Feyerabend, que trataremos más adelante.

El falsacionismo metodológico sofisticado: la ciencia como conocimiento


refutable en principio a través de alternativas progresistas
Lakatos había hecho historia de la ciencia (particularmente, de las
matemáticas), así es que el énfasis de Kuhn en la importancia de que la filosofía
de la ciencia tuviera un sustento histórico era un elemento en el que Lakatos ya
creía. De hecho, es uno de los primeros en formular el problema, rápidamente
mencionado en el Prólogo, de la interconexión entre historia y filosofía de la
ciencia, en ese “matrimonio por conveniencia” que él veía como inevitable entre
ambas disciplinas. No tengo espacio aquí para exponer los detalles del
argumento, pero el problema consiste en que si hemos de utilizar la historia de la
ciencia para evaluar las teorías de la filosofía de la ciencia, requerimos hacerlo
con alguna metodología; pero esta metodología es lo que precisamente
queremos evaluar estudiando la práctica real de la ciencia. Dicho de otra
manera: ¿cómo reconstruimos la historia de la ciencia sin asumir un método, que
era lo que queríamos evaluar de entrada? El problema es fascinante, pero
trasciende nuestro interés aquí, que es rastrear el desarrollo de los criterios de
demarcación.

El que Lakatos propone, lo atribuye humildemente [1970:123-134], a su


maestro, Popper. Dice que está formulado en la obra de este autor, cuando
menos desde la edición inglesa de su “Lógica del Descubrimiento” [Popper 1980:
Original publicado en inglés en 1958], si no es que desde la formulación original.
La distorsión introducida por Ayer hace que la propuesta se desvirtúe y surja así un
Popper1, que nunca existió. El Popper real, que sería Popper2, nunca fue tan
ingenuo. Propuso siempre (cosa que comentaristas posteriores han dudado y
creen que Lakatos está siendo demasiado generoso con su maestro), que la
ciencia es un pleito de tres esquinas: lo que está en juego no son solamente una
hipótesis aislada y unos datos puros, sino dos teorías, que compiten entre sí
mediante “datos” que siempre pueden ser problemáticos, tal como Duhem
señaló; pero que, a diferencia de la decisión “metodológica” de retener las
grandes teorías si los datos fallan, aquí la convención que se hace es la de retener
a los “datos”, cuando estos estén suficientemente soportados por las teorías de la
observación que justifican su confiabilidad. Esta convención es temporal y si
existen razones para dudar de ellos, entonces, al estilo de Duhem, lo que se pone
ahora en duda son dichas teorías de la observación. Dicho de otra manera,
contrariamente a lo que verificacionistas y neopositivistas pensaban, la ciencia no
descansa sobre una especie de sólida roca madre de la empiria, el cimiento
inamovible que nos permite “comprobar” teorías, sino se parece más bien a una
construcción hecha sobre pilotes en el mar, que de tiempo en tiempo se hunden
un poco más en el sustrato que los sostienen. La idea de que es necesario
adoptar una convención de este tipo le da a la propuesta el primero de sus
apellidos “falsacionismo metodológico”.
148

El criterio de demarcación seguiría siendo la refutabilidad de una teoría.


Pero las críticas de Kuhn mostraron que si esa es la marca de la ciencia, entonces
toda la ciencia está refutada: prácticamente cualquier teoría importante tenía
datos en contra desde que fue formulada. Es decir, el criterio falsacionista
dogmático no funcionaría como criterio de demarcación. La solución de Lakatos
tiene, en mi opinión, tres componentes: el primero, recuperar la idea de Kuhn que
lo que está en juego son unidades normalmente mayores a las teorías sustantivas,
es decir, reconocer la importancia de supuestos implícitos rara vez sometidos a
prueba, para lo que formula su modelo de “programas de investigación
científica, al que ya hemos hecho referencia antes. Estos programas de
investigación tienen un “núcleo duro”, en donde se alberga a los supuestos más
preciados por la comunidad académica, y una “periferia”, en la que operan
“heurísticas” que permiten evaluar teorías sustantivas, procedimientos técnicos y
supuestos de nivel menor.

Los programas de investigación científica, sin embargo, no son


“inconmensurables”, como sucede con los paradigmas de Kuhn. La manera de
superar el relativismo kuhniano es la adopción del realismo: el mundo sí existe
fuera de los paradigmas. Quizá nunca lo conozcamos con completa precisión,
pero sabemos lo suficiente como para darnos cuenta cuando estamos
equivocados. Los “datos”, aunque no son neutrales, remiten a realidades
independientes de los investigadores. Y aún programas en pugna pueden
siempre encontrar puntos de encuentro si realmente va a haber entre ellos una
confrontación para determinar cuál es el mejor.

El segundo componente es proponer que “no existe refutación hasta que


no haya surgido una teoría mejor” [Lakatos 1970:11950], o como he propuesto
formular esta idea en términos de los “aforismos gandarianos”: “no hay refutación
sin alternativa” [[Gándara 1999:48, nota a pie 24*). Es decir, que lo que refuta a
una teoría no son datos en contra (todas estarían refutadas), sino la existencia de
50
Apunta Aura Ponce de León que quizá esta observación de Lakatos es más un reporte
de los casos históricos que analiza, que una recomendación normativa. En efecto, es
posible interpretar esta cita en esos términos. Pero también hay evidencia de que Lakatos
veía al conjunto de su propuesta como una definición incluso de la honestidad intelectual
y científica, como cuando precisamente plantea la sucesión de criterios de
demarcaciones como sucesivas aproximaciones a la honestidad de los científicos,
precisamente para separar ciencia de pseudociencia. Este tono es particularmente
notable en la entrevista radial que se trasmitiera el 30 de Junio de 1973, pocos días antes
de su muerte, como “Programme 11 of The Open University Arts Course A303, 'Problems of
Philosophy” –ver
http://www.lse.ac.uk/collections/lakatos//scienceAndPseudoscience48.mp3. marzo 2007.
En cualquier caso, reconozco que ambas interpretaciones son posibles y asumo que quizá
soy yo quien quiere convertir una descripción histórica en una regla metodológica. El
punto no es trivial, dado que hoy día se discute precisamente hasta qué punto es posible
derivar lineamientos normativos a partir de la historia de la ciencia: una versión
naturalizada de la filosofía de la ciencia vería peligros en hacerlo. Mi propio punto de vista
–expresado antes- es que el componente normativo de la disciplina es no solamente
inescapable sino necesario. Quizá esa proclividad me hace ver a Lakatos como más
normativo de lo que realmente él pudo haber aceptado ser.
149

un programa alternativo que es capaz de a) explicar el éxito aparente del


programa anterior; b) tener contenido teórico excedente; c) tener contenido
empírico excedente y d), que al menos parte de este contenido excedente esté
“corroborado”; es decir, de acuerdo con la propuesta popperiana, que haya sido
sometido a intentos “sinceros” de refutación y haya sobrevivido.
Independientemente de los detalles técnicos de la propuesta (que son
problemáticos pero sobre los que no podemos detenernos aquí), lo importante es
no perder de vista lo que, a mi juicio, es la propuesta central: no hay refutación sin
alternativa. El programa actual podrá ser deficiente, con problemas reconocidos
y datos en contra, pero no está refutado hasta que no surja uno mejor, que
realmente ofrezca una opción cuya adopción sea más racional que seguir
insistiendo en el programa anterior. “Es preferible la tenue y frágil luz de una vela
que maldecir en la oscuridad”.

El tercer componente lo motiva, en congruencia con la decisión


metodológica citada arriba, es el que los datos pueden engañarnos y llevarnos a
refutar injustamente una teoría crucial a un programa de investigación; en
consecuencia, la propuesta es que todas las refutaciones son tentativas, o dicho
de otra manera, que son revisables: una teoría aparentemente refutada puede
“regresar” si se muestra que su refutación no está justificada. Este tercer
componente, insiste Lakatos, es el que permite entender incidentes en la historia
de la ciencia en los que los científicos parecer aferrarse a una teoría a pesar de
que el grueso de la evidencia apunta en su contra, lo que eventualmente lleva a
su descrédito, pero que años más tarde son reivindicados, cuando nuevos
procedimientos técnicos de observación o análisis muestran que la propuesta
original era realmente viable y es superior a la alternativa que supuestamente
refutó a la teoría.

Lakatos ejemplifica este principio de manera muy convincente con un par


de episodios de la historia de la ciencia, del que a mí me parece particularmente
memorable el de Prout [Lakatos 1970]. Este científico destacó en el siglo XIX por
sostener una teoría de que los pesos atómicos mostrarían una secuencia de
números naturales (1, 2, 3 y así sucesivamente); pero los datos de la época
mostraban pesos que en muchos casos eran números reales (es decir, con puntos
decimales), lo que contradecía no solamente su predicción, sino su modelo de la
estructura atómica. En su aparente necedad, Prout generó muchas de las
técnicas de la llamada “química analítica moderna”, en un intento vano de
obtener muestras químicamente puras de los elementos que corroboraran su
teoría. Lo que no sabía, ni se supo sino hasta años después, cuando Prout y su
teoría habían caído ya en descrédito, es que los procedimientos mecánicos y
químicos empleados para obtener muestras puras no eran capaces de separar
variantes atómicamente inestables, cuya presencia en la muestra era capaz de
arrojar resultados inconsistentes. El avance de la teoría atómica reivindicó el
modelo original de Prout y su teoría fue reestablecida –aunque él ya no pudo
disfrutar de este triunfo póstumo [Lakatos 1970:72-5].

Estos tres componentes, en conjunto, le otorgan a la propuesta su segundo


apellido: falsacionismo metodológico sofisticado. Lakatos le da el crédito a
150

Popper, pero existe la percepción de que realmente el mérito era suyo.


Irónicamente, parece ser que una vez formulado, Popper en efecto lo reivindicó y
se dice que llegó a insinuar que su colega, además de desleal por tratar de hacer
propuestas que rescataran elementos del enemigo Kuhn, era un plagiario. Pero
estos son rumores que no podemos sustanciar aquí.

Las ideas de Lakatos llegaron demasiado tarde a la arqueología, en mi


opinión. Hasta donde sé, soy uno de los primeros autores en emplear su
propuesta, que aprendí en Michigan. Tardarían varios años y el desarrollo de la
llamada “meta-arqueología”, “arqueología teórica” o “filosofía de la
arqueología”, para que su existencia fuera apenas reconocida. Y se le vio, en ese
momento, como una más de varias propuestas que la arqueología debería
considerar. Para ese momento, el antagonismo de la arqueología con la filosofía
de la ciencia ya era evidente y al parecer la propuesta no recibió mayor
atención. Curiosamente, su interlocutor, Feyerabend, fue objeto de mayores
atenciones.

El anarquismo metodológico: la ciencia como ideología laica: “todo se


vale”
En el mismo volumen en que aparece la propuesta inicial de Lakatos
aparecía, como dijimos antes, un artículo de su amigo Feyerabend [1975 (original
1970)]. En éste se apuntaba ya a, más que un criterio de demarcación, a un anti-
criterio: el fracaso de todos los criterios anteriores y de cualquier metodología en
general, es que realmente la ciencia no es sino un tipo especial de ideología, no
muy diferente en función y estatus al que antes tuvo la Iglesia. E históricamente es
fácil encontrar ejemplos de científicos que violan los principios que las diferentes
metodologías supuestamente marcaban como ineludibles para que su práctica
calificara de científica. Es decir, no habrá nada que haga al conocimiento
científico especial. De ahí que el único consejo metodológico que él luego podría
ofrecer es “todo se vale” [Feyerabend 1975].

Puesta así, la visión feyerabendiana parece poco verosímil. Pero las cosas
no son tan sencillas. Feyerabend expandió el artículo para generar un libro muy
polémico [Ibíd.], que dedica precisamente a Lakatos; y lamenta que para el
momento en que lo terminó Lakatos ya había fallecido; comenta que ello le robó
a su libro el poder contar con una respuesta de Lakatos a un problema que
Feyerabend identifica. Y el problema, me temo, es grave.

Feyerabend hace un fascinante recuento de cómo científicos


particularmente apreciados en la filosofía de la ciencia, como Galileo, parecen
violar a diestra y siniestra las recomendaciones de las diferentes metodologías, se
hacen valer de recursos propagandísticos e incluso se apoyan en la opinión
pública como manera de defenderse de las autoridades de su época. Los
muestra obstinados, defendiendo sus teorías, tal como Lakatos supone que lo
harían, en ausencia de alternativas mejores; ello parecería abonar a favor de la
propuesta lakatosiana. Pero conforme el libro se acerca al final, Feyerabend hace
151

un ataque frontal a Lakatos, relativo al que aquí hemos identificado como el


tercer componente de su propuesta: la idea de que las teorías refutadas pueden
ser más tarde reivindicadas. El centro del argumento es poder contar con criterios
para saber cuánto tiempo habrá que esperar a que una teoría “regrese”.
Evidentemente, cualquier lapso parecería de entrada arbitrario: ¿10, 20, 50, 100 o
más años? Pero en ausencia de ese criterio, entonces habría que considerar
como sujetas a revisión teorías como la del flogisto, la piedra filosofal, la
generación espontánea, o incluso creencias folk como la danza navaho de la
lluvia [Feyerabend 1975:28]. Y Feyerabend, en lo que luego intentó minimizar
como una mera pose, propone que estas teorías refutadas son tan legítimas
como la de Prout y deberían seguirse estudiando.

Feyerabend fue acusado de relativista, anarquista, nihilista y demás. Sus


libros posteriores primero endurecieron cada vez más su posición –llegó incluso a
recomendar la creación de “comités de defensa de los derechos ciudadanos
ante las intromisiones de la ciencia”, a la que denunció como la religión de
nuestro tiempo; y luego, al perder credibilidad, intentó recuperar su prestigio
suavizando y modulando su tono.

En arqueología esta metodología fue considerada con toda seriedad por


los arqueólogos posprocesuales Shanks y Tilley [1987a], Shanks and Tilley [1987b],
quienes la citaban con aprobación. Era parte de su intento de reconstruir la
arqueología sobre una base no “positivista”, recuperar la importancia de la
narración literaria, la necesidad de que la arqueología se haga responsable por
las consecuencias políticas de lo que dice y, en general, de adoptar una posición
que ellos de alguna manera encuentran cercana a la izquierda. El resto de la
disciplina la rechazó de manera casi unánime y de hecho, durante un tiempo se
convirtió en el “hombre de paja” con el que se golpeaba a la arqueología
posprocesual más radical.

La crítica a Lakatos sin duda debilita la propuesta. Lakatos murió sin


oportunidad de contestar. ¿Deberíamos considerarla como una propuesta
inviable? En mi caso la pregunta es crucial, dado que es ésta precisamente la
metodología que orienta esta tesis. Me parece entonces justo que cuestionar por
qué insistir en una metodología que aparentemente ha sido superada. Mi
respuesta es sencilla y utiliza de manera recursiva (es decir, aplicándola) la propia
propuesta de Lakatos: a Lakatos lo refutará no el señalamiento de una
deficiencia o datos en contra; lo refutará una propuesta que mejore la suya y
haga racional abandonarla para adoptar una nueva opción. Feyerabend no nos
ofrece una nueva opción. Intenta más bien disolver la problemática a la que
respondía la propuesta original. Eso, en mi humilde opinión de arqueólogo, no es
ofrecer una alternativa mejor.

Por otro lado, tomando momentáneamente como buena la propia


recomendación de Feyerabend y ahora aplicándola también a nuestro caso, si
todo se vale, se vale entonces seguir a Lakatos. Eso es precisamente lo que
intento hacer en esta tesis.
152

Las metodologías “alternativas”


La lista de criterios de demarcación quizá podría ampliarse para incluir a
otras metodologías, pero al menos a mí no me parece fácil determinar qué
criterios son los que proponen, por ejemplo, las llamadas “metodologías
alternativas”, o “el reto del constructivismo” [Klee 1997:157-180], el nuevo
“programa fuerte” de la sociología de la ciencia (ejemplificado por metodologías
en las que se suele incluir a autores como Latour; o las metodologías “feministas”,
ejemplificadas por Duran [1998]; o a la hermenéutica metodológica (por ejemplo,
[Hirsch 1967]; o sobre la obra de Ricoeur, [Thompson 1972]), que suele confrontar
precisamente a las metodologías de las ciencias “duras” (aunque se supone que
habría uno en la hermenéutica filosófica, pero yo no alcanzo a articularlo ( ver
Sánchez [2007]), para un punto de vista diferente; un tratamiento más serio,
aunque no por ello más claro, es el que hace Silverman [Gadamer and Silverman
1991]; y, finalmente, la metodología que resultó más novedosa para mí,
preparando este texto, la de los “modelo-teóricos”, como Díez y Moulines [1999:
Capítulo 10:327-366]; pero, de nuevo, no logro determinar con claridad en qué
consistiría su criterio de demarcación –aunque mi dificultad quizá se derive de
que ellos piensen que es imposible formular uno. Estas otras metodologías, por otro
lado –con la excepción de la hermenéutica metodológica, que aunque es muy
anterior, no llegó a la arqueología sino precisamente a finales de 1960- todas se
popularizaron un poco después del periodo de interés de esta tesis. Y la propuesta
modelo-teórica ha pasado prácticamente inadvertida en la arqueología, a pesar
de que varios de los autores que son centrales en esa corriente habían publicado
extensivamente desde finales de la década de 1950 (por ejemplo, Suppes y
Adams; los 60s (Beth) y 1970 (Van Fraassen) –citados en Diez y Moulines [Ibíd.]).

Concepción del método y de las unidades de análisis


El segundo elemento dentro del área metodológica es la concepción del
método y el tipo o escala de las unidades sobre las que éste se aplica. A los
diferentes criterios de demarcación suele corresponder una concepción del
método, aunque algunos criterios diferentes coinciden en la propuesta del
método. No obstante, antes de ver en qué consisten estas opciones (y cómo se
han retomado en arqueología), es necesario clarificar qué entendemos por
método, dado que existen muchas confusiones sobre el significado de este
término.

En su sentido más laxo, método, como es bien sabido, no es otra cosa que
la manera o camino a seguir para hacer algo. Por eso no es necesariamente
incorrecto hablar del “método de la cocina china”, o el “método del feng shui”;
en contextos informales es perfectamente válido decir, como dice un querido
amigo, que él ha desarrollado “un método para ganar en las apuestas en el
Hipódromo”. Que le aproveche.

Aquí, sin embargo, nos interesa el sentido técnico del término. Y la primera
confusión surge entre “técnica” y método”. Evidencia de esta confusión es la
mención de un “método experimental”, que supuestamente no existe en las
153

ciencias sociales –diferencia que sería una de las muchas distinciones que se
supone habría entre estas ciencias y las ciencias naturales. El problema es que la
experimentación no es un método, es una técnica. Y si no contar con ella afecta
el estatuto de cientificidad de una disciplina, entonces la astronomía, llamada
durante muchos años “la reina de las ciencias”, no lo sería sino hasta 1957, en que
se hace el primer experimento astronómico: el lanzamiento del Sputnik por la
Unión Soviética. Y es falso, además, que no haya experimentación en las ciencias
sociales. Existe en la psicología (para desgracia de las pobres ratas de los
laboratorios conductistas), para mencionar solamente un ejemplo; o en la
economía, como sabemos todos los que hemos tenido que sufrir los experimentos
que el Banco Mundial o el Fondo Monetario Internacional ha realizado en
Latinoamérica a costa de nuestro nivel de vida.

La experimentación, sostenemos, es una técnica. Definiríamos entonces


primero este término. Las técnicas son procedimientos prácticos para la
obtención, registro, análisis y presentación de información51. El método científico,
en cambio, es un procedimiento lógico para la evaluación de enunciados sobre
la realidad52.

Nótese que en esta formulación no distingo entre las ciencias naturales y las
ciencias sociales. Ello me ubica, de inmediato en una posición llamada
“unificacionismo metodológico”, o “ciencia unificada” [Ryan 1973:3] también
llamado a veces “naturalismo” [M. H. Salmon 1992:405-406], que sostiene que la
lógica empleada en toda la ciencia es la misma, independientemente del
contenido específico de las disciplinas. Este punto de vista no es popular en las
ciencias sociales, en donde suele ser más común el punto de vista opuesto, el
llamado “separatismo metodológico” Sus propositores insisten en que las
diferencias ontológicas entre uno y otro tipo de ciencias son tales que los métodos
no pueden ser los mismos. Cuando el argumento depende de la confusión entre
método y técnica ya señalada, es trivialmente cierto: las técnicas de la
oceanografía no son tampoco las mismas que las de la astrofísica y entonces no
habría solamente dos “métodos”, sino tantos como diferentes técnicas tienen las
ciencias. Cuando se entiende en su sentido fuerte, como diferencias en métodos,
no en técnicas, el argumento adquiere interés filosófico, dado que hay que
fundamentar cómo las diferencias ontológicas requieren de procedimientos
lógicos (y no solamente prácticos) y a qué escala y nivel de diferencias
ontológicas es necesario hacer el corte.

51
Obvio por el momento que la información (siguiendo la terminología de Bate), mejor
conocida como “datos” pueden ser de corte teórico: de otra manera no habría técnicas
de análisis filosófico, como las que desarrollaron tanto los neopositivistas como,
notablemente, los filósofos del lenguaje.
52
Obvio aquí la discusión sobre si el método, aplicado a las matemáticas, opera sobre una
realidad matemática (como sostendrían los realistas con respecto a las matemáticas); o si
se trata de entidades u objetos formales de un tipo distinto a las entidades y objetos
reales. Y obvio también la discusión sobre si las proposiciones son lo mismo que los
enunciados y si no, sobre cuáles de ellos opera el método. Espero que mis lectores me
perdonen no profundizar en estas polémicas aquí.
154

El asunto es importante para los fines de esta tesis, así es que permítaseme
emplear un par de párrafos para elaborarlo. Lo primero que hay que decir es que
proponer un “unificacionismo metodológico” no es lo mismo que proponer un
“reduccionismo teórico”. En el reduccionismo teórico y en particular, en su forma
más extrema (y muy querida al neopositivismo), el “fisicalismo”, se supone que, en
última instancia, las teorías de todas las ciencias acabarán siendo “reducidas” o
explicadas por las teorías de la física, dado que este nivel ontológico es el más
“básico”. Esta pretensión se fundamenta en el éxito de dos casos exitosos de
reducción, que son los que normalmente se citan a su favor: el de la genética
mendeliana, que acaba reducida a la genética molecular (es decir, una teoría
biológica acaba reducida a una teoría de un nivel ontológico inferior; y el de
partes de la termodinámica a la mecánica estadística.

Me parece que el furor neopositivista por el fisicalismo seguramente era un


reflejo de que muchos neopositivistas eran físicos y quizá estaban convencidos de
que si explicar es remitir a los mecanismos profundos de las cosas, no había más
que llegar a los más profundos ontológicamente, que serían los de la física. Yo no
comparto en absoluto este punto de vista. Pero mucha gente confunde la
propuesta de que todas las ciencias operan con el mismo método, con la
propuesta reduccionista de que a final de cuentas todas serán reducidas a un
grupo reducido de teorías sustantivas de la física o algún otro campo, por
ejemplo, la Sociobiología de Wilson [1975]53. Para reiterar: la tesis a la que adhiero
es la de que todas las ciencias comparten un mismo método, no una misma
teoría.

De hecho, estoy convencido, como parecen proponer algunos psicólogos


cognitivos, que este método no es sino la formalización y control riguroso de un
proceso que caracteriza a los seres humanos y forma parte del sentido común 54.
Es el proceso por el que evaluamos una creencia (y en la ciencia un enunciado)
por referencia a sus consecuencias empíricas. En el sentido común opera sin
53
Durante mis días en Michigan el furor reduccionista (entre los biólogos que compartían el
edificio del Museo), era el reduccionismo biológico, promovido por los éxitos de Wilson,
Alexander y otros para explicar mediante las teorías sociobiológicas la conducta altruista
en los animales, que era hasta entonces un reto para la teoría evolucionista. Pero de ahí
estos autores saltaron y en particular, Wilson, a proponer que no era necesario emplear
tiempo y esfuerzo en desarrollar teorías en las ciencias sociales, cuando se contaba ya
con las teorías de la sociobiología. La reacción de las ciencias sociales no se hizo esperar
(Sahlins), acompañada por voces dentro de las propias ciencias naturales, como Jay
Gould.
54
Admito de inmediato que esta versión minimalista del método probablemente no sea
compartida por la mayoría de los filósofos profesionales. La razón: se queda corta como
guía para la práctica, al no mencionar explícitamente los “valores” de los que hablaba
Laudan, citados antes. Pero por eso propongo que es importante distinguir entre método
(este procedimiento lógico), y metodología (que sería el conjunto que incluye al método,
las técnicas, las teorías de lo observable y la observación, y las heurísticas –lugar en el que
ubico a los lineamientos metodológicos, incluyendo las orientaciones metodológicas;
éstos no tienen por qué ser, como las técnicas tampoco lo son, universales. El que es
compartido universalmente, sostenemos, es el método en tanto procedimiento lógico de
evaluación de proposiciones.
155

mucha reflexión; cuando alguien, al interior de una habitación sin vista a la calle,
me pregunta ¿está lloviendo?, contesto aplicándolo: veo si afuera cae agua, si el
piso está mojado, etc. y contesto en un sentido o en otro de acuerdo con esos
datos. Los humanos somos, en opinión de uno de mis psicólogos cognitivos
favoritos, Donald Norman, auténticas máquinas de hacer (y evaluar) hipótesis.

La ciencia formaliza este proceso y las metodologías han intentado,


históricamente, determinar en qué consiste. Pero, en el fondo, es la misma lógica
–o al menos eso me parece, por lo que tendré que derivar de esta propuesta
consecuencias y ver si se dan en la realidad. (Aunque… no se preocupe el lector,
no lo haré en esta ocasión).

Entonces, el método sería un procedimiento lógico de evaluación. La


variante que a mí me convence más es esa que dice que esta evaluación ocurre
por referencia a los estados del mundo. Pero, como veremos en seguida, no es la
única. Sin pretender gran profundidad en el recuento, podemos revisar
rápidamente cómo a los criterios de demarcación antes expuestos corresponden
visiones del método.

Para los justificacionistas, el método era fundamentalmente de corte


inductivo. La manera en que un determinado enunciado gana credibilidad (y por
lo tanto se evalúa como digno de ser creído), depende de que se haya
acumulado mucha información sobre observaciones particulares, especialmente
en condiciones controladas (experimentales). Es decir, el método es de corte
inductivo. Es claro para esta metodología que inducción y deducción van juntas,
pero la manera en que se apoya o debilita una teoría tiene que ver con el que
haya muchos casos a su favor. El problema es determinar cuántos realmente se
requieren para considerar a la teoría “comprobada”. Y ese es el defecto central
de esta metodología que, apoyada en una epistemología que quiere encontrar
un cimiento firme para el conocimiento (el fundamentalismo, como se recordará),
entonces tiene que conceder a las observaciones un carácter no problemático ni
“corregible”. Esta segunda creencia es a la vez la segunda debilidad de esta
metodología, dado que, como han mostrado los escépticos y Duhem señaló con
claridad, los datos siempre son problemáticos.

Curiosamente, en arqueología se ha sostenido en repetidas ocasiones que


el método que la disciplina debería emplear es precisamente éste. La negativa
de los arqueólogos particularistas a proponer generalizaciones deriva de la visión
de Boas, de que hacerlo es todavía prematuro: no se han acumulado suficientes
datos como para poder hacer una generalización que sea suficientemente
sólida. Será solamente cuando la evidencia se haya acumulado, que ella misma
revelará patrones que serán el punto de partida para nuestras generalizaciones.
Para estos arqueólogos, es importante, en consecuencia, no “contaminar” el
trabajo de campo o gabinete con lo que llaman “ideas preconcebidas” y se
sienten orgullosos de que en su trabajo ellos no utilizan hipótesis. No es que las
hipótesis sean malas, simplemente que formularlas contamina la observación y es
además prematuro, en ausencia de datos suficientes. Esta es la coartada típica
156

de los particularistas para que sus diseños de investigación se orienten por temas y
no por problemas y que típicamente carezcan de hipótesis.

Hay muchos problemas con la idea de fundamentar el método sobre la


base de la inducción por enumeración. El primero, ya apuntado antes, es que no
podríamos empezar a investigar sin una idea al menos vaga del problema u
objetivo a resolver. El segundo, es que no es lo mismo decir, “todos los casos C
observados hasta ahora presentan las propiedades p, q y r” y lo que la ciencia
normalmente dice, que es “todos los C presentan las propiedades p, q y r”. Aquí
el problema de fondo es uno de los más venerables en la historia de la filosofía de
la ciencia: el problema de la justificación de la inducción. No podemos
detenernos mucho aquí, pero cuando menos podemos señalar la intuición detrás
el problema: de un conjunto finito de observaciones no se sigue, salvo que se
asuma la propia inducción, que la siguiente será similar. Y mucho menos, que
todas las observaciones posibles lo serán. Si se argumenta que, en el pasado,
cada vez que hemos hecho este tipo de inferencia resultó, entonces de todas
maneras asumimos la inducción, porque estamos proponiendo que el futuro será
como ha sido el pasado y no tenemos justificación independiente para creer eso.
Sobre todo si, como proponían los empiristas en los que se inspiraron los
propositores de la metodología verificacionista, en realidad no hay leyes en la
naturaleza, sino simplemente la conjunción constante de fenómenos, a los que,
por fuerza de la costumbre, llamamos causa y efecto. Pero lo que observamos en
realidad, diría un empirista, es solamente la co-ocurrencia repetida de
fenómenos.

Es menos claro entender qué propuesta de método tenían los proponentes


del criterio de demarcación convencionalista, aunque el problema de Duhem de
alguna manera asume la idea central de que cuando una hipótesis está en duda,
centramos nuestra atención a una hipótesis auxiliar, a la que evaluamos por sus
consecuencias. De ser correcta esta lectura (y no soy en absoluto un experto en
Duhem), entonces esta propuesta tendría al menos algunos elementos en común
con la de los otros críticos del verificacionismo, los neopositivistas.

La metodología neopositivista, característica del criterio de demarcación


probabilista, adopta y de hecho articula de manera especialmente eficaz esta
idea: de una hipótesis se derivan consecuencias, que en la terminología
neopositivista se llaman “implicaciones de prueba”. Si estas implicaciones de
prueba se cumplen, entonces se dice que la hipótesis en cuestión ha sido
“confirmada”. Si no, que ha sido “desconformada” o “refutada”. La lógica detrás
de la propuesta se llama “modus tollens”: propongo que si el enunciado “si p
entonces q” es cierto, cuando se de p deberá darse q. Si sucede así, confirmo el
enunciado. Pero si se da p y no se da q, entonces el enunciado es falso. A
medida que tengo muchos y variados casos que apoyen al enunciado, su
confirmación crece, por lo que se hace entonces más probable y en
consecuencia más justificado creer en él y aplicarlo en situaciones prácticas –
recordemos que la idea de la predicción está ligada a la de control de la
realidad. Así, a muchas predicciones (o retrodicciones, si los eventos en cuestión
ya pasaron) exitosas, se dice que ha crecido la confirmación de la hipótesis.
157

Como vimos antes, fue Popper el que señaló la deficiencia central de esta
propuesta y curiosamente, el argumento de fondo es similar al empleado contra
los verificacionistas: ninguna cantidad de confirmación será equivalente a
garantizar la verdad de las hipótesis en cuestión, por la simple y sencilla razón de
que aunque el número de casos a favor sea grande, el denominador de esta
fracción es el número total de casos, que es infinito. Decimos que es preferible
creer en una hipótesis confirmada asumiendo que el incremento en casos a favor
es una evidencia inductiva de que la hipótesis es verdadera. Es decir, de nuevo
empleamos la inducción.

Pero, como bien mostró la caída de la física newtoniana, una teoría entera,
con doscientos años de casos a favor, puede ser falsa. Es decir, la confirmación
tampoco es garantía de la verdad.

La propuesta de Popper (el Popper real, no el presentado por Ayer), es que


existe una asimetría importante entre el proceso de confirmar y el de refutar. Esta
asimetría hace que la refutación cobre un peso que la confirmación no puede
aspirar a tener. Aunque, de nuevo, el argumento es técnico y complejo, podemos
intentar cuando menos dar “una probadita” de las intuiciones que están detrás
de la propuesta. El centro será, de nuevo, el modus tollens, que Popper insistía él
había señalado como fundamental en el método y que los neopositivistas le
copiaron sin entender bien el asunto. Para diferenciar su propuesta, habla de
conjeturas que se refutan a través de sus consecuencias empíricas. Pero mientras
que el énfasis en la versión neopositivista del método hipotético-deductivo está
en la confirmación, es decir, en los casos a favor, Popper propone que en
realidad debería estar en los casos en contra.

Para verlo, pensemos en una hipótesis simple, como la que a veces se


atribuye (injustificadamente) a Wittfogel [1957]: “En todos los casos en que se dio
la irrigación compleja, ésta requirió para su administración el desarrollo de un
Estado despótico”. Si lo pensamos un momento, vemos que esta formulación es
equivalente a decir que, “si la hipótesis es cierta, entonces no habrá un caso en el
que, habiéndose dado la irrigación compleja, no esté presente el Estado
despótico”, dado que hemos afirmado que en todos los casos de irrigación
compleja deberá haber un Estado despótico. Supongamos por un momento que
vamos a un caso particular en el que tenemos razones para pensar que hubo
irrigación compleja, por ejemplo, San Cucuchán (el Alto, no el Bajo). De acuerdo
con la propuesta neopositivista, chocaríamos si, en efecto, en San Cucuchán hay
irrigación compleja y también evidencia de un Estado despótico. Supongamos
también que, en efecto, encontramos evidencia de ambos. ¿Qué podemos
concluir?

Ciertamente, podemos concluir que hay cuando menos un caso, el de San


Cucuchán el Alto, en donde en efecto, hubo irrigación compleja y también un
Estado despótico. Pero no podemos concluir que la hipótesis original es
verdadera: ésta afirmaba que en “todos los casos en que haya irrigación
compleja habrá un Estado despótico” y solamente hemos visto uno, San
158

Cucuchán. Bajo la propuesta neopositivista, contamos el caso como caso a favor


de la hipótesis, le damos una confirmación aún débil, pero ciertamente no
podemos decir que hemos mostrado que sea verdadera. Ello es así porque, de
nuevo, habla de todos los casos y nuestro reporte de observación es apenas
sobre un caso específico: San Cucuchán.

Pero ¿qué sucedería si ahora vamos a examinar otro caso, digamos San
Cucuchán el Bajo y encontramos que ahí hay evidencia de irrigación compleja,
pero no de Estado despótico? El efecto de este caso en contra es devastador:
como se recordará, afirmar que todos los casos de irrigación compleja tendrán
Estados despóticos, es equivalente a afirmar que no habrá un caso en el que,
habiendo irrigación compleja, no haya Estado despótico. Y precisamente eso fue
lo que encontramos en San Cucuchán el Bajo: un caso en el que, habiendo
irrigación compleja, no hubo un Estado despótico. Esa observación refuta* (así,
con asterisco, que explicaremos en un momento) de manera directa la hipótesis.
Dicho de otra manera, mientras que bajo la propuesta neopositivista un caso a
favor no prueba definitivamente la hipótesis, un caso en contra definitivamente la
refuta*. Esa es la fuerza de la asimetría entre confirmación y corroboración que
Popper dice haber descubierto.

El asterisco en “refuta*” obedece a que, como vimos en la sección


anterior, realmente la refutación no ocurre cuando los datos contradicen una
hipótesis, sino cuando tenemos una hipótesis mejor, que explique el éxito
aparente de la anterior y tenga contenido teórico y empírico adicional (y parte
de este contenido adicional no haya podido ser refutado). Obedece también a
que la refutación puede ser espuria: es decir, a que los datos que observamos
realmente no eran confiables. Sería el caso de que, comentando con tristeza en
voz alta nuestra sorpresa de que en San Cucuchán el Bajo no hay Estado
despótico, porque no encontramos, por ejemplo, grandes pirámides (asumiendo,
para propósitos sólo del ejemplo, que esa evidencia fuera suficiente), alguien de
la localidad que nos oyera comentara: “¿Se refiere a que no hay aquí ‘mogotes’
o “cuisillos” (montículos) grandes? Porque fíjese que sí los había, ¡pero se los
echaron los de la Comisión Federal de Electricidad!” En ese caso, la observación
sería espuria y realmente el caso no contaría como un caso en contra. Detectado
el error, tendríamos que decir que realmente no refutamos* la hipótesis.

En la metodología popperiana (y en su heredera, la de Lakatos), decimos


que corroboramos una hipótesis cuando hemos realizado “intentos sinceros y
honestos de refutación” y la hipótesis no pudo ser rechazada. En el
falsificacionismo dogmático, rechazamos la hipótesis si se presenta un solo caso
en contra. En el falsificacionismo metodológico sofisticado la refutamos cuando
tenemos una hipótesis mejor y no tenemos razones, de momento, para pensar
que la culpa del fracaso de la anterior es atribuible a problemas con los datos.

En las metodologías neopositivista, falsacionista dogmática y falsacionista


metodológica sofisticada, el procedimiento lógico empleado (modus tollens) es el
mismo; pero sus resultados reciben una interpretación diferente. Hay quien insistiría
que incluso en el verificacionismo la lógica es la misma: se deducen o derivan
159

consecuencias empíricas de la hipótesis que son las que se cotejan en la realidad


y cuando se suman inductivamente “comprueban” la hipótesis. Creo que la idea
está también detrás de la propuesta de las “anomalías” que llevan al descrédito
de un paradigma, en la metodología holista, es decir, que son consecuencias
que no se esperaban o no se cumplieron. E incluso en las variantes
metodológicas de la hermenéutica, me parece a mí, sin ser experto en el tema,
se evalúa una interpretación a partir de sus consecuencias, que se cotejan con el
texto que sirve como evidencia (aunque no requiero para mi argumento aquí que
esta extensión a la metodología kuhniana o hermenéutica sea aceptada)55.

En arqueología la metodología neopositivista fue el centro, al menos


durante sus primeros años, de la arqueología procesual. Fue rápidamente
atacada por el bando sistémico y una de las razones del cisma de esta posición,
que parece haber adoptado una variante dogmática del falsificacionismo (es
decir, la refutación al estilo de la versión de Ayer sobre Popper). Popper mismo
aparece mucho más tarde en la literatura y no es contrastado con Kuhn sino
hasta cerca de 15 años después del período que nos interesa (la década de 1980
temprano -ver [Blanton 1990]. Kuhn fue utilizado más como mecanismo
descriptivo de la historia de la arqueología (incluyéndome [Gándara 1977]), o
como parte de un discurso tendiente a señalar la presencia de “supuestos
ocultos” en la arqueología particularista [Binford, ed. 1972, Binford 1977).

Para nuestros propósitos, este recuento, evidentemente simplificado y


omitiendo muchos detalles técnicos, es suficiente como una muestra de las
opciones que normalmente están disponibles en cuanto a concepciones del
método en el área metodológica de una posición teórica. Quedaría solamente
comentar la escala de las unidades que estas metodologías proponen. Para el
verificacionismo y el falsacionismo dogmático es la hipótesis aislada; y para el
convencionalismo serían la hipótesis más las hipótesis auxiliares. Puede decirse lo
mismo para el neopositivismo y la propuesta real popperiana, antes de Kuhn; para
los holistas, es el paradigma; para el falsacionismo metodológico sofisticado (la
propuesta de Lakatos), sería el programa de investigación científica. Para las otras
metodologías no me atrevo a proponer una unidad de análisis56.

En mi propia propuesta, creo que las que realmente se evalúan mediante


el método científico son las que he llamado aquí “teorías sustantivas”, que son
cuando menos una y típicamente más de una hipótesis y sus hipótesis auxiliares
respectivas; que, de manera indirecta, se evalúan las posiciones teóricas, por
referencia al éxito empírico de las teorías sustantivas derivadas de ellas, pero esa
idea la ofrezco solamente como una intuición, dado que no tengo un modelo de
55
En cuanto a las otras metodologías señaladas en la sección sobre criterio de
demarcación, si se toma a Feyerabend en serio, entonces todo se vale, aunque en los
ejemplos que usa la lógica es similar a la de otras propuestas; no puedo decir lo mismo de
las llamadas metodologías alternativas (incluyendo la feminista); y conozco demasiado
poco de la propuesta modelo-teórico como para aventurar una opinión.
56
Salvo quizá para la propuesta modelo-teórica, que reconoce cuando menos dos niveles
de teoría, que permiten articular la intuición tanto de Kuhn como de Lakatos de los
diferentes grados de centralidad de ciertos supuestos (ver Diez y Moulines 1999:363).
160

reemplazo de posiciones teóricas cuando menos suficientemente esbozado


como para presentar aquí. Esto no afecta las pretensiones de esta tesis, dado que
lo que estoy sosteniendo es que existen mecanismos para la evaluación de teorías
en el sentido de teorías sustantivas. Haré, sin embargo, algunos apuntes sobre la
refutación de posiciones teóricas en el capítulo 17.

Las Técnicas
Todas las posiciones teóricas en arqueología eligen técnicas, en mi opinión,
como resultado de dos impulsos: el primero y más profundo, el de las directrices
que marca la ontología de la posición sobre el registro arqueológico; el segundo,
y a veces más circunstancial, resultado de la tensión entre un interés en “estar al
día” y las realidades presupuestales y de capacitación que típicamente para mal
limitan ese interés, al menos en las instituciones latinoamericanas, todo ello
mediado por los efectos de la tradición académica en la que se inserta la
posición teórica.

La ontología determina de manera profunda la elección de técnicas,


porque, como vimos en el capítulo 4, dependiendo de cómo se concibe el
material arqueológico, tiene o no sentido aplicarle ciertas técnicas. En ese
momento señalábamos que una visión normativa, universalmente participada y
mentalista, de la cultura, se traduce en una visión del registro arqueológico como
fundamentalmente homogéneo. Mientras que una visión que la concibe como
una conducta material, heterogénea y diferencialmente participada, concibe el
registro como algo fundamentalmente heterogéneo; con ello se introduce el
problema de cómo controlar la representatividad de una muestra que, por
necesidad, es lo único que normalmente logramos obtener en un sitio. En
consecuencia, será raro encontrar el uso del muestreo probabilístico en
posiciones particularistas, normativas, salvo que hayan logrado recursos para
ceder al impulso de estar al día, aunque en el fondo no estén muy convencidos
de su utilidad.

Pero el ámbito en donde esta determinación es mucho más clara es en el


de las técnicas de excavación. En una posición teórica en que el registro
arqueológico es fundamentalmente un registro indiferenciado, que actúa sólo
como repositorio de objetos, es raro el arqueólogo que considera su
responsabilidad excavar estratigráficamente (esto es, retirando contextos
deposicionales uno a uno, en el orden inverso al de su deposición). De hecho, se
considera que excavar de esta manera y hacerlo por intervalos métricos –
dibujando eso sí de manera diligente la estratigrafía que quedó en el corte- es
equivalente. Muchos insistirían, si se les presiona, que lo que sucede es que sus
sitios no están estratificados: su ontología permite pensar que existe una situación
en la que no hay fenómenos de superposición de depósitos; o bien,
“epistemologizan” su existencia, aduciendo que como son difíciles de ver (lo que
no es de sorprenderse, cuando la herramientas excavatoria son el pico y la pala),
entonces no existen. Recuerdo aquí la frase de mi maestro, José Luis Lorenzo, que
161

con su característica mordacidad, decía, “Pobre gente. No se da cuenta que


estratigrafía siempre hay. Lo que a veces no hay es arqueólogo” [Lorenzo,
comunicación personal, Abasolo, 1973].

En ocasiones los arqueólogos se dan cuenta, auténticamente, de que


deben recuperar la estratigrafía, muestras de paleoambiente, etc., porque su
posición teórica las considera útiles (aunque un tanto accesorias); es más un
asunto de ética profesional que de convencimiento teórico. Aquí lo que pasa, por
desgracia, es que las deficiencias en la infraestructura de las instituciones y su
propia capacitación, aunados a presiones de tiempo y presupuesto, impiden que
su intención se traduzca en realidad. Pesa también la tradición académica: el
emplear técnicas más detalladas, tardadas o costosas de las que emplea la
comunidad académica suele ser visto negativamente o al menos con recelo.

En posiciones de corte más ecléctico, en lugares en donde hay


posibilidades de acceder a técnicas más sofisticadas, se da el segundo de los
impulsos mencionados: los arqueólogos somos normalmente gente responsable y
queremos estar al día; así que adoptamos liberalmente técnicas que nuestra
posición quizá no requiere, pero que sabemos deben adoptarse, de nuevo por
una cuestión ética. El que realmente no estén integradas a la posición teórica
queda revelado cuando esos resultados acaban, característicamente, en
apéndices desconectados del cuerpo central de los informes y publicaciones57.

Por otro lado, no existen técnicas que sean específicas o exclusivas de


posiciones teóricas: dicho de otra manera, no existe una técnica de excavación
marxista y otra procesual58. Las técnicas se comparten en la medida en que son
compatibles con más de una posición teórica. Otra cosa es que todas las
posiciones teóricas estén continuamente aportando técnicas al utillaje del
arqueólogo: normalmente las posiciones más tradicionalistas, tendientes al
particularismo histórico y la historia cultural, suelen ser más bien usuarias que
desarrolladoras de técnicas.

La idea central es que las técnicas no son neutrales. Tienen detrás teorías
que las sustentan, como intenté argumentar hace ya casi dos décadas [Gándara
1988a]. ¿Cómo es posible, entonces, que su elección no sea siempre compatible
con los supuestos de una posición teórica –dejando de lado los asuntos
institucionales, presupuestales y de tiempo?

57
A veces lo que impide que las buenas intenciones se materialicen es la falta de
capacitación o, más específicamente, de actualización. Siempre (ver Gándara 1992,
original de 1977) me ha parecido curioso, por usar un adjetivo suave, que mientras que en
otras disciplinas como la medicina, es obligatorio re-certificarse para estar al tanto de las
últimas técnicas y procedimientos, en la arqueología la mención de la necesidad de
actualización suele ser recibida como si se hubiera proferido un terrible insulto…
58
Me tocó ver, hace unos años en un Curso en Huelva, Andalucía, como uno de los
asistentes cuestionaba a la arqueología social, porque no alcanzaba a ver ninguna
diferencia entre cómo excavamos nosotros y cómo se excava en otras posiciones
teóricas. Reclamaba, auténticamente molesto “¿Dónde está la técnica marxista de
excavación?
162

En mi opinión, es posible precisamente por la misma razón que es posible


hacer arqueología bajo una metodología inductiva estrecha. Como se recordará,
esta metodología insiste en que hay que ir al campo sin contaminación de
hipótesis o idea preconcebida. Y aunque el argumento hempeliano en contra es
suficientemente convincente, lo cierto es que los arqueólogos cercanos al
inductivismo estrecho parecen, en efecto, no requerir de problemas o hipótesis
previas para poder hacer investigaciones. La razón es que dependen de “rutinas
de trabajo”, heredadas por su posición teórica.

Las rutinas de trabajo


Estas rutinas, como su nombre indica, son aplicaciones repetidas, en
secuencias que operan de manera más o menos constante, de técnicas
consideradas como suficientes para los propósitos de esa posición y que se
aplican como “naturales”, sin mucha reflexión al respecto. Lejos de ser
perniciosas, creo que son uno de los signos de madurez de una posición teórica (o
al menos del poder de algunos de sus líderes para imponerlas). Aquí la razón
puede encontrarse en un argumento de Kuhn: la ciencia suele ser una institución
jerarquizada, en la que no es siempre posible, ni necesario, que todos los
científicos en todos los niveles puedan articular las razones que tienen para seguir
cierta secuencia de pasos mediante ciertas técnicas. De hecho, equivaldría a
preguntarse, de manera cotidiana, si tienen sentido nuestras rutinas normales: el
resultado normalmente es que esa discusión acaba en el diván de un terapeuta.
Normalmente muchas de nuestras actividades se hacen prácticamente en
automático y no es saludable (al menos para la mayoría de los mortales)
cuestionarlas una a una todos los días. Lo mismo pasa con las rutinas de trabajo
científico.

Creo que las rutinas de trabajo se originan en proyectos especialmente


exitosos (o al menos prestigiosos o bien publicitados), que entonces se convierten
en los ejemplos a seguir. Combinados con los límites que fija la ontología, son una
guía suficiente como para conducir el trabajo cotidiano de campo y laboratorio.
El problema surge cuando esa naturaleza irreflexiva se encuentra con situaciones
en las que esa rutina ya no es suficiente. El ejemplo que primero viene a mi
memoria es el de la rutina de trabajo en sitios monumentales de los arqueólogos
de la llamada “escuela mexicana de arqueología”, que tuvo sus días de gloria a
partir de los años mil novecientos treinta en México. Motivados sin duda por la
más noble de las intenciones, estos arqueólogos consideraban que reconstruir
más allá de la evidencia era tanto un recurso didáctico como una manera de
incrementar el atractivo de los sitios. Y concentraban casi siempre su atención en
lo que todavía se siguen llamando, 78 años después, “zonas de monumentos”.
Ambas decisiones tendrían consecuencias que llevaron a que, a partir de la
década de 1970, esta rutina de trabajo fuera cuestionada, a veces para sorpresa
de sus practicantes, para los que era “la única”, “la mejor” o “la natural”.
163

La consecuencia de la reconstrucción es, por supuesto, la pérdida de


autenticidad del monumento, además de su distorsión como documento histórico
y científico al plasmarse en cemento y piedra una hipótesis entre muchas otras
posibles. La intención pedagógica o decorativa bien puede expresarse en
maquetas y modelos. Las convenciones internacionales, a las que México está
suscrito desde hace décadas, indican que la intervención debe limitarse a la
conservación, en los niveles de consolidación y, cuando mucho, reposición de
elementos cuya proveniencia es clara (la “anastilosis” -para un tratamiento
temprano de esta problemática, ver Molina [1975]).

La consecuencia de ver a los sitios como “zonas de monumentos” y


concentrar el trabajo en estas zonas ha sido que durante décadas se careció de
información contextual sobre los entornos de dichos monumentos; se preció, sin
duda con razones bien motivadas y honestas, el trabajo en las áreas religiosas y
de elite, a costa del conocimiento de las unidades habitacionales populares, o las
áreas de infraestructura productiva. Años después, esta concentración de interés
actúa en contra de los esfuerzos de conservar lo que nunca fue realmente una
“zona de monumentos”, sino siempre un asentamiento, un sitio arqueológico;
pero incluso en la mentalidad popular, el sitio llega nada más hasta donde pasa
la cerca que separa a la zona de monumentos de su entorno. Las rutinas de
trabajo acabaron actuando, en una consecuencia quizá insospechada por esos
bien intencionados arqueólogos a los que les debemos que haya una
arqueología institucional en México, en contra del patrimonio: se generó lo que
he llamado la “arqueología de éste lado de la cerca”, que concentra su
atención en las zonas protegidas y luego se sorprende de que el entorno,
incluyendo las áreas habitacionales prehispánicas, incluso las llamadas “zonas B”,
de uso contemporáneo restringido, estén siendo destruidos y no hay manera fácil
de conservarlo, ni siquiera mediante recursos legales.

Eso nos debería dar, me parece, una lección de humildad y de


reconocimiento de que incluso las más flamantes rutinas de trabajo serán
seguramente cuestionadas por los arqueólogos del futuro. Ello implica no perder
la perspectiva histórica y apreciar los esfuerzos honestos de los arqueólogos que
nos antecedieron. Pero también implica entonces el mantener abierta las puertas
a la discusión de los supuestos detrás de nuestras rutinas de trabajo, como una
manera de paliar los efectos negativos que sin duda, junto con los efectos
positivos, tienen las rutinas de trabajo. Es importante ver más allá de la tradición
académica propia, al menos en lo que toca a la selección de técnicas.

Así, para concluir esta sección, podemos reiterar algunas de las propuestas
centrales: 1), las técnicas (en tanto procedimientos prácticos para la obtención,
registro análisis y presentación de datos), pueden ser compartidas por diferentes
posiciones teóricas; 2) y como consecuencia del punto anterior, las técnicas
nunca definen las posiciones teóricas59; 3), el elemento rector en la elección de
59
De aquí el señalamiento hecho en el capítulo 1 de que no es correcto entonces
caracterizar a la Nueva Arqueología por su uso de estadísticas o computadoras. La
arqueología analítica las empleaba en ese mismo tiempo y desde entonces han sido
usadas por muchas otras posiciones teóricas.
164

técnicas es el área ontológica de la posición teórica, aunque mediado siempre


por las capacidades institucionales de su empleo y la disposición a la
capacitación que requieren, por un lado y por la tradición académica, por otro.
La tradición académica se expresa en lo que hemos llamado aquí las rutinas de
trabajo: conjuntos de técnicas y secuencias de pasos en su aplicación que
derivan generalmente de proyectos especialmente exitosos (o al menos
prestigiosos) y que son adoptadas y repetidas de manera generalmente no
reflexiva; 4) la elección de técnicas tienen efectos sobre las posibilidades de
conservación del patrimonio arqueológico; y, aunque es inevitable que a futuro
se nos señalen deficiencias y problemas con las técnicas empleadas hoy, es
importante para todas las posiciones teóricas mantener el debate abierto para
minimizar este riesgo.

Heurísticas
El término “heurística” lo define el Diccionario de la Real Academia de la Lengua
Española como:
“(Del gr. εὑρίσκειν, hallar, inventar y ‒‒ tico).1. adj. Perteneciente o relativo a
la heurística. 2. f. Técnica de la indagación y del descubrimiento. 3. f. Busca
o investigación de documentos o fuentes históricas. 4. f. En algunas
ciencias, manera de buscar la solución de un problema mediante métodos
no rigurosos, como por tanteo, reglas empíricas, etc.”
[http://buscon.rae.es/draeI/SrvltConsulta?TIPO_BUS=3&LEMA=heur
%C3%ADstica, consultado en febrero de 2007].

Nuestro uso es un tanto más restringido y en cierto sentido, más difícil de


definir. Las heurísticas (dado que normalmente una posición teórica tiene varias),
son recomendaciones o sugerencias, incluso consejos y “mañas”, que se
transmiten generalmente por vía oral, informalmente y que orientan decisiones
estratégicas en cuanto al uso y secuencia de técnicas. En ese sentido, están
muchas veces detrás de las rutinas de trabajo mencionadas en la sección
anterior. Pero a veces no solamente impactan las tareas prácticas, sino la
estrategia general de la posición teórica. No son teorías sustantivas, dado que no
se supone que se pongan a prueba, ni están formalizadas; tampoco son teorías
de la observación, por razones similares. Son como condensaciones del sentido
común profesional dentro de una comunidad académica, ligadas de manera
tenue pero generalmente rastreable a la ontología de la posición teórica, que
intentan proponer atajos o facilitar de alguna manera la adquisición del
conocimiento y el cumplimiento de los objetivos de los proyectos respectivos.

Quizá la mejor manera de entender la idea es mediante ejemplos. Uso


normalmente tres en clase. El primero viene de la psicología y en particular del
psicoanálisis. No puedo rastrearlo en la literatura, lo que me hace pensar que lo
aprendí informalmente, en alguna conversación hace ya mucho tiempo con
algún psicoanalista. La heurística en cuestión es “Piensa esfínter” (dado que las
heurísticas suelen expresarse como consejas o máximas) o, más explícitamente,
165

“Cuando quieras tener una aproximación inicial al diagnóstico de tu paciente, en


cuanto entre a tu consultorio, pregúntate cuál de sus esfínteres domina su
personalidad”. La idea es que el lenguaje corporal es capaz de ofrecer una
primera impresión sobre este elemento diagnóstico de la personalidad bajo la
teoría freudiana: si la persona habla todo el tiempo, o se lleva continuamente las
manos u otros objetos a la boca (lo que supuestamente indicaría una tendencia
oral); si, por el contrario, prácticamente no habla y mantiene una actitud rígida (lo
que supuestamente indica una personalidad anal-retentiva), etc. No se trata
realmente sino de facilitar un diagnóstico inicial, que por supuesto es reforzado
con técnicas muy complejas. La idea es facilitar el primer diagnóstico y tomarlo
como punto de partida para la sesión inicial –o al menos eso recuerdo haber
entendido. Esta heurística está conectada, obviamente, a principios de la teoría
freudiana a veces explicitados en teorías sustantivas, pero en general deriva de la
ontología de dicha posición.

El segundo ejemplo viene de la antropología funcionalista británica, que


tiene aparentemente una heurística que es popular en México: “Ve al mercado
del pueblo”. Desarrollada, es algo así como “Lo primero que hay que hacer es
visitar el mercado de la comunidad y observar cómo se dan ahí las
interacciones”. He oído atribuir esta heurística al propio Malinowski y se que mis
colegas etnólogos y antropólogos sociales que trabajan en contextos rurales se la
toman muy en serio. De nuevo, tiene que ver con la ontología de la posición
teórica, en la que seguramente hay un supuesto de cómo ciertos lugares públicos
y notablemente el mercado, son excelentes escaparates para detectar roles,
estatus y normas de interacción. No es una técnica en sí, sino es una
recomendación sobre cómo y cuándo usar la técnica de la observación
participante. Es una recomendación estratégica.

El tercer ejemplo viene del marxismo y aunque me imagino que podría


acudir a los clásicos para documentarla, también la aprendí por la vía de ver y oír
ejemplos de su aplicación, así que prefiero reportarla de esta manera. La
heurística es “Piensa contradicción”. La liga con la ontología dialéctica detrás del
materialismo histórico es muy clara: la contradicción es el motor del cambio en el
mundo. Desarrollada sería “Cuando inicies el estudio de un particular proceso,
evento o coyuntura, pregúntate cuáles son los segmentos sociales en pugna –
sean clases, fracciones de clase u otro tipo de agrupación; o si la contradicción
fundamental es entre el grupo y su entorno natural”.

Creo que estos ejemplos son suficientes para ilustrar la idea. No solamente
las posiciones teóricas tienen heurísticas, por supuesto. Baste recordar una que es
favorita de los detectives en las novelas de misterio: “Piensa, ¿quién se beneficia
con este crimen?60 Creo que incluso pueden encontrarse en el sentido común
60
El lector avezado en estos temas notará que mi uso no es el mismo que hace Lakatos
cuando habla de “heurísticas positiva y negativa”, que son más bien procedimientos para
decidir cuando una anomalía debe ser aceptada y, en consecuencia, producir una
modificación en un “programa de investigación” , o bien debe ser descartada como
poco importante o como espuria [Lakatos ]. Estas serían del tipo “lineamiento
metodológico”, que enseguida trato.
166

aplicado cotidianamente. Por el momento la idea era mostrar que generalmente


las posiciones teóricas tienen heurísticas, que sin ser técnicas, orientan el uso de
éstas, así como la producción de conocimiento en general. Cumplen, pues, una
función estratégica. Como están de alguna manera ligadas a la ontología, suelen
ser útiles en la identificación de una posición teórica y su diferenciación de otras
posiciones teóricas parecidas.

Un segundo tipo de heurísticas serían las que he llamado “lineamientos


metodológicos”. Son directrices que califican el tipo de conocimiento o de
aplicación del conocimiento que se espera obtener en la ciencia. “Busca la
simplicidad”, “Permite la agilidad y facilidad de manipulación”, “Trata de lograr
una economía conceptual”, “Maximiza la capacidad predictiva/retrodictiva”,
“Intenta lograr la mayor coherencia posible con el resto de las teorías
disponibles”, y principios similares son los que Laudan llamaba “valores” o “metas”
de la ciencia y que yo prefiero ver como propiedades que las comunidades
pueden o no acordar son deseables en el conocimiento científico. De nuevo,
estas normativas metodológicas pueden variar de comunidad en comunidad y
de época en época. Es por ello que, aunque parezca increíble, la máxima “Busca
lograr teorías verdaderas” (o al menos no falsas), en efecto no se haya seguido
siempre: las metodologías de corte instrumentalista prefirieron siempre la
capacidad de manipulación o incluso de explicación que la veracidad de las
teorías. Esta manera de concebir a la ciencia se asocia casi siempre a una
epistemología y una ontología anti-realista, para la cual no tiene sentido
preguntarse si la entidades teóricas contenidas en las teorías realmente existen o
no y, en consecuencia, si nuestros enunciados sobre ellas “corresponden” o no a
una realidad externa.

Teorías de la observación involucradas


Nos hemos referido antes ya a la idea de teoría de la observación (ver capítulo
1)61 y Olivé y Pérez Ransanz [1989a], para una excelente introducción a los
problemas de la observación científica. Aquí solamente reiteraremos su carácter
de teorías sustantivas, por lo general bien corroboradas o al menos consideradas
no problemáticas, de forma tal que son aceptadas por diferentes posiciones
teóricas. Permiten así crear la arena en la que se enfrentarán posiciones teóricas
en debate. Son teorías que están detrás de nuestras técnicas, justifican las
inferencias y determinan el grado de confiabilidad y representatividad de los
datos así obtenidos. En arqueología, como vimos, muchas están subsumidas
dentro de las llamadas teorías de formación y transformación de contextos.
Aunque Schiffer y su grupo son quizá de los autores que más han contribuido en
este campo (junto con los etnoarqueólogos, los arqueólogos experimentales y los
arqueómetras), creo que aún estamos lejos de tener teorías de la observación
adecuadas en arqueología. Pero no intento elaborar este punto aquí, sino
solamente destacar que cada posición teórica elige qué teorías de la
observación considera confiables; a veces la elección se hace de manera

Y de nuevo remito al lector interesado a mi artículo (Gándara 1988) para un tratamiento


61

más detallado de este concepto en arqueología.


167

indirecta, al elegirse en realidad técnicas particulares de trabajo –y, de manera


implícita y en consecuencia, se adoptan teorías de la observación.

Las orientaciones metodológicas


Aunque el término es ambiguo62, podemos llamar “metodología” cuando
nos referimos al área de una posición teórica, al conjunto de supuestos que
incluye a) un criterio de demarcación b) una concepción del método
(incluyendo las unidades sobre las que se aplica); c) una selección de técnicas y
rutinas de trabajo; d) un conjunto de heurísticas y e) un conjunto de teorías de la
observación.

Las metodologías, entendidas así, suelen tener, adicionalmente, una


particular orientación, entendida como el peso relativo que se le da a ciertas
formas de aplicación, o al punto de vista desde el que se aplican. En ese sentido,
pudieran incluirse dentro de las heurísticas, particularmente de las que hemos
llamado “lineamientos metodológicos”.

Históricamente, las dicotomías más importantes en este sentido han sido las
que se dan entre las orientaciones ideográficas y las nomotéticas; y entre los
enfoques emic y etic, aunque no son las únicas y hay otras que en cierto sentido
quedan prefiguradas cuando se elige una concepción del método, como serían
la orientación fundamentalmente inductiva o la orientada a problemas. Veamos
el asunto con más detalle.

Como resultado de los supuestos ontológicos y sobre todo en ciencias


sociales, se ha debatido si la investigación debe orientarse privilegiando el estudio
de casos particulares como tales, en su irreductible especificidad histórica, o si
bien debemos buscar siempre encontrar las regularidades (de ahí el uso de
“nomos”: ley, en el nombre de esta orientación). La decisión normalmente parte
de la convicción, en el primer caso, de que simplemente no existen
generalizaciones, o son imposibles de conocer, como vimos en el capítulo 4. O a
la inversa, que lo social es sujeto de principios generales capaz de explicar los
casos individuales.

En el caso de la distinción etic/emic, bien conocida en antropología, se


recupera una distinción originalmente surgida de la lingüística. Los lingüistas han
mostrado que del conjunto de sonidos posibles e incluso presentes en una lengua
(el componente fonético), solamente un subconjunto es reconocido como
significativo por esa lengua (el componente fonémico). Así, aunque un
osciloscopio permita detectar variantes fonéticas, si los hablantes no reconocen
62
Es ambiguo porque el término a veces hace referencia a posiciones dentro de la
filosofía de la ciencia y en particular, a concepciones sobre el método (que es el sentido
en que utilicé el término en ese apartado); en otros casos hace referencia al estudio de la
metodología y es en ese sentido equivalente a “filosofía de la ciencia”; en otros, parecido
al que defino en seguida, refiere a una combinación de método y técnicas, que es como
a veces se usa en arqueología, aunque en la tradición anglosajona se reduce más bien a
técnicas; y, finalmente, hay quien lo confunde con la estadística…
168

como significativas esas variantes, no son entonces fonéticas. La prueba de fuego


de una recuperación lingüística (en este y en otros aspectos) es que al hablar, el
lingüista pueda hacerlo de forma tal que los informantes reconozcan como
correcta su articulación. De ahí la idea se extendió a otros campos de la cultura,
notablemente bajo la posición teórica de la antropología cognitiva y la
etnometodología (la original, la de Sturtevant, Goodenough y otros -ver [Harris
1982 (original 1968): Capítulo 20]- de finales de los 1950 e inicio de los 1960). Se
propuso que, así como en la reconstrucción lingüística la prueba de fuego es la
aprobación del informante, en la recuperación de las normas sociales sucede lo
mismo: si el antropólogo es capaz de actuar con corrección y su actuación es
aprobada por los informantes, eso la valida. Esta es la orientación émica, dado
que privilegia el reconocimiento de sentido por parte del informante y lo ubica
como la fuente última de validación.

El punto de vista contrario propone que en el caso de la evaluación ya no


de reconstrucciones lingüísticas, sino en aplicaciones como las que hacía la
etnometodología, el punto de vista del nativo es solamente un punto de vista
más; y que la verdad o carencia de ella en una formulación sobre el grupo recae
en la realidad, no en lo que digan los sujetos (incluyendo al propio investigador).
Esta es la orientación ética (que en realidad no tiene nada que ver con la moral,
sino es así como se ha traducido el término étic, de “fonetic”; en inglés, como se
recordará, ética en inglés es ethic –quizá es preferible hablar de orientaciones
emic y etic para evitar confusiones).

El ejemplo más extremo de este debate pasa por el centro de un debate


más profundo, entre las posturas realista y anti-realista en ontología y
epistemología (ver, por ejemplo, [Winch 1970, original 1964]. Es el de las vacas de
los Azande. Evans-Prichard es quien inicia indirectamente el debate (ver [Wilson,
ed. 1979], para una bibliografía completa al respecto), cuando no solamente
reporta que, de acuerdo con los Azande, las vacas vuelan. Si no que él, después
de haber vivido con ellos mucho tiempo, no puede decir que eso sea falso. De
ahí, un lado del debate interpretó que lo que este autor propone es que si los
Azande creen que las vacas vuelan, pues entonces vuelan. Es decir, que si un
Azande dice “El enunciado ‘las vacas vuelan’ es verdadero”, se ha dicho
entonces la última palabra, dado que es precisamente el nativo, el informante el
que la tiene. Si para él es cierto, es un acto de etnocentrismo poner su dicho en
duda. Para el punto de vista contrario, aunque es muy respetable que los Azande
piensen eso, el enunciado “Las vacas vuelan” será verdadero sí y solo sí las vacas
realmente vuelan. Como se verá, el criterio etic es realista y recupera la teoría de
la verdad como correspondencia, mientras que el criterio emic suele ser
antirealista y toma un criterio de verdad o como coherencia o como éxito
pragmático63.

63
Aunque tengo una posición clara al respecto, no intentaré apoyarla aquí. En todo caso,
mi recomendación a los que siguen el enfoque émico es que si visitan la zona azante no
olviden usar un casco de protección, por si las dudas…
169

La última dicotomía es entre una orientación inductiva estrecha y una


orientada a problemas. La primera, como hemos visto, insiste en la importancia
de que el investigador llegue (cognitivamente) virgen a la investigación, sin
presuposición o hipótesis alguna, so riesgo de “encontrar precisamente lo que
quería”. La segunda insiste que el punto de partida de cualquier investigación es
la detección de un problema a resolver y que la solución al problema, la hipótesis,
es la que orientará el trabajo. La orientación inductiva estrecha suele ser
reconocible porque los proyectos respectivos suelen ser sobre temas, como
Cuicuilco, la cerámica coyotlatelco, o el epiclásico. Mientras que la orientación a
problemas suele ser reconocible al postular preguntas: ¿Qué papel tuvo Cuicuilco
en el origen del en Teotihuacan? ¿Hubo uno o muchos centros de producción de
la cerámica coyotlatelco? ¿Qué causó los cambios a los que llamamos
Epiclásico? En una orientación no solamente a problemas, sino de corte
nomotético, las preguntas entonces se formulan en toda su generalidad: ¿cómo
es relevante Cuicuilco al origen del Estado en general? ¿Cómo se detectan uno o
varios centros de producción para un bien y qué consecuencias sociales hay en
cada caso? ¿Qué determina las transiciones sociales más pronunciadas, como la
ilustrada por el Epiclásico? La diferencia parece sutil, pero en la segunda
formulación los casos empíricos son solamente ejemplos, no el centro real de la
atención; este papel se le reserva al propio problema64.

Aplicadas de manera general, estas orientaciones son elementos útiles


para caracterizar una posición teórica, dado que si ésta es congruente, suelen
conformarse conjuntos de propiedades que irán juntas: es decir, normalmente si la
ontología prevé que lo social es sujeto de causalidad, entonces el objetivo
cognitivo será la explicación, la orientación metodológica será nomotética, etic y
centrada en problemas y el método será alguna variante del método hipotético-
deductivo; mientras que si la ontología privilegia la agencia y el libre albedrío,
entonces el objetivo cognitivo será la descripción de historia cultural, la
orientación será ideográfica, probablemente emic e inductiva estrecha, si no es
que relativista o particularista histórica. Epistemológicamente, suele ser el caso de
que el primer grupo adopta una epistemología (y una ontología) realista, mientras
que el segundo prefiere una de tipo anti-realista; y, en consecuencia, el primero
64
Uno de mis primeros aprendizajes en Michigan (y digo, realmente de los primeros,
porque ocurrió en el cóctel de bienvenida a los alumnos de nuevo ingreso), es que estas
diferentes orientaciones influyen en cómo nos presentamos ante un grupo que acabamos
de conocer. En mi caso, alguien me preguntó “¿y tú qué estás trabajando?” y yo
contesté, sin chistar “Abasolo, Guanajuato”, refiriéndome al último proyecto de campo en
el que había participado. “Ah!” –me dijo- “Pues yo estudio el origen del Estado, en
particular en el caso de Susa, Irán y específicamente mediante la distribución espacial de
artefactos de la tecnología administrativa”. En ese momento aprendí que los arqueólogos
formados en el particularismo histórico (que en el fondo era mi formación de base, como
la de muchos otros arqueólogos mexicanos, a pesar de mi adhesión entonces a la Nueva
Arqueología), solemos definirnos mediante temas (o sitios, o periodos, o materiales
específicos), mientras que la gente formada en una orientación a problemas se define a
través de una triple coordenada: el problema central, de gran envergadura, en el que se
inscribe su trabajo; el caso específico desde el que aborda; y el conjunto de técnicas o
materiales que constituyen su foco de interés. Experimento mental rápido: Y tú, lector, ¿en
que estás trabajando?
170

favorecerá una teoría de la verdad como correspondencia, mientras el segundo


tenderá más a teorías como la de la coherencia o la del éxito pragmático.
171
172

Capítulo 7

El concepto de posición teórica puesto en práctica: ¿De


qué posición(es) teórica(s) sale la teoría de SPS?
En esta sección podremos en marcha el instrumental desarrollado en esta
Primera Parte, aplicándolo a nuestro caso de estudio, la teoría de SPS. Antes de
abordar el caso, vale la pena hacer algunos apuntes generales sobre la
detección y el proceso análisis de posiciones teóricas ya en la práctica. Así, en
este capítulo haremos primero esos comentarios generales sobre el proceso de
análisis y en seguida intentaremos caracterizar la posición teórica de la que se
origina la teoría de SPS.

La detección de posiciones teóricas en arqueología


Como se recordará, el concepto de posición teórica tuvo su inicio como
herramienta didáctica en los cursos de teoría arqueológica de la ENAH. Al
aplicarlo, podemos pasar de un catálogo de nombres y obras, que suele ser el
formato de los cursos de este tipo, a determinar que estos autores se agrupan en
posiciones teóricas cuyos elementos son analizables en los términos vistos hasta
aquí.

Aunque no es este el lugar para poder defender los detalles de la


propuesta que aparece en la Ilustración 2, presento este “mapa de posiciones
teóricas” como una primera aproximación a la historia de la teoría arqueológica
contemporánea (es decir, de mitades del siglo XX al momento actual). Se trata
de un primer intento, como para motivar la polémica mostrando la utilidad del
modelo con una aplicación práctica, por un lado y, por otro, como una manera
de intentar ubicar históricamente la posición de SPS en ese conjunto.
173

Ilustración 2. Posiciones teóricas en Arqueología:


del inicio de la arqueología al presente.
174

¿Cómo es que se identifica y se ubica una posición teórica (y la tradición


académica de la que forma parte?) Aunque sea de manera resumida,
insisto, vale la pena comentar el proceso práctico involucrado. Los pasos
generales serían:
1) Caracterización general del momento histórico en que surge la posición
teórica, incluyendo los interlocutores principales a los que se dirigen buena
parte de los argumentos más retóricos;
2) Selección de los autores y textos característicos de la posición teórica a
analizar; generación del corpus básico de análisis; lectura y exégesis de
este corpus, aplicando los criterios de análisis que hemos presentado en
esta Primera Parte;
3) Selección de las teorías sustantivas emblemáticas o “ejemplares” (y
aplicación de las herramientas que presentaremos en la Segunda Parte);
4) Determinación de la congruencia interna de la disciplina (incluyendo no
solamente la congruencia discursiva, sino en relación con las aplicaciones
prácticas); y, finalmente,
5) Elaboración de un reporte con las conclusiones más importantes. Sobre
algunos de estos pasos vale la pena comentar con más detalle los
aspectos prácticos del análisis, que es lo que haremos en el resto de esta
sección.

El procedimiento de análisis: algunos comentarios generales


Idealmente, cada posición teórica se “inaugura” con una publicación que
funciona a manera de “manifiesto”, “position paper” o declaración de principios,
que típicamente el líder o figura más reconocida de la posición publica de
manera temprana. Puede luego elaborar esta presentación inicial en un libro que
se convierte en el libro emblemático del arranque de la posición y que acaba
siendo la referencia obligada para su estudio. A estos textos los llamamos “textos
programáticos”. En ellos suele señalarse quiénes son los interlocutores de la
naciente posición, dado que estos textos suelen ser críticos de las propuestas
previas, a las que se intenta superar.

A manera de ejemplo65, en el caso de la Arqueología Procesual, es claro


que la figura central (sin demérito a otras contribuciones), es Lewis Binford. Y que
los artículos que inauguran la posición oficialmente (con anticipos en Binford
[1962, 1964 y 1965]) aparecieron entre 1968, en el libro “New Perspectives in
Archaeology” [Binford and Binford 1968]. Binford recopila sus artículos iniciales, los
comenta y añade materiales nuevos en el que se convierte en el clásico inicial de

65
Que no es un caso hipotético: es más o menos lo que intenté hacer en 1980, cuando
formulé por primera vez la propuesta de posición teórica y la apliqué de manera
incipiente a la tarea de analizar la “Nueva Arqueología” [Gándara 1983]. Adicionalmente,
detecté tesis o líneas de desarrollo centrales a la posición teórica, para caracterizar a la
arqueología procesual también en términos de los que sus propositores consideraban
central. Este aspecto un tanto émico lo he abandonado, aunque pudiera retomarse, con
las precauciones del caso.
175

esta posición, “An archaeological perspective” [Binford, ed. 1972]. La


interlocutora, sin duda, es la arqueología de historia cultural.

Una indicación de que se ha creado una nueva posición teórica y que


está ganando terreno, es la aparición tanto de libros de texto como de antologías
iniciales (tal como señalaba Kuhn [1970]). Ambos recursos son cruciales para el
análisis, al redondear la propuesta más allá de la formulación del autor central de
la posición y adoptarla para la “endoculturación” de los nuevos alumnos.

En el caso de la Arqueología Procesual, el texto (aunque luego sería muy


criticado) fue sin duda el de Watson, LeBlanc y Redman “Explanation in
Archaeology” [Watson, et al. 1971] aunque algunos consideran que el libro de
Flannery [1976], “The Early Mesoamerican Village”, que contiene ejemplos
concretos de aplicación, es una mejor muestra de un recurso pensado para la
formación de nuevos alumnos. En cuanto a la antología, sin duda es la de Leone,
“Contemporary Archaeological Theory” [Leone 1972].

La idea en este punto es tratar de identificar el corpus de los materiales que


serán el punto de partida del análisis. Esta tarea, como cualquier otra tarea
histórica, es mucho más fácil si se tiene ya una distancia temporal con relación a
la posición analizada: resulta mucho más complicada (y riesgosa) para posiciones
que están formándose en ese momento. El uso de herramientas como el Social
Science Citation Index, así como la elaboración de cadenas bibliográficas de los
autores líderes ayudan en la tarea de tratar de determinar la importancia relativa
de los autores y los textos centrales. Es evidente que siempre se tratará,
inevitablemente, de una muestra y que dado que el tiempo para el análisis
normalmente es finito, generalmente se harán decisiones sobre qué incluir y que
excluir (al menos por el momento) que no siempre son fáciles. En el caso que he
venido proponiendo como ejemplo, es claro el énfasis en la variante original,
estadounidense, de la propuesta. Pero un análisis más completo debería incluir a
autores como Clarke [1968, 1972, 1977, 1979; Clarke, et al. 1981] y el primer
Renfrew [Hole, et al. 1969; Renfrew 1973a, 1973b, 1979; Renfrew and Cooke 1979;
Renfrew and University of Southampton. 1973]. De hecho, hoy día el libro de
Renfrew se ha convertido en el libro de texto de la arqueología procesual,
incluyendo su variante actual, la arqueología cognitiva [Renfrew, et al. 2004;
Renfrew and Scarre 1998; Renfrew and Zubrow 1994].

El análisis tiene que empezar por algún lado; contar con un corpus
jerarquizado ayuda a organizar el trabajo de lectura, pero es indispensable
arriesgarse e intentar definir qué autor puede ser el más representativo y tomar su
obra como punto de partida, como vimos en el ejemplo de la Arqueología
Procesual. Cuando, como en nuestro caso, el interés no es la posición teórica en
su conjunto, sino el análisis de una teoría sustantiva, la selección del autor es
automática: es el que propone la propia teoría sustantiva –en nuestro caso,
idealmente Sanders, Parsons y Santley. Sanders es el autor principal, o “senior”, así
que por esta razón (y por dificultades prácticas y operativas –básicamente la
imposibilidad de entrevistar al otro autor que sobrevive, Parsons), nos centraremos
en él.
176

Al análisis de la posición teórica sigue, en su caso, el análisis de la teoría


sustantiva de interés (que en el nuestro es SPS). Esta parte del análisis la veremos
con detalle en particular en el capítulo 10 en donde señalaremos aspectos que
resulta muy importante tomar en cuenta para la selección de las obras en las que
se plasma la teoría sustantiva. Por el momento, complementando la visión general
del proceso de análisis de una posición teórica, vale la pena comentar un último
elemento: el de la representatividad de las obras declarativas.

La distancia entre retórica y práctica: la necesidad de analizar ambas


Es importante tomar en cuenta una dificultad potencial en el análisis de
posiciones teóricas, que es el grado al que los textos programáticos realmente
representan la aplicación de la posición teórica en la práctica. Como suelen ser
textos que normalmente presentan, a grandes rasgos, lo que la posición intentará
hacer y lo hacen normalmente en el contexto de una polémica con una posición
previa o contendiente, suceden normalmente dos cosas: que la retórica suele
rebasar en algunos casos las posibilidades reales de la posición, es decir, que son
generalmente demasiado optimistas; y, segundo, que no siempre lo que dicen
sobre sí mismos es lo que realmente están haciendo o serán capaces de hacer. Es
decir, es necesario complementar el análisis con casos de aplicación concreta,
que típicamente son las teorías sustantivas que se convierten en ejemplares, así
como los proyectos emblemáticos de campo y gabinete. De otra manera se
corre el riesgo de tomar como realmente llevado a cabo el programa enunciado
en las obras programáticas. Y es en esos casos en los que, además, se encontrará
material para determinar si lo que se dice es realmente correcto y corresponde a
lo que se hace.

Para ejemplificar de nuevo con la Arqueología Procesual, si tomáramos a


pie juntillas algunas de las declaraciones iniciales, encontraríamos que hay un
rechazo, de manera tajante, a la inducción; pero si se analizan casos de
proyectos emblemáticos, como los de Hill, Longacre y Deetz [Watson, et al. 1971],
se aprecia de inmediato que la inducción por supuesto jugó siempre un papel
importante. Es decir, hay una distancia entre lo que se dice y lo que se hace. O,
en otras ocasiones, no se entiende a veces bien lo que se dice: en 1972 Binford –
como muchos de nosotros- ve la utilidad de la propuesta de Kuhn para entender
el debate entre la nueva arqueología y la arqueología tradicional de historia
cultura. Y supuestamente adopta la posición kuhniana, cosa que reiteraría años
después [Binford 1977]. Pero esta propuesta y su adhesión al neopositivismo lógico
son incompatibles, cosa de la que Binford parece no haberse dado cuenta
nunca, o al menos no lo ha destacado suficientemente en su obra; por ello, si
simplemente nos quedáramos con lo que el autor dice, estaríamos adoptando,
por omisión, una orientación metodológica de tipo emic, cuando lo que se
requiere es complementar la opinión del autor analizado con la visión crítica del
analista. En ese sentido, el analista debe asumir la responsabilidad de su lectura,
dado que intentará ir más allá de lo que está dicho a la letra en el texto. En
177

análisis siempre será desde el punto de vista del analista, con los riesgos que ello
implica y con la necesidad de actuar con responsabilidad y rigor indicando en
cada momento qué es un pronunciamiento textual del autor y qué es
interpretación nuestra.

En nuestro caso, somos particularmente afortunados, dado que el autor


central de SPS está vivo y puede aclarar en muchos puntos nuestro análisis tanto
de su posición teórica como de su teoría sustantiva. En la sección siguiente
citaremos algunos pasajes de la entrevista que tuviéramos oportunidad de
hacerle a finales de Marzo del 2007, que tienen que ver con su posición teórica.
En particular en el capítulo 13, presentaremos paráfrasis de otros fragmentos de la
entrevista en torno a su teoría sustantiva.
178

Capítulo 8

El debate sobre la escala de análisis y la estructura de las


teorías
Una de las más acaloradas discusiones en la filosofía de la ciencia durante
la década de 1970 tuvo que ver con la estructura de las teorías [Suppe 1977c]. La
obra de Kuhn sacudió repentinamente no sólo las ideas sobre cuál era la
metodología que en realidad habían empleado los científicos a lo largo de la
historia, sino sobre cuál es la unidad de análisis correcta para estudiar el cambio
científico. Como vimos rápidamente en el Capítulo 2, lo que sucedió es que la
escala del análisis había cambiado. Si Kuhn tenía razón, existía ahora una escala
no prevista antes (salvo quizá por filósofos como Quine, para la que las teorías
desde siempre fueron totalidades): la escala nueva era la de los paradigmas. Fue
inmediatamente reconocida como legítima e importante, aunque los detalles de
su constitución interior no siempre coincidieran con la propuesta de Kuhn. Lakatos
[1983 (orig. 1970)] propuso sus “programas de investigación científica” y autores
como Laudan intentaron depurar y clarificar la propuesta de Kuhn [Laudan 1984;
Laudan and Álvarez 1990].

Nuestra propia propuesta que, por supuesto, de ninguna manera intenta


ser de la envergadura o generalidad de cualquiera de las mencionadas arriba,
retoma la idea central de que hay diferentes escalas a las que puede proceder el
análisis. En la Primera Parte de esta tesis hemos presentado la escala más grande,
la de la posición teórica (que, a su vez, se engloba dentro de “tradiciones
académicas”)66; así como sus componentes y la mecánica de análisis a seguir en
la identificación y evaluación crítica de posiciones teóricas.

El énfasis en esta escala, sin embargo, parecería ahora restar importancia a


escalas menores de trabajo, o incluso poner en duda que es factible su análisis,
salvo como un elemento subordinado a y dependiente de, el contexto de las
posiciones teóricas. En particular, parecería que lo que está siempre en juego son
las grandes posiciones teóricas y que, en efecto, las propuestas de metodólogos

66
Mi uso de este término difiere del de Laudan ya mencionado, o del de Olivé [2002). Sería
la escala de análisis que sigue en amplitud a las posiciones teóricas. Ya con este texto casi
terminado, me doy cuenta que quizá hace falta un nivel intermedio, para dar cuenta de
las diferentes variantes dentro de una tradición, como podrían ser las variantes de la
tradición marxista, que aunque comparten elementos centrales, difieren en detalle o en
énfasis político. ¿Constituyen diferentes posiciones teóricas? Mi intuición es que no, sino
son líneas o “escuelas” dentro de una posición teórica. Pero cuando consideramos la
distancia entre una epistemología idealista en Bachelard (base de la variante
althusseriana), que parece conectarse a una manera diferente de ver la ontología
compatible con dicho idealismo) y la del marxismo ortodoxo, quizá sí se trata de
posiciones teóricas, dentro de una sola tradición marxista. Planteo solamente el problema,
para el que no tengo una solución por el momento…
179

anteriores sobre la evaluación de esas escalas menores ya no tienen sentido. Si las


hipótesis aisladas no existen y las teorías sustantivas que las engloban dependen
de las posiciones teóricas que las contienen, no existiría un ámbito legítimo de
análisis a esa escala.

Yo quiero proponer que, al menos en el caso de la arqueología, estas


unidades menores siguen siendo precisamente el campo de batalla entre las
diferentes posiciones teóricas, por lo que su análisis es central. De hecho, he
sugerido que es a través de la evaluación de teorías sustantivas que es factible
evaluar empíricamente a las posiciones teóricas correspondientes; que la
refutación de la mayoría de las teorías sustantivas de una posición es la razón
principal para abandonarla, o al menos cuestionar seriamente sus supuestos,
dado que son esos supuestos los que orientan la producción de las teorías en
cuestión. Es decir, para mí, la escala más “empírica” del debate es precisamente
la de las teorías sustantivas.

Algunas metodologías, notablemente la llamada “modeloteórica” pueden,


gracias a un aparato formal flexible basado en la teoría de conjuntos, dar cabida
a ambos niveles. Al menos en principio, de acuerdo a lo propuesto por Diez y
Moulines [1999], es factible capturar el sentido en que ciertos elementos de la
teoría serían más “profundos” y por lo tanto, normalmente menos susceptibles de
evaluación empírica directa que otros, que se ubicarían en porciones más
internas (o superiores, dependiendo de la metáfora especial empleada), de la
red teórica. Los detalles de este modelo son de una complejidad técnica que nos
impide tratarlos aquí. Pero para nuestros propósitos es importante señalar que
existe al menos una propuesta en la que se reconocen como legítimos ambos
niveles y en la que se proponen criterios para reconocer cuál es cuál a nivel
formal –problema que yo simplemente glosaré, dado que en el caso de la
arqueología es relativamente más sencillo identificar en la práctica ambos niveles
(aunque con algunas complicaciones, como veremos en su momento).

Así y dado que nuestro interés en esta tesis es la evaluación de una teoría
sustantiva en particular, la de SPS, en esta Segunda Parte de la tesis reivindicaré la
importancia del análisis de las teorías sustantivas, destacando el papel crucial que
tiene la noción de explicación (y de principios generales); para presentar un
procedimiento de análisis que es el que luego aplicaremos a la teoría de SPS en la
Tercera Parte de este trabajo.

Las teorías sustantivas: unidades de análisis, desde la hipótesis aislada


hasta las teorías más complejas
Definimos antes (Capítulo 1) a las teorías sustantivas como los intentos de
una posición teórica para explicar o comprender un determinado fenómeno,
evento o proceso. Es decir, tienen un propósito pragmático, que es responder a
las preguntas “por qué” y “cómo” en su sentido causal (en las tradiciones
180

académicas nomotéticas) y “qué significa” o “qué motivó…” (en las tradiciones


académicas ideográficas, incluyendo las hermenéuticas).

Mi propia definición de teoría sustantiva está en deuda con la definición


original de teoría dentro de la tradición neopositivista, en particular con la
formulación de Rudner [1966:18 y ss.], aunque solamente con lo que considero
tres características que me parecen rescatables de esta propuesta [ver Gándara
1983:117-8 y nota a pie]. Así es que el resultado final quizá no se parezca mucho al
modelo original, dado que añado un cuarto elemento y cambio el énfasis de los
tres elementos rescatados:

a) Una teoría sustantiva es un conjunto de enunciados, articulados


entre sí. Hoy día la corriente modeloteórica pone en duda esta
primera característica. De hecho, el nombre de la propuesta
deriva precisamente de que para estos autores, las teorías no
están constituidas por enunciados, sino que son modelos de
segmentos de la realidad [Diez y Moulines 1999]. En la
caracterización de Rudner [1968] se señalaba que en disciplinas
desarrolladas, típicamente cuantitativas, o al menos formalizadas,
esta articulación adquiere la forma axiomática (Rudner revela así
el respeto que le tenía el neopositivismo a la geometría como el
ideal de la formalización científica). En arqueología las teorías
sustantivas están característicamente subdesarrolladas, como
veremos, así es que es cuestionable si algún día llegaremos a un
nivel de formalización completa, mucho menos de
axiomatización y si esta tarea es fructífera o incluso posible.
Aunque en arqueología contamos con un intento, destacable en
muchos sentidos: el de Fernando López, que hizo un estudio
concienzudo y completo para formalizar la teoría arqueológica
[López 1984, 1990]. Ello no significa que las teorías sustantivas en
arqueología no tengan una articulación de algún tipo; es decir, la
mayoría no son hipótesis simples aisladas, sino conjuntos de
hipótesis.

b) Que normalmente incluyen cuando menos un enunciado de


corte general (o “principio general”). De nuevo, en la propuesta
original de Rudner estos enunciados son auténticas leyes, si la
teoría es una teoría legítima [1966:18 y ss.]. El término “ley” es
problemático en la filosofía de la ciencia neopositivista,
considerando las dificultades que tuvo esta posición en distinguir
entre auténticas leyes y “generalizaciones accidentales”,
derivadas, me parece, de su rechazo a involucrar la noción de
causa y poner en suspenso la de verdad (con excepción quizá
de Hempel). En arqueología el término “ley” ha sido objeto de
muchas confusiones, reflejadas en una abundante literatura con
dejos filosóficos que es de las partes más universalmente
repudiadas de la teoría en arqueología. Prefiero evitarme esa
polémica y hablar, eufemísticamente si se quiere, de “principios
181

generales”. Estos principios generales establecen las conexiones


(causales, en las tradiciones nomotéticas; de significado, en las
hermenéuticas) entre las variables, conjuntos o sistemas de
variables de interés para la teoría. Una teoría de complejidad
media puede incluir muchos de estos principios. Son ellos los que
hacen posible la aplicación de la teoría a más de un caso. En la
tradición ideográfica se niega que existan y muchos hermeneutas
protestarían de inmediato, señalando que ellos no creen que
tales principios sean generales o necesarios. Intentaré, al final de
esta tesis, esbozar un argumento de por qué sí existen y son
necesarios. Por el momento, pido a mis lectores que simplemente
me concedan el punto en un acto de fe que espero no
traicionar.

c) Que es “refutable en principio”, a partir de sus consecuencias


“observables”, por teorías que las superan. Aquí en la propuesta
original de Rudner [Ibíd.] se requería que las teorías fueran
“confirmables”, lo cual es congruente con la metodología
probabilista que sostenían los neopositivistas. Dado que, por las
razones expuestas en los capítulos 8 y 9 yo me afilio más a la
propuesta popperiana (y, en particular, a la versión lakatosiana),
no retomo la confirmación, sino la “refutación en principio”, que
no es ajena tampoco al neopositivismo, pero que le debe más a
Popper y su grupo. Una hipótesis es refutable en principio cuando
podemos especificar, de antemano, las condiciones en las que la
abandonaríamos. Típicamente ello involucra establecer qué
“reportes de observación” la contradirían, indicando que es
probablemente falsa. Se especifica que sea “refutable en
principio”, por dos razones: la primera, porque los datos
requeridos para su refutación pueden no estar disponibles de
momento, o ser peligrosa su obtención: los propios neopositivistas
reconocían que, por ejemplo, sería riesgoso evaluar una teoría
sobre la inclinación del eje terrestre modificando éste en la
realidad: nos saldríamos de órbita. Lo interesante es que
podemos plantear, en principio, un conjunto de observaciones
que, de darse el caso, mostrarían que la hipótesis está refutada*.
Como se recordará, el asterisco nos remite a la segunda razón de
por qué esta refutación es solamente en principio: la refutación
podría ser espuria si los datos (o las hipótesis auxiliares,
indispensables para derivar las “consecuencias observables”)
resultaran estar mal; y, por último, la refutación completa no
ocurre a merced de los datos, sino de una teoría que mejore a la
teoría preexistente.

d) Y que se proponen con la intención pragmática de explicar o


comprender un evento, fenómeno o proceso. Aquí los términos
complicados son, por supuesto, “explicación” y “comprensión”,
como vimos en el Capítulo 3. Por el momento, baste con que
182

intentan responder a preguntas de tipo “por qué” y “cómo”


(causales) o bien “qué significa” o “qué motivó…”
(interpretativas). Pero este punto resulta crucial: en algunas
discusiones se producen ejemplos de explicaciones espurias (ese
es el punto de la discusión, mostrar que es factible construir
explicaciones formalmente impecables, pero de todas maneras
espurias), pero que parecerían no responder a nada; dan la
impresión de haberse construido de “arriba para abajo”,
seleccionando elementos para explicar algo que no se explicita
sino a posteriori. Al menos en arqueología esto no sucede así: no
se formula un principio general para ver luego a qué se aplica, o
qué explica; sino, por el contrario, se empieza con una pregunta
y se trata de darle respuesta mediante principios generales. Este
aspecto pragmático, destacado por varios de los críticos más
lúcidos del modelo hempeliano de explicación, lo retomo aquí
como un elemento central de la definición propuesta. No por ello
me comprometo a “comprar” en su conjunto, las propuestas
neopragmatistas sobre la explicación, como la de Van Fraasen
[1991 (original 1977)], la de Bromberger [1970 (original 1966)], o la
de Achinstein [1983].

Las teorías sustantivas son la razón de ser de las posiciones teóricas. De


nuevo, espero que la lógica expositiva seguida hasta aquí no haya creado la
impresión de que un grupo de sabios se reúne para determinar qué supuestos
valorativos, ontológicos, epistemológicos y metodológicos asumirá y luego busca
en dónde aplicarlos; por el contrario, las posiciones teóricas nacen en torno a
problemas explicativos o interpretativos, reconocidos como relevantes, para los
que se busca una solución. Eventualmente, los supuestos que permitieron
reconocer el problema como relevante y la solución como legítima se articulan
junto con otros elementos de la posición teórica, pero el punto de partida es la
formulación de teorías sustantivas67.

Tal como Kuhn señalara, hay teorías sustantivas que adquieren prestigio a
partir de sus capacidades explicativas (o que quizá fueron las que se usaron en el
debate con otras posiciones teóricas), a las que llama “ejemplares”. Yo retomo
aquí el término con el mismo sentido y simplemente añado, para aquellas

67
Aquí los boasianos, si queda alguno, protestarían sobre la base de que ellos
supuestamente no proponen teorías (sustantivas). Pero, de nuevo, esta es una falsa
impresión, derivada de la retórica de la posición y no de su práctica real. Boas mismo es
autor de teorías tan importantes como la que permitió combatir el racismo a principios del
siglo XX: la teoría de que raza, lengua y cultura son tres elementos completamente
independientes entre sí: es decir, que la raza ni determina la lengua ni la cultura, así como
éstas tampoco determinan (quizá más obviamente) la raza. Los filósofos analíticos dirían
que la lengua sí determina la cultura, pero es porque ignoran precisamente las
observaciones de Boas con inmigrantes en Nueva York, que mostraron que niños
pequeños de cualquier nacionalidad e idioma original eran capaces de aprender a
moverse como nativos en la lengua y cultura norteamericana, sin perder muchas veces su
lengua y su cultura originales, hasta donde ello es posible en una situación de inmigración.
183

posiciones empeñadas en que no producen teorías sustantivas, la idea de


“proyectos ejemplares”, que son casos de investigaciones que juegan el papel de
ejemplares en dichas posiciones teóricas, en el sentido de que son imitadas y
utilizadas en la formación de nuevos investigadores.

El análisis de teorías en arqueología: antecedentes


¿Cómo se analiza una teoría sustantiva en arqueología? Antes de entrar en
los detalles de nuestra propuesta (en el capítulo 10), quiero hacer un breve
paréntesis histórico para dar crédito a las propuestas sobre las que la mía se
construye. En particular, a Henry Wright, de quien tomé la idea original y cuyo
apoyo y entusiasmo fueron centrales en el desarrollo de mi propuesta . Fue en su
Seminario Sobre Orígenes del Estado68 que presentamos por primera vez los
gérmenes de las ideas que ofrecemos hoy al lector.

En un texto destinado en sí mismo a ser un clásico, el libro editado por


Cohen y Service [1978], Origins of the State, el artículo de Wright brilla con
particular distinción [H. Wright 1978], originalmente presentado para un simposio
en Santa Fe [Wright 1970, citado en Flannery 1975:72 (original 1972)]. No
solamente presenta (y, según él, refuta o al menos decide abandonar) ¡tres
teorías sustantivas de su propia creación!, sino que ofrece reflexiones muy útiles y
profundas sobre el proceso de construcción y evaluación teórica. Como parte de
la discusión que hace de las teorías disponibles sobre el origen del Estado
introduce una representación gráfica de dichas teorías que es innovadora. No
solamente por la idea de representarlas como diagramas de flujo, sino por la
seriedad y la conciencia de lo que significa la labor de exégesis:

“En éste [se refiere al diagrama que realiza para la teoría de


Wittfogel] y en los diagramas siguientes los números representan las
páginas en las ediciones citadas. Tales diagramas son, admito, mis
interpretaciones de las presentaciones más largas y sutiles que
hacen sus propios autores” [Wright 1978:30].

Y, en efecto, en los diagramas, de los que reproducimos aquí algunos


ejemplos en las Ilustraciones 3, 4 y 5, debajo de cada flecha aparece el número
de página con la que Wright apoya su interpretación. Este tratamiento destaca
del de otros autores, que simplemente citan la obra analizada en su conjunto, por
ejemplo “Wittfogel 1957”, quedando al lector rastrear de dónde se sacó el
analista la idea de que eso es lo que realmente proponía el autor original. Wright
concede de antemano, además, que este análisis gráfico simplifica y resume la
presentación original de los autores analizados, lo que me parece un acto de
honestidad que muchos otros arqueólogos sistémicos pudieron haber seguido.

68
En la Universidad de Michigan, Ann Arbor, durante el invierno de 1982.
184

Ilustración 3. Dos ejemplos de análisis de Wright: Wittfogel y Diakonoff

La representación gráfica debe mucho, sin duda, a los diagramas


sistémicos populares en ese momento. La popularidad se debía no sólo al éxito de
la teoría sistémica (la Teoría General de los Sistemas y las aplicaciones específicas,
como la variante de la teoría ecológica de sistemas, que seguía Flannery), sino de
las aplicaciones de esta teoría a la computación y a las técnicas de control y
185

seguimiento de proyectos. Así, los diagramas de flujo quizá eran ya conocidos en


arqueología. Pero lo original es que para Wright cada flecha implica, en cierto
sentido, una conexión causal. Complementados con la lectura del texto, es fácil a
veces determinar el verbo exacto que Wright tiene en mente cuando plantea
una flecha de una a otra variable: “causa”, “promueve”, “estimula” [Ibíd.: 30 y
ss.].

Ilustración 4. Análisis de Wright de Carneiro

Los diagramas, como el de Wittfogel [Fig. 1 en el original de 1998, Ilustración


3 aquí], muestran además cómo Wright está de acuerdo, en algunos casos, con
la idea de “causalidad recíproca”, es decir, que un efecto se puede volver a su
vez en causa de otros efectos, en un circuito de realimentación. En la Ilustración 3
vemos cómo, una vez desarrollado el liderazgo diferenciado, tendrá un impacto
sobre la construcción de obras de irrigación a gran escala, con lo que se inicia
una nueva vuelta al circuito69. No siempre usa este tipo de construcción, dado
que hay teorías en las que la secuencia es más lineal, como su propia propuesta
de 1968 [Ibíd., fig. 5 en el original, Ilustración 5 aquí].

69
Hoy día el software de simulación permite clarificar la dirección y secuencia de estos
“bucles” de realimentación, con el uso de la convención “+1”, que implica que ese
regreso ocurre cuando se ha recorrido el circuito cuando menos una vez y que es,
además un circuito que “amplifica” el proceso respectivo (realimentación positiva) y “-1”
cuando a cada ciclo el proceso implica una disminución del proceso (realimentación
negativa).
186

Ilustración 5. El “modelo de trabajo” de Wright de 1968

Este punto sobre la dirección de las flechas no es trivial, como tampoco lo


es el señalamiento de las páginas específicas que soportan el análisis. Para verlo
simplemente hay que revisar los diagramas que, sin duda inspirados en la misma
teoría de sistemas, hace Redman [1978:221-227]. Los diagramas son, en general,
mucho más pobres, no tienen referencias a páginas específicas y gracias al
asunto de las flechas de realimentación, el Estado causa el aumento
demográfico en la teoría de Carneiro y no a la inversa, como uno tendería a
pensar (ver Ilustración 6, Fig.7-4 en el original, Redman 1978:224]. Tampoco es
claro cómo es que operan las flechas, si siempre como conexiones causales, o
como condiciones antecedentes, dado que el texto tampoco es explícito al
respecto.

Ilustración 6 Análisis de Redman sobre Carneiro y Diakonoff


187

Siendo alumno de Wright en Michigan, me llamó la atención que el símbolo


en lógica formal para el conector del condicional sea precisamente una flecha.
El condicional (Si p ->q) suele ser la forma lógica asociada a los principios
generales como los que caracterizan las leyes. De ahí salió la idea de convertir los
diagramas de Wright en representaciones formalizadas con la ayuda de la lógica
de predicados (o lógica simbólica). Cuando aprendí un poco de lógica de
predicados de segundo orden, también llamada “teoría de la cuantificación”,
que incluye la posibilidad de introducir símbolos para fórmulas que hablen de
“para todos los casos” o “existe un caso tal que”, me pareció que la traducción
podría ser más precisa incluso que los diagramas de Wright, dado que podía ser
capaz de mayor sutileza que la expresable mediante los diagramas de flujo. Fue
así como surgió la idea de tomar alguna teoría para hacer la prueba y
presentarla en el Seminario de Wright (aunque ahora como expositor invitado,
dado que yo había aprobado ya ese curso un par de años antes). La teoría que
seleccioné era la que, en opinión de buena parte del departamento, se
consideraba como “la más refutada de las teorías sobre el origen del Estado”:
precisamente la de Sanders, Parsons y Santley. Y como dicen en mi tierra, “y de
ahí pa’l real”…
188

Capítulo 9

El problema de la explicación
-“¡Oh, no!... Una discusión más sobre la explicación en arqueología…
¡Arghhh!”

La sinceridad no es quizá la cualidad más frecuente en el gremio


arqueológico (al menos no lo es en nuestro país); pero si fuera, el comentario
anterior no sería solamente algo que muchos colegas piensan, sino que se
atreverían a expresar abiertamente. No los culpo. El tema de la explicación es
uno que ha sido traído y llevado, llevado y traído en arqueología, sin que las
polémicas en torno suyo parezcan resolverse nunca; un tema capaz de arrancar
lágrimas de aburrimiento a más de un arqueólogo, esto es, no a uno sino al par
de compañeros que, por cortesía, no escapan despavoridos como el resto ante
su mera mención.

Parecería, en consecuencia, necio seguir insistiendo al respecto. En esta


tesis hacerlo es, me temo, indispensable. Si hay que tratar a las teorías en
arqueología como lo que son, a saber, teorías; y si la función principal de las
teorías es proveernos de explicaciones, entonces es inevitable cuando menos
dejar sentada nuestra concepción de lo que es una explicación. De otra manera
no hay forma de darle sentido a una de nuestras propuestas centrales, que es la
idea de que la teoría de SPS era probablemente la mejor de las teorías disponibles
sobre el origen del Estado a inicios de la década de 1980.

Pero más allá de los intereses particulares de este trabajo, revisar el


concepto resulta crucial. En el Capítulo 3 comentamos que la explicación (junto
con la descripción, la comprensión interpretativa y la glosa) es uno de los
objetivos cognitivos de nuestra disciplina. Desde cuando menos los trabajos de
Childe [1954] y Clark [1947, 1954], en la primera mitad del siglo XX, pasando por las
propuestas de Taylor [1967 (original 1948)], Willey y Phillips [1968 (original 1958)] y
con toda claridad en la arqueología procesual binfordiana Binford [2001; Binford,
ed. 1972; Binford, et al. 1983] y sus secuelas a finales de siglo, la explicación ha
sido uno de los ejes del debate. Este debate tomó un giro decididamente
antiprocesual con el advenimiento de lo que más tarde se conocería como
arqueología interpretativa: Hodder y sus seguidores han puesto en tela de juicio la
posibilidad e incluso la necesidad de intentar proponer explicaciones; con ello
hicieron eco tardío de las voces de algunos arqueólogos dentro de la propia
arqueología procesual, notoriamente la “escuela de Michigan”, que cuestionó no
solamente el modelo de explicación mediante leyes que introdujera la Nueva
Arqueología, sino la idea misma de leyes no-triviales [Flannery 1973a].
189

Pero, a lo largo de estos debates, ¿realmente se ha estado hablando de lo


mismo cuando se habla de explicaciones? De ser así, no tendría sentido el
debate entre Binford y Willey y Sabloff, precisamente sobre qué se debe entender
como una explicación satisfactoria y sobre el orden de los pasos a seguir cuando
se quiere proponer una [Binford 1972 c (original1968)], Sabloff and Willey [1967].
Para Willey y Sabloff el primer paso es construir “una secuencia histórica correcta”
[Sabloff and Willey 1967:329-330]; para Binford, la construcción de esa secuencia
histórica involucra, ya de entrada, principios generales, del tipo que deberíamos
explicitar en nuestras explicaciones [Binford 1972 c (original 1968):115].

El tema ha sido sin duda tratado extensamente, sobre todo a partir de la


Nueva Arqueología, dado que uno de los ejes de la arqueología procesual era
precisamente postular la centralidad de la explicación (Binford [1962, 1968];
Watson, LeBlanc and Redman [Watson, et al. 1971]); se ha discutido también el
grado al que la explicación debe involucrar principios generales [Fritz and Plog
1970]; sobre su estructura (deductiva o no) [Salmon 1975; Salmon 1998b, 1998c] y
otros aspectos, ver Gándara [1983] para una bibliografía de estos primeros
intercambios. Y, entrados los años de mil novecientos ochenta, si buscar
explicaciones realmente había beneficiado a la arqueología (que es el problema
al que intentan responder los autores del volumen editado por Renfrew [Renfrew,
et al. 1982]. Para finales de esa década y buena parte de la siguiente se intentó
identificar la fuente de muchas de las confusiones en torno a la explicación y
varios autores de la recién creada subdisciplina de la “meta-arqueología” las
rastrean a una comprensión inadecuada del modelo propuesto originalmente por
Hempel dentro de la tradición neopositivista (Embree [1992], Kelley and Hanen
[1988], Wylie [1989a, 1989b, 2002], Pinsky and Wylie [1989], Gándara 1983]). Es
quizá el único debate al que se han unido filósofos de la ciencia profesionales, ya
sea para apoyar la idea de explicación mediante leyes [Watson, et al. 1984], o
para proponer modelos alternativos, notablemente el de la explicación como
relevancia estadística (los artículos de los Salmon, citados antes) y, finalmente, los
modelos causales [Salmon 1950; W. C. Salmon 1992], o de ajuste a la mejor
inferencia [Hanen and Kelley 1989]. Por último, se ha discutido los méritos relativos
de la explicación vs. la comprensión interpretativa o hermenéutica (Hodder [1986,
1995], Wylie [2002: particularmente la Introducción], Gándara [2000, 2003]).

Como se verá, por tinta no ha parado el asunto. Lo curioso es que, a casi


40 años de que la Nueva Arqueología introdujera explícitamente este debate
parece haber pocos consensos. Uno de ellos pudiera ser que si un modelo
requiere ser abandonado, o ha sido superado, es el que los propios procesuales
introdujeron, el de Hempel [1966, 1970 (orig. 1958)]. Ello es ligeramente injusto,
dado que es más o menos claro que Binford no conoció (o no parece haber
entendido) en toda su complejidad la propuesta hempeliana. De hecho, cita
normalmente el libro de Hempel introductorio a la filosofía de la ciencia [Hempel
1966] y no el ensayo clásico sobre explicación [Hempel 1970 (original 1958)), salvo
en lo que se puede considerar el manifiesto de la Nueva Arqueología [Binford
1972 a (orig. 1968)], en el que Hempel contesta a los críticos e intenta resolver
dificultades que él mismo había señalado en relación con la propuesta original
190

publicada en 1948 [Hempel and Oppenheim 1948], artículo que sí era citado por
los primeros procesuales.

Así es que se hace indispensable, cuando menos, revisar en qué consistía la


propuesta de Hempel, así como la fortuna que ésta tuvo, primero entre los propios
filósofos de la ciencia y, luego, en arqueología. E intentar ver qué líneas de
consenso (o, alternativamente, de batalla) se dan recientemente en torno al
concepto central de explicación; ello puede ayudar a formarse un criterio sobre
cuál de las alternativas (o cuáles de ellas combinadas) hay que adoptar, si es que
alguna.

En consecuencia, con una disculpa adelantada para aquellos lectores que


reaccionaron con horror ante el título del capítulo, helo aquí, una vez más, a todo
color: el tema de la explicación en arqueología.

La explicación: la historia de una búsqueda sin terminar


Los debates sobre la explicación son un ejemplo perfecto para lo que
pudiéramos llamar las paradojas de la ciencia: la mayoría de los científicos
estarían de acuerdo en que explicar es una de las metas centrales de la
actividad científica (junto con la predicción y el control). Pero cuando se les
interroga sobre qué significa exactamente “explicar”, ese consenso parece
disolverse. La paradoja, o al menos la ironía, es que todos parecen reconocer una
buena explicación cuando la tienen en frente, pero al mismo tiempo les es difícil
determinar exactamente qué características debe cumplir una explicación para
ser considerada como satisfactoria.

En ciencias desarrolladas, como la física o la astronomía, el asunto no


parece ser de gravedad, dado que muchos científicos, si bien no pueden definir
con precisión qué es una buena explicación, sí pueden sin mucho trabajo
identificar ejemplos de buenas explicaciones y todo indica que habría
coincidencias importantes sobre cuáles explicaciones son las buenas. El problema
es más bien para las disciplinas en desarrollo, como la propia arqueología, en la
que precisamente una de las dificultades es llegar a acuerdos sobre cuáles son los
ejemplos de una buena explicación, o aún peor, si deberíamos intentar incluso
explicar.

Es en este tipo de casos cuando los científicos que normalmente


desconfían de la filosofía, incluyendo a la filosofía de la ciencia, encuentran útiles
(o al menos utilizables como fuentes de autoridad) los resultados de la filosofía de
la ciencia. Eso es exactamente lo que Binford hizo a mediados de los años de mil
novecientos sesenta, a sugerencia de su profesor Leslie White [Binford, ed. 1972:8].
Leyó un libro introductorio a la filosofía de la ciencia; pero no cualquier libro, sino
un clásico, un extraordinario ejemplo de divulgación: precisamente el libro de Karl
Hempel. Y resulta que este autor era ni más ni menos que el creador del modelo
sobre la explicación con mayor influencia en la filosofía de la ciencia (Hempel
and Oppenheim [1948], Hempel [1970 (original 1958)]).
191

El origen: la propuesta hempeliana


Lo que Binford parece haber ignorado es que, para el momento en el que
él incorpora lo que es uno de cuatro modelos hempelianos de explicación, la
propuesta de Hempel había sido puesta en duda prácticamente, con
contraejemplos que a veces el propio Hempel había identificado, pero que sus
detractores, por supuesto, proliferaron y diversificaron. En parte, el ataque no era
solamente al modelo de explicación y mucho menos a la persona de Hempel,
que parece haber sido una persona amable y gentil; era un ataque al
neopositivismo, la tradición a la que Hempel pertenecía y de la que era uno de
los pilares. Pero esto lo ignoraban Binford y sus seguidores, lo que hace irónico el
hecho de que un par de años antes de que se produjera el primer libro de texto
procesual [Watson, LeBlanc y Redman 1971], titulado ni más ni menos que “La
explicación en arqueología”70, en el que el modelo neopositivista era central,
Achinstein había publicado “La herencia del Positivismo Lógico”, con la clara
intención de indicar que dicho movimiento estaba muerto.

Lo que Hempel había intentado hacer, en cierto sentido, es lo que en


antropología llamaríamos ir de un enfoque emic a uno etic. Como se recordará
del Capítulo 5, en el primero, lo que el informante diga es la verdad final y la
concordancia con la visión del grupo estudiado es la validación de que la
reconstrucción de la cultura es correcta. En el segundo la visión es externa, del
analista y se intenta validar el análisis contra la propia realidad, aunque no
coincida con lo que los informantes piensen o su cultura sancione. Es decir, como
científico (Hempel era físico de profesión original y con credenciales impecables
al respecto), Hempel tenía una intuición emic de lo que era una explicación.
Pero, como filósofo y, en particular, como filósofo neopositivista, esta intuición no
era suficiente. Había que hacer un análisis “desde fuera”, que pudiera servir
cuando menos dos propósitos: identificar los componentes claves de una
explicación satisfactoria, por un lado; y por otro, servir como guía, en sentido
prescriptivo o al menos heurístico, en la construcción de explicaciones.

Pero el neopositivismo demandaba requerimientos adicionales,


congruentes con el énfasis de este grupo en valores como la claridad, la precisión
y el evitar a toda costa nociones “metafísicas” o “carentes de significado”. Y a
tono con su insistencia en que un buen análisis era uno que pudiera expresarse en
el formulismo de la lógica simbólica, el modelo de explicación resultante debería
capturar la forma esencial de las explicaciones, su carácter formal, también
llamado “sintáctico”; debía hacerlo sin referencia a otro tipo de consideraciones,
como las de tipo histórico, contextual o, curiosamente, las de uso del término,
llamadas ésta últimas “de tipo pragmático”. Es decir, una buena explicación era
una buena explicación a partir de sus características formales, que eran
independientes de quién pedía la explicación, en qué contexto o quién la

70
Por desgracia, la traducción española modificó el título original: la edición de Alianza
Universidad lo tituló “El método científico en Arqueología” [Watson, Le Blanc y Redman
1971].
192

proporcionaba. Estas características se consideraban anecdóticas y, en


consecuencia, no generalizables en un buen modelo.

Hempel fue claro desde el inicio en el sentido de que su análisis se limitaría


al concepto de explicación usado en la ciencia. Es decir, otros contextos de uso,
que marcan significados diferentes del término, serían omitidos de consideración.
Entonces quedaban fuera usos como el de “explicarle a alguien cómo” (en el
sentido de darle instrucciones, por ejemplo, cómo tocar la guitarra o llegar a una
dirección postal). Se entiende entonces que le interesaban las explicaciones que
los científicos ofrecen, fundamentalmente, a otros científicos. El punto es
importante, porque posteriormente su propuesta fue criticada por no ser de
suficiente amplitud y no analizar todos los contextos en el que el término
“explicación” es usado. Esa crítica me parece injusta.

¿En qué consiste su análisis? Obviando los detalles, para los que puede
consultarse el locus clasicus [Hempel 1965, reeditado en 1970] o el trabajo de
reseña crítica de autores posteriores, tanto en arqueología (como los ya
mencionados de Kelley Hanson, Wylie, Embers y Renfrew), como en la filosofía de
la ciencia (notablemente [Ruben 1990] y el propio Wesley Salmon [Salmon 1989],
entre otros), la idea fundamental es que las explicaciones son un tipo particular
de argumentos. Esto es, establecen las relaciones entre premisas y las
conclusiones que se derivan de ellas. Estos argumentos pueden ser de tipo
deductivo (el modelo clásico que Binford popularizó en arqueología) o de tipo
inductivo. En el primer caso, la conclusión del argumento se deriva con la fuerza
de la propia deducción y, por lo tanto, era una situación que era de esperarse
dadas las premisas. En el segundo, la conclusión típicamente se da con una alta
probabilidad. Veamos más de cerca la propuesta.

Las explicaciones intentan dar respuesta a preguntas de un tipo particular:


las de tipo “por qué”. Pero es importante aclarar que de hecho hay dos tipos de
preguntas “por qué” y que la explicación solamente intenta contestar a uno de
estos tipos. El primer tipo se llama “epistémico” y es el que empleamos cuando
queremos que nuestro interlocutor ofrezca las razones que tiene para creer en un
enunciado. Por ejemplo, si yo digo “La civilización maya clásica se colapsó
alrededor del año 900 d.C.”, es perfectamente legítimo que alguien me pregunte:
“Por qué dices eso”, en el sentido de “qué te lleva a creer que eso es cierto, que
realmente hubo un colapso maya”. Mi respuesta es ni más ni menos que una
justificación, en el sentido epistemológico que examinamos en el Capítulo 5. Es
decir, me piden las razones que tengo para creer que un evento o proceso
realmente ocurrió.

Algo muy distinto sucedería si lo que a mi interlocutor le interesa es saber


“¿Por qué se colapsó la civilización maya en el 900 d.C.?”. En este segundo caso
no se me pide que justifique mi creencia, sino que ofrezca un recuento de las
variables y condiciones que produjeron dicho colapso. Evidentemente, se asume
que tengo razones para pensar que ocurrió, pero lo que interesa ahora no es qué
me lleva a mí a pensar que ocurrió, sino por qué es que ocurrió. Normalmente eso
nos remite a las causas que pudieron estar operando para, en ciertas
193

condiciones, producir el colapso. Este segundo tipo de pregunta “por qué” se


llama, como es de esperarse, “por qué explicativo”. Y es el tipo de pregunta sobre
el que Hempel y otros analistas de la explicación centran su interés.

Así, toda explicación inicia con un “por qué explicativo”. Un ejemplo podría
ser “¿por qué no se encuentra evidencia ósea en este sitio?”. Si transformamos
ahora la pregunta en un enunciado aseverativo, se convierte, en la terminología
de Hempel, en el enunciado “explanandum”: es decir, el que describe lo que
queremos explicar. En nuestro ejemplo, si quitamos el “por qué”, nos queda: “No
se encuentra evidencia ósea en este sitio”. Este enunciado explanandum va a
funcionar como la conclusión del argumento explicativo. Las premisas que
permiten derivarlo constituyen lo que Hempel llama el “explanans”, o aquello
mediante lo que explicamos lo que queremos explicar. En su modelo, el
explanans incluye siempre al menos una generalización relevante e indispensable
para lograr un argumento válido. Dependiendo del tipo de explicación (Hempel
propone cuatro modelos diferentes), puede incluir además enunciados
particulares de condiciones antecedentes. Juntos constituyen el explanans y
deben permitir, mediante el formato de inferencia conocido como “modus
ponens” en lógica, derivar el enunciado explanandum. Esta derivación no
siempre es deductiva, aunque las variantes más conocidas del modelo son las de
la explicación llamada “nomológico-deductiva”.

La terminología hace que el modelo suene más complicado de lo que


realmente es. Si regresamos a nuestro ejemplo podemos ver que en realidad es
simple. Si nuestro interés es explicar por qué en este sitio no hay evidencia ósea,
nuestro explanandum sería: “No se encuentra evidencia ósea en este sitio”.
Requerimos ahora cuando menos una premisa de orden general y dado que se
hace referencia a un sitio en particular, cuando menos una premisa de orden
particular en la que el sitio se mencione.

Un buen candidato para principio general sería el bien conocido principio


general de que el hueso no se conserva en suelos ácidos. Si el sitio en cuestión
tiene suelos ácidos, este hecho particular, combinado con el principio general
mencionado, son suficientes para proporcionar una posible explicación:

Pregunta explicativa: “¿por qué no se encuentra evidencia ósea en este


sitio?

Enunciado explanandum: No se encuentra evidencia ósea en este sitio

Argumento explicativo
Explanans PG1: La evidencia ósea no se conserva en suelos ácidos
CA1: Este sitio tiene suelos ácidos
(por lo tanto) ------------------------------------------------------
Explanandum No se encuentra evidencia ósea en este sitio

Este ejemplo pertenece al primero de los cuatro modelos hempelianos (el


de la explicación de eventos particulares); los otros tres serían el de explicación
194

deductiva de generalidades, el de la explicación deductiva estadística y el de la


explicación estadística inductiva. No es necesario que entremos a los detalles de
estos modelos, salvo quizá presentar un ejemplo del segundo, en el que nos
interesa explicar una generalidad. Ello requiere, típicamente, una generalidad de
orden mayor. En el caso de nuestro ejemplo, quizá lo que ahora motiva nuestra
curiosidad ya no es el que no aparezcan restos óseos, sino el por qué en los suelos
ácidos no se preservan dichos restos. Así ahora:

Pregunta explicativa: ¿Por qué en los suelos ácidos generalmente no se


preserva la evidencia ósea?

Enunciado explanandum (que se logra eliminado la pregunta y dejando


solo al enunciado): En los suelos ácidos generalmente no se preserva la
evidencia ósea

Argumento explicativo
Explanans PG1: El material óseo es rico en compuestos de calcio y otras
sustancias alcalinas
PG2: La reacción de una sustancia alcalina ante un ácido
es la su disolución y la formación de sales y agua (con una
pequeña liberación de calor)
PG3: Las sustancias alcalinas de los huesos interactúan con
los suelos ácidos lo que reduce la probabilidad de su
preservación
(Por lo tanto) ---------------------------------------------------------------------------
Explanandum: En los suelos ácidos generalmente no se preserva
evidencia ósea

El interés de ambos ejemplos es mostrar, en primer lugar, que los términos


que aparecen en el enunciado explanandum deben estar contenidos ya sea en
los principios generales (PG) del explanans o, en su caso, en las condiciones
antecedentes (CA). En el primer caso hay cuando menos una que hace mención
a un sitio en particular; en el segundo, que es la explicación de principios
generales, no se requiere mención a condiciones antecedentes y las premisas
involucradas son todas de orden general. De hecho pudimos haberlas formulado
en toda su generalidad, anteponiendo la cláusula “En todos los casos…”; y, en
segundo lugar, el que, como en nuestro ejemplo, la explicación de un evento
particular mediante un principio general puede, en un segundo momento
llevarnos a buscar la explicación de ese principio general en términos de
principios aún más generales.

En estas dos variantes (así como en las dos restantes que no trataremos
aquí), como se verá, es necesario involucrar principios generales. De otra manera,
el juicio ya no es válido: de la premisa particular “En este sitio hay suelos ácidos”,
no se sigue “No se encuentra evidencia ósea en este sitio”. Uno de los términos
del enunciado a explicar “evidencia ósea” simple y sencillamente no aparece en
la premisa particular, por lo que el juicio no resulta válido. Nótese también que el
195

principio general involucrado (y en su caso, los enunciados de condiciones


antecedentes) deben ser también pertinentes al caso (indispensables para la
deducción). Considérese, por ejemplo:

Explanans:
PG1: Todos los gases se expenden cuando se les aplica
temperatura
(mientras la presión se mantiene constante)
CA1: En este sitio hay suelos ácidos
(Por lo tanto) ------------------------------------------------
Explanandum No se encuentra evidencia ósea en este sitio

Claramente, el principio general involucrado no es relevante al argumento,


dado que no aparecen los términos que aparecen en el explanandum;
notablemente, la inexistencia de evidencia ósea.

O bien este ejemplo:


Explanans PG1: La evidencia ósea no se conserva en suelos
ácidos
CA1: En este recipiente el gas contenido está a presión
constante
(Por lo tanto) ------------------------------------------------
Explanandum No se encuentra evidencia ósea en este sitio

En este caso el principio general es relevante: términos como “evidencia


ósea” aparecen; lo que falla es la condición antecedente, que no tiene nada
que ver con lo que nos interesa explicar y cuyo papel sería conectar el principio
general a nuestro caso de estudio, identificado aquí como “en este sitio” en el
explanandum. En este caso, como en el anterior, el argumento resultante es
inválido, con lo cual la explicación ya no es válida.

La belleza de este modelo es que, en plena concordancia con las


intenciones neopositivistas, puede reducirse a su expresión formal, también
llamada “sintáctica”; es decir, podemos incluso prescindir del contenido
específico del argumento para establecer la forma lógica que debe cumplir.
Veámoslo con el caso de la explicación de eventos particulares: la fórmula es

Explanans:
PG1: Para todo caso del tipo x, si el caso tiene la
propiedad P, entonces tiene la propiedad Q
CA1: Este es un caso de tipo x, y tiene la propiedad P
(por lo tanto) ----------------------------------------------------------
Explanandum: El caso tiene la propiedad Q

De hecho, hay quien reduce este argumento a su forma lógica aún más
básica:
196

Si P, entonces Q
P
(por lo tanto) ----------
Q

Esta es ni más ni menos que la estructura del tipo de argumento conocido


en lógica como modus ponens.

De nuevo, no hay que dejar que la presencia de variables (que nos


recuerdan a las temidas matemáticas de las que claramente creíamos haber
escapado estudiando arqueología), nos intimide o confunda el panorama.
Regresando a nuestro ejemplo, en el caso del principio general 1, simplemente
estamos diciendo que, , en todos los casos de sitios con suelos ácidos (propiedad
P) generalmente no se conserva la evidencia ósea (propiedad Q); la condición
antecedente 1 indica que el caso, nuestro sitio, es un caso de ese tipo, por lo que
tiene la propiedad de tener suelos ácidos (propiedad P), lo que nos autoriza a
inferir, deductivamente, el caso (nuestro sitio) tiene la propiedad Q. Dicho de otra
manera, que era de esperarse que, dado el principio PG1 y la condición
antecedente CA1 (que conjuntamente constituyen el explanans), se diera la
situación que nos interesaba explicar (el explanandum). Este rasgo resultará,
como veremos adelante, crucial: el de que la explicación hace que el
explanandum fuera de esperarse.

¿En virtud de qué es que habría que esperarlo? En virtud de los principios
generales involucrados, de las condiciones antecedentes y del carácter
deductivo del argumento. Hempel utiliza el término “Ley” en vez de principio
general. Ley en griego es “nomos”. Juntando estos elementos, es fácil entender
por qué este primer modelo de explicación se conoce como “Nomológico
deductivo de particulares”, ya que hace referencia al papel indispensable de
estas leyes (que yo prefiero llamar simplemente “principios generales”) y a la
naturaleza deductiva del argumento involucrado. También es fácil entender por
qué, al requisito de que una buena explicación haga de aquello que queríamos
explicar algo que era de esperarse, se le llama “expectabilidad nómica”, de
nuevo por referencia a nomos, o ley. El evento explicado era de esperarse en
función de las leyes o principios generales involucrados, dado que dichos
principios establecen que para todos los casos de un cierto tipo, si tienen la
propiedad P entonces es de esperarse que tendrán la propiedad Q.

La simplicidad de este modelo (sobre el que centraremos nuestra atención)


es sin duda admirable. Su utilidad práctica y heurística son también, en principio,
claras: ¿tengo duda si una explicación de eventos particulares es satisfactoria?
Fácil: cotejo que tenga los componentes requeridos: principios generales y
condiciones antecedentes particulares ambos relevantes (indispensables para la
explicación) y que el argumento siga fielmente la lógica deductiva del modus
ponens.
197

En la vida real, sin embargo, las cosas se complican (o se simplifican),


precisamente por aspectos que tienen que ver con quién pide una explicación,
en qué contexto y quién la proporciona, es decir, aspectos de uso, o
“pragmáticos”. Se simplifican, porque entre arqueólogos quizá no es necesario
establecer el argumento completo y explicitar las premisas. Si un colega me
pregunta por qué en mi sitio no hay evidencia ósea, simplemente le contesto
“¡suelos ácidos!” y no necesito decir más. De hecho, si lo hago, seguramente mi
interlocutor me considerará un petulante o se ofenderá de lo que quizá le
parezca una actitud condescendiente de mi parte. Es decir, en ocasiones, como
señalaba el propio Hempel, las explicaciones son “elípticas”, ya que solamente
asumen, sin explicitar, el conjunto de las premisas ni el argumento deductivo en su
conjunto.

Y se complican, porque si mi interlocutor es una persona del público


general, y le contesto: “suelos ácidos”, no entenderá nada y, dependiendo de sus
conocimientos de química, deberé explicitar no solamente la explicación entera,
sino seguramente pasar luego a explicar por qué, en general, los huesos no se
preservan en suelos ácidos, lo que quizá requiera ahora explicar por qué la
reacción de ácidos con álcalis; y si el interlocutor es una de esas gentes
inteligentes y deseosas de aprender, quizá nos ponga en aprietos preguntando
ahora por qué es que ácidos y álcalis reaccionan como lo hacen, lo que llevaría
a una discusión de la estructura atómica, misma que, en mi caso, yo ya no podría
sostener. O quizá si pudiera, llegaría el momento en que, a partir de la relación
que he llamado “cadena explicativa” llegara a un punto en donde la
incapacidad ya no fuera solamente mía, sino del conocimiento científico de ese
momento: por qué ciertas subpartículas parecen tener un giro hacia la izquierda
o a la derecha, por ejemplo… Quizá hasta el más ducho de los físicos tendría que
reconocer que, o aún no sabemos, o recurrir a lo que hemos llamado
“ontologización”: “¡porque así es la vida!”, “¡porque así son esas subpartículas!”

Este tipo de problemas, de orden pragmático, eran reconocidos por


Hempel. Pero al parecer, nunca esperó que tuvieran un impacto tan fuerte sobre
su modelo como eventualmente lo tuvieron. Pero me estoy adelantando. Antes
de que esas dificultades saltaran a la vista, aparecieron primero otros problemas,
de corte formal, algunos de los cuales Hempel alcanzó a resolver, pero muchos
otros, como veremos, no.

La caída del modelo hempeliano


La insistencia en que un modelo formal, sintáctico, resolviera el asunto de
los criterios de adecuación para una explicación pronto resultó ser más que una
solución, la fuente de los problemas para Hempel. Como decíamos, algunos no
solamente los reconoció, sino que en un acto de honestidad intelectual que
habla de su entereza como ser humano, él mismo fue el primero en señalarlos. En
ocasiones logró solventarlos, pero a medida que se multiplicaban los
contraejemplos, es decir, los ejemplos que aparentemente satisfacían sus
requerimientos pero resultaban inaceptables como explicaciones, se empezó a
198

generalizar una sensación de que la propuesta hempeliana tenía defectos de


origen, que a primera vista lucen insuperables.

Algunos son de orden un tanto técnico, que nos tomaría mucho espacio
intentar clarificar aquí (aunque, de nuevo, el lector interesado puede recurrir a los
recuentos ya mencionados, o a una versión resumida [Woodward 2003].
Pero, para muestra, un botón: resulta que una explicación del tipo:

Los hombres que toman anticonceptivos no se embarazan


El Sr. Jones toma cotidianamente anticonceptivos
-----------------------------------------------------------------
El Sr. Jones no se embaraza

Es una explicación que cubre los requisitos para el modelo de explicación


de eventos particulares, pero resulta a todas luces insatisfactoria. Cuando el Dr.
Railton lo presentó en clase, en el curso de Filosofía de la Ciencia durante mi
estadía en Michigan yo recuerdo claramente haber saltado de mi asiento y
protestar, furioso:
- “Eso es falso, no puede valer como un contraejemplo del modelo
hempeliano”. Con paciencia ejemplar, Railton me llevó de la mano:
- “¿Qué parte es falsa?”, preguntó: “¿El principio general?”(Los hombres
que toman anticonceptivos no se embarazan); “¿Conoces algún caso de algún
hombre que lo haya hecho y esté embarazado?”
- “¡Por supuesto que no!”.
- “Entonces”, continuó, “¿será a caso el reporte de que el Sr. Jones toma
anticonceptivos? Porque tenemos evidencia independiente de que el Sr. Jones es
muy especial, medio supersticioso y un tanto paranoico y que jamás dice
mentiras. Además, tenemos videos que muestran su conducta cotidiana y otras
líneas de evidencia intachable. Así que espero tu duda no será sobre la condición
antecedente…” (El Sr. Jones toma cotidianamente anticonceptivos)
-“No - contesté - me imagino que tenemos que tomar el reporte como
bueno –de todas manera el caso es inventado…”.
- “Entonces”- siguió- “quizá lo que te parece falso es el evento del que
habla el explanandum” (El Sr. Jones no se embaraza). De nuevo tuve que
reconocer que no era falso. “O quizá pones en duda la validez lógica del
argumento…”. Tampoco. Era impecable. “O el carácter de relevancia de
principios generales y condición antecedente”. Tampoco. “Si es así, entonces es
necesario reconocer que esta explicación cumple los requerimientos originales de
Hempel, pero sigue siendo totalmente insatisfactoria”.
- “En efecto”- tuve que reconocer- frustrado de no poder hacer una mejor
defensa de lo que me parecía un modelo de gran relevancia para la
arqueología.

El autor del contraejemplo (o al menos el que lo popularizó), fue Wesley


Salmon. Era parte de un intento de mostrar que los requisitos formales propuestos
por Hempel no eran suficientes. Es decir, seguramente faltaba algo. Otros autores
siguieron una ruta diferente: mostrar que los requisitos no eran necesarios. El
resultado conjunto: el modelo hempeliano, se dijo, no es ni necesario ni suficiente
199

para una buena explicación. Hempel intentó fortalecer los requisitos (inclusive
hablando de aspectos que ya no eran formales, sino históricos y de contexto). Por
ejemplo, que en el caso del ejemplo del Sr. Jones lo que sucede es que dentro
del cuerpo antecedente de conocimientos disponibles actualmente, existe un
principio general que es preferible al usado en la explicación y es el principio de
que los hombres, tomen o no anticonceptivos, no se embarazan, porque los
hombres simplemente no se embarazan, lo que arroja una explicación más
satisfactoria:“¿por qué el Sr. Jones no se embaraza? Porque es hombre y los
hombres no se embarazan”. Con ello queda solventada la situación, pero a costa
de relativizar cuándo una explicación es satisfactoria a un estado de
conocimiento en un momento determinado. Ello implica que habría explicaciones
que eran satisfactorias y ya no lo son, o a la inversa (y mucho peor), que las
explicaciones satisfactorias hoy pudieran ya no serlo mañana, con lo que el
proyecto de un modelo estrictamente en términos formales, sintácticos, que
tuviera poder prescriptivo y ya no solamente descriptivo, se viene abajo.

Otras dificultades tuvieron que ver con otras partes del programa
neopositivista más amplio. Por ejemplo, en cuanto a la noción de ley. El
neopositivismo es una forma de empirismo (de hecho, el nombre de la tradición
una vez que los autores centrales escaparon de la persecución nazi y se instalaron
en Estados Unidos, fue precisamente el de empirismo lógico). Ello implica que,
seguidores de la herencia del gran filósofo del siglo XVIII, Hume, para ellos las leyes
no son más que conjunciones constantes de fenómenos. Es decir, no hay nada
por encima o detrás de la evidencia empírica a la que tenemos acceso;
simplemente observamos que cada vez que ocurre P ocurre Q y por costumbre y
facilidad, formulamos esa regularidad observada como ley, pero no podemos
asumir de nuestras observaciones que haya algo en P que necesariamente
conduzca a que Q ocurra. Es decir, las leyes son solamente reporte de
regularidades empíricas.

Pero esta concepción tiene un costo altísimo: ya no hay manera de


distinguir fácilmente entre las leyes genuinas y las generalizaciones accidentales
(para ver otras ramificaciones de este análisis, la excelente antología de Sosa es
un buen punto de partida [Sosa 1975]). El ejemplo típico es la gente de un salón
de clase. Podemos afirmar, si ese salón es el mío en La Piedad, Michoacán, que
todos los asistentes tienen menos de 56 años (al momento de escribir esto). Pero
eso es accidental, aunque en ese momento sea verdadero. Si mi salón usa ahora
a Sanders, esa generalización ya no es verdadera. ¿Cómo reconocer las
generalizaciones verdaderas de las accidentales, o de las meras correlaciones,
como la que se ha observado en París, que establece que la cantidad de
nacimientos aumenta exactamente cuando llegan las cigüeñas? O en un caso
mucho más relevante por sus consecuencias e importancia histórica: el intento de
la industria del tabaco por insinuar que más que causar cáncer el cigarro, ¿era la
predisposición al cáncer lo que llevaba a la gente a fumar? Compárese con
situaciones en donde tengo en un contenedor muchas muestras de carbón (el
elemento químico) y son puras -no inestables- todas tienen un peso atómico de
12; y si pongo una muestra más, también esa tendrá el mismo peso; o, con dolor
de la industria tabacalera, fumar causa cáncer en un muy alto número de casos.
200

Es decir, lo que falta en el modelo neopositivista de ley es precisamente la


idea de causalidad. Pero Hume había descartado que existiera algo tal como las
causas. Este concepto parecía (¡y es!) metafísico, es decir, está más allá de lo que
podemos observar directamente. Sin embargo, sin él, se producen todo tipo de
anomalías en el modelo hempeliano. Mientras que podemos decir que la altura
de un asta bandera explica la longitud de la sombra que ésta proyecta en un
determinado momento de un día soleado, lo contrario no tiene sentido: no
podemos explicar la longitud del asta bandera en función de su sombra (en un
contraejemplo propuesto por Bromberger). De hecho, el contraejemplo del Sr.
Jones es relevante aquí: la generalización de que los hombres que toman
anticonceptivos no se embarazan es accidental precisamente porque no va a la
causa real del fenómeno de interés y que tiene que ver con que los hombres no
se embarazan.

Esto es, ahora se sumaban dos problemas al problema formal: no poder


contar con un concepto de ley que permita diferenciar entre leyes genuinas y
generalizaciones accidentales (y que, a pesar de varios esfuerzos, los
neopositivistas no lograron resolver); y el que al eliminar el concepto de causa, la
distinción necesaria parece a primera vista imposible. Aunados a un tercer
problema, la negativa del neopositivismo a hablar sobre verdad y preferir términos
como “asertabilidad garantizada” (es decir, un término epistémico, relativo al
sujeto, con el fin de evitar un término ontológico, relativo a la realidad), la
situación casi se hace insalvable: considérese por ejemplo (tomado de [Kyburg
1965]):

Toda la sal a la que se aplica un embrujo de disolución se disuelve en agua


La sal que está en el vaso recibió un embrujo de disolución
--------------------------------------------------------------------------
La sal se disolvió en el agua

Sin una noción de verdad y de causalidad, el ejemplo tiene que


considerarse como legítimo de acuerdo con el modelo formal hempeliano.
Nótese, dicho sea por justicia, que en sus últimos escritos Hempel rompió con la
tradición neopositivista y empezó a utilizar con liberalidad ambos términos. Pero el
daño estaba hecho. Para el momento en que Binford introduce el modelo
hempeliano a la arqueología, el consenso de buena parte de la filosofía de la
ciencia era que este modelo había sido refutado.

Un vistazo a lo que pasó después: los modelos pragmatistas, de


relevancia estadística (SR), causal, unificacionistas
De los cuatro modelos hempelianos hemos revisado dos (el deductivo de
eventos particulares y el deductivo de generalidades). El tercero es el de la
explicación deductivo estadística, parecido al segundo, con la diferencia de que
las leyes a explicar involucran principios probabilísticos, estadísticos. El cuarto
siempre fue el más problemático, según el propio Hempel reconoció. Es el
201

inductivo-estadístico, en el que se trata de explicar un evento particular bajo una


ley o principio general estadístico. Es problemático, porque a diferencia de los tres
primeros, en que la conclusión se sigue (es de esperarse) con certeza deductiva,
en este último caso, al tratarse de leyes probabilísticas, no hay certeza de que el
resultado debía esperarse. Y ello viola una característica implícita en los cuatro
modelos, el de la expectabilidad nómica: explicar un evento es mostrar por qué
dicho evento era de esperarse, dadas las leyes y las condiciones antecedentes
involucradas.

Así, si queremos explicar por qué Jones desarrolló la enfermedad llamada


paresis, acudimos a un principio general que dice que, en una proporción de
casos de sífilis no tratada de manera oportuna, se desarrolla la paresis. Pero resulta
que la proporción en que se desarrolla esta condición es realmente menor a
aquella en que no se desarrolla. Es decir, lo que habría que esperar es que no se
desarrolle. Dicho de otra manera, no se cumple con la intuición de que el
explanans debería hacer muy probable el explanandum para considerar como
satisfactoria a la explicación. Pero si se requiriera que el evento sea altamente
probable, entonces la ciencia tendría que renunciar a explicar eventos que
tienen baja probabilidad, cosa que en la vida real no hace, notablemente en la
física actual, que es prácticamente probabilista. Así es que hay aquí un problema
con la idea misma de la expectabilidad nómica.

Algunas de las propuestas que siguieron a las críticas intentaban, como el


propio Hempel, afinar esta y otras de las dificultades mencionadas. Eran, en cierto
sentido, extensiones y ajustes de la propuesta. En el proceso, sin embargo, era
notorio que añadían elementos no necesariamente contemplados en el plan o
estrategia general neopositivista.

Un intento temprano fue el de Salmon, que implicaba un alejamiento


importante de la intuición de Hempel. Salmon, trabajando precisamente sobre las
dificultades del modelo de explicación inductivo-estadística, encuentra una
solución que le hace pensar que el problema no se reducía a ese modelo, sino a
la propuesta en su conjunto. Su solución evita algunas de las dificultades
mencionadas. El modelo, llamado de relevancia estadística (o SR, por sus siglas en
inglés), propone que no explicamos cuando mostramos que el explanandum era
de esperarse (como resultado de un argumento lógico), sino cuando mostramos
que cierta partición de la realidad, en la que cae el ejemplo a explicar, hace más
probable que éste ocurra, que otra partición de la realidad en la que no ocurre.
Los detalles técnicos del modelo no nos interesan aquí (de hecho, Salmon
abandonó posteriormente la propuesta); pero la intuición básica es clara: si bien,
en el ejemplo del Sr. Jones que desarrolla paresis este resultado es de menor
probabilidad que el que no la hubiera desarrollado, sin duda el hecho que de
que haya tenido previamente sífilis es relevante a que ahora haya desarrollado
paresis y ello es más probable que suceda a pacientes no tratados de sífilis que a
aquellos que no padecieron la enfermedad. Es decir, el ser parte de un conjunto
conformado por aquellos que tuvieron sífilis, hace más probable que desarrolle
paresis que si estuviera en un conjunto de personas que no sufrieron de sífilis. Algo
similar puede decirse del contraejemplo en que el Sr. Jones no se embaraza: el
202

que haya tomado anticonceptivos no es estadísticamente relevante a que no se


embarace, dado que cualquier manera estar en el conjunto de los que toman
anticonceptivos no cambia la probabilidad del embarazo, comparado a el de
estar en el conjunto de las mujeres, para las que tomar anticonceptivos afecta su
posibilidad de embarazarse. La moraleja sería que el factor citado como
explicativo debe ser estadísticamente relevante, y que la ingesta de
anticonceptivos por parte del Sr. Jones no lo es.

Explicar, bajo esta propuesta, no asume ya la forma de una inferencia


deductiva o inductiva. Es decir, ya no es un argumento lógico, sino un conjunto
de información cuyo propósito es el establecimiento de clases estadísticas
(conjuntos) de contraste, con probabilidades diferentes de ocurrir que, aunque
sean bajas, permiten entender por qué el explanandum sucedió, aunque no era
de esperarse en el sentido nómico. Salmon luego abandonó esta propuesta,
retomando de ella lo que consideró el centro: el que la relevancia del factor
citado como explicativo depende precisamente de que es causal de aquello
que quiere explicarse. Es decir, la diferencia entre los casos que contienen la
variable de interés (que genera la partición en clases o conjuntos relevantes) y los
que no, radica en que la variable citada es no solamente estadísticamente
relevante, sino causalmente relevante. Este cambio lo hace cuando, ya
aparentemente derrotado el modelo de Hempel, las baterías se enfilaron pronto
contra el modelo SR de Salmon, por lo que empezaron ahora a proliferar
contraejemplos centrados en generar particiones basadas en meras
correlaciones estadísticas, que fallaban en ser explicativos precisamente por no
implicar una conexión causal.

Un caso diferente fue el de Railton, resultado también de una intención


original de mejorar el modelo de la explicación inductivo-estadística de Hempel,
que tuvo como resultados laterales dos importantes contribuciones: una, la de
destacar que quizá lo central en la explicación no es la propia expectabilidad
nómica, sino la elucidación de los “mecanismos causales” involucrados. En este
sentido, se anticipa o avanza en paralelo, aunque de manera independiente, al
desarrollo de Salmon. La intuición básica es en cierto sentido similar: si bien no
podemos predecir qué electrón particular cambiará de órbita en un átomo
inestable, si comprendemos el mecanismo causal involucrado entenderemos
que, en un intervalo de tiempo T, una determinada proporción de electrones
cambiará de órbita con una probabilidad P, lo cual constituye una explicación
de este cambio. Es decir, se reduce quizá el énfasis sobre la expectabilidad, pero
se redobla en el interés sobre los mecanismos causales.

La segunda contribución de Railton fue la idea de un “texto explicativo


ideal”. Este sería el texto que, si tuviéramos tiempo y conocimiento infinitos,
podríamos construir para proporcionar una explicación perfecta, una que daría
respuesta a diferentes interlocutores, al contener el conjunto entero de los
principios y condiciones antecedentes que a veces se omiten en ciertos
contextos. Con ello se intenta enfrentar el problema del carácter pragmático de
la explicación que los filósofos neopragmatistas habían explotado mediante
contraejemplos a los modelos hempelianos.
203

Van Fraassen [Salmon and McLaughlin 1982; Van Fraassen 1980, 1991
(original 1977)] y Bromberger [1970 (original 1966)] son quizá los críticos más
conocidos de Hempel desde el campo neopragmatista. El centro de su
propuesta es que es imposible generar un modelo formal, con requisitos
universales de adecuación, que resuelva todos los casos de explicación,
incluyendo los de las explicaciones cotidianas. Debe considerarse, en cada caso,
el interés de quien realiza la pregunta “por qué” (y Van Fraasen avanzó mucho a
favor de nuestra comprensión de las preguntas de este tipo), así como el
contexto y el interlocutor.

Sobre líneas similares, aunque mucho más radical, fue la propuesta de otro
autor neopragmatista, Achinstein [1983], que desglosa precisamente diferentes
tipos de contextos, para señalar que en algunos no se requiere de un argumento,
ni de establecer clases de contraste de relevancia estadística (contra Salmon),
sino que una sola palabra basta. Es el caso del ejemplo en que señalar
simplemente “suelos ácidos” se considera una explicación adecuada a que no se
encuentren restos óseos humanos. Achinstein profundiza la manera en que la
lógica de la pregunta por qué y su respuesta dificultan una solución de orden
general, por el llamado “problema del énfasis”, que es normalmente no
capturable cuando se trata de formalizar un argumento explicativo. Un ejemplo
puede ayudar a tener, cuando menos, una pequeña muestra del tipo de
dificultades que tiene en mente. Si pregunto “Por qué regresó ella en este
momento”, puedo estar queriendo que me contesten por qué regreso ella y no
otra persona: “Por qué regresó ella en este momento”; o por qué en ese
momento y no en otro: “Por qué regresó ella en este momento”; o por qué
regresó en vez de quedarse en donde estaba: “Por qué regresó ella en este
momento”. Claramente, argumenta Achinstein, la explicación en cada caso sería
diferente. Pero las cosas no mejoran si restringimos la discusión simplemente a los
casos científicos, dado que, de nuevo, dependiendo del tipo de interlocutor y el
contexto, se considerarán perfectamente adecuadas explicaciones que no son,
en absoluto, argumentos completos y mucho menos formalizables mediante los
recursos de la lógica formal.

Curiosamente, Achinstein prefiere referir la idea de explicación a la de


comprensión interpretativa en un extraño giro -para ese momento histórico- hacia
la hermenéutica. Esta solución permite un concepto de explicación muy amplio,
centrado en aquello que nos permite lograr una comprensión, pero nos deja a
oscuras en cuanto a qué, exactamente, significa lograr una comprensión, dado
que Achinstein prefiere considerar a este término como “primitivo”, es decir, un
término que no requiere o no puede ser definido.

La defensa del modelo hempeliano de ataques de tipo pragmático (una


vez reconocida la importancia de los aspectos pragmáticos y la imposibilidad de
que los criterios sean solamente sintácticos, formales), ha sido el proponer que
explicaciones como “suelos ácidos” son en realidad elipsis, o bien “bocetos
explicativos” que no han sido todavía desarrollados. De ahí que la idea de un
“texto explicativo ideal” permitiría recuperar la idea de que, en el límite, todas las
204

explicaciones, si se desarrollaran y explicitaran al máximo, acabarían teniendo la


forma de argumentos como Hempel proponía.

Woodward ha llamado a los intentos de este tipo “argumentos sobre la


estructura escondida” de la explicación. Son relevantes no solamente a las
críticas de los neopragmatistas, sino que de hecho responden a críticos aún
anteriores, como Scriven, cuyo interés era otro: mostrar que existen explicaciones
que no requieren principios generales. En particular, Scriven [1958, 1962], un
historiador y filósofo de la historia, propuso que no hay nada de nomológico en
que, a la pregunta, “¿por qué hay una mancha de tinta en la alfombra?” yo
responda simplemente que “golpeé con la rodilla la mesa y derribé el tintero”.
Suponer la existencia de una ley sobre tinteros y manchas es absurdo, sostenía
Dray, para quien la historia y las ciencias sociales no podrían nunca satisfacer los
requerimientos del modelo hempeliano al no contar con leyes. Pero tampoco
tenían por qué hacerlo: la explicación histórica, sostenía, no tiene por qué
compartir la misma estructura. Puede haber explicación sin leyes.

Hempel contestó en su momento que el ejemplo de Scriven, para ser


realmente explicativo, lo que hacía era tomar como supuestos ciertos principios
generales que se mantenían implícitos [Hempel 1970 (original 1965)]. Estos eran,
por supuesto, no leyes sobre manchas y tinteros, sino sobre la inercia de objetos al
ser golpeados con cierta fuerza, el efecto de la gravedad al perder sustentación
y su fragilidad ante el resultante golpe, así como otros sobre la absorción de
líquidos por capilaridad, etc. Es decir, que detrás de la aparentemente simple
narrativa de Scriven existían por supuesto principios generales que estaban
simplemente implícitos. De ahí que Woodward [2003] le llame a este tipo de
soluciones “argumentos de la estructura oculta”, dado que asumen que, detrás
de esas explicaciones aparentemente diferentes en estructura a los modelos
hempelianos, existe en realidad un argumento que podría desarrollarse (en el
sentido del texto explicativo ideal de Railton [1978, 1981], momento en el que la
estructura hempeliana sería visible.

Como Woodward señala, es curioso que Hempel y sus discípulos, como el


propio Railton, tomaran esta ruta y no la de sostener que los modelos hempelianos
no pretendían explicar casos de la vida cotidiana fuera de la ciencia, o los
bocetos explicativos y las explicaciones elípticas. En el intento de enfrentar esos
casos, es evidente que hay un deseo implícito por mostrar que la explicación
científica no es sino la expresión más acabada del proceso general de explicar
qué ocurre en la propia vida cotidiana. Es decir, no debería haber grandes
discontinuidades en la estructura de ambos tipos de explicación. Hempel fue un
decidido defensor de que incluso en la historia hay leyes, aunque estas no sean
de tipo cuantitativo y no siempre se expliciten. Este punto de vista de la
“estructura oculta” resultará, como veremos adelante, crucial para los propósitos
de esta tesis.

La idea de que hay que distinguir los episodios concretos de explicación


(científica o del sentido común) de la estructura de la explicación y del caso
extremo de un “texto explicativo ideal” no se reduce solamente a los seguidores
205

de Hempel que intentaban mejorar sus propuestas. Kitcher [Kitcher and Salmon
1989], quien sostiene que su modelo es alternativo al de Hempel, requiere de una
distinción similar. En su propuesta, el centro de la explicación no es la
expectabilidad nómica, sino la capacidad de una explicación de darnos una
imagen cada vez más unificada del mundo. Para ello requiere tanto de principios
generales como de relaciones deductivas, dado que la idea global es que al
explicar eventos mediante generalizaciones y luego estas generalizaciones en
virtud de generalizaciones cada vez más amplias, lo que hacemos es, en efecto,
reducir el número de factores y variables que determinan cómo son las cosas en
la realidad. Pero en la vida real no siempre se explicitan todos estos
componentes, e incluso, como señalaron los críticos pragmatistas, tampoco
sucede necesariamente así cuando un especialista le da a un colega igualmente
capacitado una explicación.

La idea central de estas propuestas es que en cierto sentido, es como si las


explicaciones estuvieran anidadas. En la versión de Kitcher, este anidamiento es lo
que caracteriza precisamente su función como explicaciones y las hace
deseables desde el punto de vista cognitivo. En el caso de Railton, la idea es que
con tiempo y conocimiento infinitos podríamos explicitar todas las conexiones
involucradas. Pero, como señala de nuevo Woodward, la idea de explicaciones
que “subyacen” a otras explicaciones o están de alguna manera implícitas no es
suficientemente clara. En el ejemplo de Scriven sobre la mancha de tinta, hasta
dónde debemos llevar esa relación de subsunción: a la mecánica de cuerpos
inelásticos, o

“… a aquella en que la conducta del sistema total se caracteriza en


términos de alguna teoría física más fundamental (la mecánica
cuántica o la teoría de las supercuerdas, etc.). ¿Están todas estas
explicaciones implícitas (…) o [el ejemplo de Scriven] ofrece
información parcial sobre todas ellas? ¿En qué sentido de ‘implícito’
o ‘proporciona información sobre’ podría esto ser cierto?”
[Woodward 2003: Sin paginación en la versión en línea].

La crítica es de interés dado que pone en duda el criterio detrás de la idea


del texto ideal (o de la explicación implícita subyacente a otra explicación), que
es el de reducir la incertidumbre sobre alguna propiedad del texto, al eliminar
ciertas posibilidades de su estructura. Intuitivamente, cuando explicamos al
menos parcialmente algo, reducimos el número de posibles explicaciones
alternativas. Pero Woodward señala que este requerimiento permite que
entonces, incluso un señalamiento como “eso es inexplicable”, sea máximamente
explicativo, al eliminar cualquier otra posibilidad en el texto explicativo ideal: sería
el texto explicativo ideal, pese a que no explica nada. La objeción es importante,
aunque no podemos detenernos en los detalles aquí, salvo por la conexión entre
explicación y entendimiento, a la que regresaremos más tarde (pero véase
Woodward, op. cit). El asunto es relevante para esta tesis, porque –para mi
sorpresa cuando leí a este autor- mucha de mi argumentación hace uso de la
idea de una “estructura escondida”, que remite o a explicaciones subyacentes al
estilo de Kitcher, o a un texto ideal explicativo al estilo de Railton.
206

Para la década en la que centramos nuestro interés en esta tesis, habían


sido aceptadas como dos posibles candidatas a reemplazar el modelo
hempeliano la propuesta de “explicación causal” del Salmon (que reemplazó la
de “relevancia estadística” previamente defendida, aunque en una versión
posterior la reintroduzca) y la de la explicación como unificación de Kitcher. En
ambos casos los modelos ya no intentan ser modelos sintácticos, completamente
formalizados, lo que es congruente con el declive del interés en utilizar a la lógica
formal como el recurso que capturaría el lenguaje científico sin ambigüedades y
con gran claridad que caracterizó al neopositivismo. Hemos dicho, a grandes
rasgos, en qué consiste la propuesta de Kitcher: explicamos cuando
proporcionamos un recuento que unifica un rango amplio de fenómenos, de la
manera en que la teoría newtoniana unificó a dos de las teorías previas sobre los
movimientos planetarios, o cuando Maxwell logró una teoría que unifica el
magnetismo y la electricidad –que son los casos paradigmáticos (Salmon [1998e];
Woodward [2003]).

Ambas propuestas son fascinantes, aunque tratarlas con todos sus detalles
técnicos nos desviaría de la meta de este trabajo. Baste señalar que,
irónicamente, ambas corren prácticamente en sentidos opuestos: la de Salmon,
tratando de darle sentido a la noción de causalidad, sin alejarse demasiado del
marco empirista heredado de Hume; la de Kitcher, intentando mostrar que
nuestra idea de causalidad no es sino resultado del “por qué” que motiva una
explicación, es decir, es una idea parásita que solamente refleja los patrones
explicativos de nuestra tradición intelectual.

Entre ambos ha habido un intercambio importante de ideas, con Salmon


haciendo ajustes a su propuesta y finalmente considerando que ambas son
complementarias [Salmon 1998a]. La de Salmon, que consistiría en que explicar es
describir el “nexo causal” que lleva desde el inicio de un proceso causal, vía
interacciones causales potencialmente complejas, hasta el resultado que nos
interesa explicar, que en cierto sentido implica ver “hacia abajo”, dado que estos
procesos normalmente involucran partes componentes a una escala menor de la
que se estudia (por ejemplo, moléculas en movimiento, cuando se intenta
explicar el comportamiento de un gas). Y la de Kitcher, que mira “hacia arriba”,
para establecer cómo los patrones de argumentación que se ofrecen a un
determinado nivel, que nos interesa explicar, son miembros de un conjunto
mucho mayor de patrones que, al mostrar a los del nivel inferior como uno de
otros ejemplos posibles de dichos patrones, unifica nuestro conocimiento [Salmon
1998b:362, Salmon 1998d].

Y, como de costumbre, ambas presentan problemas. Salmon, cuya teoría


de la causalidad originalmente recuperó parte de la credibilidad filosófica de
este polémico concepto, pero que ahora tiene que reconocer que los procesos
causales involucran muchas veces elementos que son irrelevantes a lo que
queremos explicar, por lo que re-introduce la noción de relevancia estadística
para poder intentar filtrarlos. Por otro lado, con la crítica de que quizá lo que nos
interesa no es explicar los eventos individuales, sino clases de eventos (un poco al
207

estilo que proponía Railton en su discusión de los mecanismos causales), lo que


permitiría no solamente simplificar la producción de una explicación (y no
perderse en la miríada de procesos que ocurren simultáneamente), sino quizá
reconocer que la explicación inductivo-estadística debe hacer referencia, en
general, a clases de casos [Woodward 2003].

Kitcher, quien recupera al menos parcialmente el carácter deductivo del


entramado de patrones que permiten la unificación [Kitcher and Salmon 1989, en
Woodward, op. cit] –y con ello retoma parte de la intuición Hempeliana- se ve en
dificultades al insistir que su propuesta unificacionista hace de la noción de
causalidad un efecto de la explicación; con ello, no puede explicar la simetría
entre predicción y retrodicción en sistemas deterministas (como el Sistema Solar)
dado que, aunque podemos explicar ambas con el mismo conjunto de patrones,
normalmente no decimos que las posiciones futuras de un planeta causan su
posiciones previas. Y, como Woodward ha señalado, no es claro que toda la
unificación científica siempre ocurra por patrones de inferencia que explican
otros patrones más particulares: existe unificación formal (como en el caso de
formalizaciones matemáticas aplicables a más de un campo), la de corte
clasificatorio, como en el caso del sistema linneano, en que la multiplicidad de
organismos vivos es reducida a un número menor de categorías que incluso
permiten hacer ciertas predicciones sobre los miembros de una categoría; la
unificación teórica misma, como el caso de Newton que muestra que los
movimientos de los cuerpos en la Tierra y los de los astros son explicables por los
mismos principios. Sólo en este tercer tipo de casos parecería poderse equiparar
unificación a explicación. Los otros dos fallan precisamente porque normalmente
no involucran relaciones causales. Si bien puedo asegurar que un mamífero
tendrá un corazón, no por ello he explicado por qué lo tiene [Woodward op. cit.:
sin paginación en la versión en línea].

Otro problema señalado por este autor es que, detrás de la propuesta,


habría una concepción de la unificación como “el que gana se lleva todo”,
dado que el carácter explicativo de una teoría dependería del momento
histórico en que se analiza, dado que teorías posteriores, al unificar a teorías
subyacentes, se quedan entonces ellas con el mérito explicativo final, es decir
¿dejaron de ser explicativas las otras por haber sido subsumidas por las teorías
unificadoras?. Un problema final tiene que ver con quién hace esta evaluación
del poder unificador de las teorías (o, en general, de nuestros sistemas de
creencias). De nuevo, Woodward arroja luz: parece implausible que este modelo
sea aplicable (sin caer entre otros males, en el relativismo), a los sistemas de
creencias del sentido común, en donde la comparación de diferentes patrones
de inferencia para ver cuál es más unificador no es un proceso formal [Ibíd.].

¿Qué hacer con todo esto?


La explicación sigue siendo objeto de acalorados debates entre los
especialistas. No ha sido mi intención aquí intentar proporcionar un recuento
completo y técnicamente detallado de los diferentes modelos. Más bien, este
208

repaso somero ha tenido el interés de ubicar el modelo hempeliano (que era el


que a inicios de mil novecientos ochenta seguía siendo el más utilizado en
arqueología), en un contexto mayor, para poder identificar, si se quiere, los límites
del análisis que yo proporcionaré aquí de la teoría de SPS (y, para ese efecto, de
cualquier teoría en arqueología). Mi análisis, originado como se dijo antes, en
1981, estaba guiado precisamente por el modelo hempeliano, aunque la
propuesta de relevancia estadística de Salmon ya era conocida en arqueología y
que, por razones anecdóticas, tuve la fortuna de conocer las propuestas de
Railton. Me parece que era importante que mis lectores no fueran a sufrir las
consecuencias que antes sufrió la Nueva Arqueología, cuando se presentó el
modelo hempeliano, sin una idea de cuál era el contexto en que éste se discutía
en ese momento en la filosofía de la ciencia, o cuáles eran las críticas que ya
desde entonces se le hacían.

Así, este recuento me deja ahora con dos tareas: una, determinar en qué
sentido afecta el ejercicio de “cápsula del tiempo” que estoy intentando hacer al
tomar como caso de estudio a SPS; el segundo, ampliando el horizonte al
momento actual, determinar cuál, si es que alguno, de los modelos actualmente
en competencia podría ser el mejor para analizar las teorías en arqueología. La
primera tarea la abordaré aquí, la segunda será objeto de una reflexión general
en el capítulo 17.

Quizá el impacto más fuerte de estos desarrollos sobre lo que intento hacer
con la teoría de SPS es que ya no parece tan promisorio el intentar formalizar por
completo la teoría. Por un lado, porque todo indica que esta formalización no es
capaz de recuperar aspectos que no sean sintácticos y que tienen que ver con la
aplicación y uso de la teoría (es decir, con los aspectos pragmáticos que, como
vimos, es indispensable considerar). En consecuencia, haremos una aproximación
inicial a la estructura de la teoría, sin intentar una formalización total (que además
seguramente escapa a mis capacidades técnicas).

Por otro lado, me era claro desde entonces y me es aún más claro hoy, el
que no puedo retomar las ideas de ley y causalidad de Hempel (incluso del último
Hempel, que parecería estar finalmente aceptando un punto de vista que hemos
llamado antes “realista”). Es decir, no creo que las leyes sean meras conjunciones
constantes de eventos particulares; creo que existen procesos causales, aunque
como vimos, definir “causalidad” ha sido un proceso que las mentes más brillantes
en la filosofía de la ciencia no parecen terminar de resolver. Ello me remite de
inmediato a la “paradoja de la filosofía de la ciencia” con la que empecé:
porque es al menos curioso que cualquier científico entienda intuitivamente lo
que es una ley y qué papel juegan las relaciones de causa y efecto, así como
cuando una teoría es explicativa y cuando no y ese mismo científico, vuelto
filósofo de la ciencia, no logre articular de manera completa esa intuición.

La solución emic, de dejar que cada arqueólogo defina como quiera una
explicación y que cada posición teórica asuma criterios de adecuación para sus
propias explicaciones es claramente inaceptable. Su consecuencia es el
relativismo, que es incongruente, como hemos visto. Además, el punto de partida
209

de la idea para una tesis como esta fue precisamente el no estar de acuerdo con
los criterios de evaluación de teorías (en tanto explicaciones) que mis colegas
norteamericanos estaban empleando a finales de mil novecientos setenta e
inicios de los ochentas. Y dada la conexión entre las necesidades de explicación
y la capacidad de la arqueología de asegurar muestras suficientes del patrimonio
arqueológico, así como de facilitar su divulgación, los conceptos de explicación
que manejemos en arqueología no tienen solamente efectos académicos y son
objeto de divertimentos intelectuales, sino tienen consecuencias prácticas, de
gran relevancia ética y política sobre la conservación del patrimonio.

Desde la arqueología social nosotros no tenemos problema para aceptar


el realismo, incluyendo un realismo materialista sobre las causas y las leyes. Pero
no contamos con un modelo propio de lo que es una buena explicación. Yo sigo
pensando que las intuiciones básicas de la propuesta hempeliana son correctas:
que las explicaciones son argumentos, es decir, constan de premisas y
conclusiones derivadas ya sea deductiva o inductivamente; que entre las
premisas debe haber principios generales, que para mí son enunciados que
hablan de un número potencialmente infinito de casos y establecen relaciones
causales entre variables, grupos o sistemas de variables; que involucran, en el
caso de explicaciones de eventos particulares, especificación de condiciones
antecedentes; que tanto los principios generales como las condiciones
antecedentes deben ser relevantes (sintáctica y causalmente) a lo que se quiere
explicar; y que la relación entre causalidad y explicación sigue siendo una en que
la expectabilidad nómica es importante, quizá reforzada para casos de baja
probabilidad, con un criterio de relevancia estadística, si fuera necesario, al estilo
de Salmon. De Hempel y el propio Railton recupero que cualquier “reconstrucción
racional” o formalización de una explicación será seguramente incompleta, parte
de ese “texto explicativo ideal” que podría construirse con tiempo y
conocimientos ilimitados. Y ofrezco una explicación, al menos de parte del
carácter limitado que tiene cualquier texto explicativo específico: el hecho de
que se presenta siempre una cadena explicativa, que termina en un
reconocimiento de ignorancia, o nos va conectando a problemas y teorías
mayores (como parece sostener Kitcher), en un intento de unificación, o bien
termina en el recurso que he llamado de “ontologización”.

De nuevo, nos parece que estos supuestos son pertinentes (e


históricamente no presentan necesariamente un anacronismo) al caso de estudio
de este trabajo. Otro asunto es si pueden ser utilizados sin más en análisis de otras
teorías hoy día. Este otro problema lo abordaré en el capítulo 17, en donde
espero hacer todavía más clara la relación entre cómo adoptar un concepto de
explicación para la arqueología tiene consecuencias sobre las posibilidades de
conservación del patrimonio.
210

Capítulo 10

El proceso de análisis de teorías sustantivas


Así como contamos con herramientas para hacer el análisis de una
posición teórica, existen elementos que nos permiten analizar una teoría
sustantiva. En nuestro caso, el objetivo del análisis es poder proporcionar
elementos que permitan elegir entre teorías en competencia. Quizá no para una
elección juicio sumario y final, sino para armar una especie de “marcador global”,
que permita al menos jerarquizar en una escala ordinal las mejores teorías
disponibles. Nada garantiza de antemano que una teoría destacará en todos los
rubros de análisis, pero al menos se logra trascender el criterio típico de la
arqueología, que parecería ser “la mejor es la que más me guste”, o “la que mi
grupo (academia, partido, secta) prefiera”.

En este capítulo presentaremos el proceso general de análisis de teorías


sustantivas: los aspectos a analizar y algunos de los criterios que pueden
emplearse en la evaluación. En la tercera parte de este trabajo aplicaremos este
procedimiento a la teoría de SPS.

Ubicación contextual
Antes de entrar al detalle del análisis de la teoría sustantiva misma, es
necesario ubicarla en su contexto más amplio. En particular, hay que tratar de
ubicarla dentro de alguna de las posiciones teóricas de la arqueología (y, al
hacerlo, en el contexto social en que se genera), utilizando las herramientas que
hemos presentado en los capítulos anteriores, así como determinar el marco
institucional y académico en el que surge. En cuanto a este último, es importante
saber quién o quiénes son los interlocutores de la teoría: ¿se trata de una teoría
“de novo”, es decir, a partir de una problemática apenas reconocida, que quizá
se deriva del intento de resolver problemas del contexto social más amplio, o
responde al estímulo de polémicas en disciplinas cercanas?; o ¿se trata de un
intento de mejorar (incluso refutar) alguna teoría anterior?. Ubicar a los
interlocutores resulta importante, dado que la comparación y la evaluación de la
teoría deben tomar en cuenta, entonces, contra qué otras teorías compite.

En cuanto al aspecto institucional, es importante saber si quien propone la


teoría es un académico ya establecido, trabajando desde una posición de
seguridad laboral en una institución reconocida y que, en consecuencia, tiene el
aval indirecto de “el establecimiento” (“establishment”); o si se trata de un
científico joven y la teoría lleva entonces motivaciones adicionales, como la de
asegurarse una posición en el muy competido campo de la arqueología. Nótese
211

que refutar a un líder de la disciplina, a una “vaca sagrada”, es una ruta rápida,
sobre todo en el mundo anglosajón, hacia una posición de definitividad laboral
(“tenure”) en algún departamento de antropología reconocido. Es una ruta
mucho más rápida que la creación de una teoría propia. El anverso de la
moneda es que un científico que empieza tendrá más dificultades, al menos
inicialmente, en lograr los financiamientos y avales que le permitan establecer su
teoría y, en ocasiones, puede ser el propio “establecimiento” el que se encargue
de dificultar su avance y eventual corroboración. En el caso de la arqueología, en
que normalmente se requiere pasar con comités o consejos que no solamente
aprueban financiamientos, sino permisos, este es un elemento importante a
considerar en la evaluación de una secuencia histórica de teorías.

Consideraciones de corte hermenéutico


Utilizo aquí el término “hermenéutico” en el sentido técnico más restringido
y, espero, menos polémico del término: el de los problemas de la lectura de un
texto, que implica leer más allá de lo directamente dicho y contrastar el texto
contra su contexto, entendiendo que “no hay lecturas inocentes” y que, en
consecuencia, el resultado del análisis es tan responsabilidad nuestra como del
autor del material analizado. Esto es indispensable porque, como en el caso de
cualquier texto, siempre hay más de una lectura posible, lo que genera también
interpretaciones alternativas (y nos lleva a los problemas hermenéuticos en un
sentido más profundo del término, mencionados brevemente en el Capítulo 3).

Sin embargo, lo que tenemos en mente en este punto es más sencillo, al


menos en principio. Se trata de determinar, cuando menos, cuatro elementos: a)
el grado de centralidad de la teoría en la obra general del autor analizado; b) el
grado de madurez del propio autor; c) la historia del diálogo con sus
interlocutores; y, en general, d), la historia de la “recepción” de la teoría, cuando
ha pasado suficiente tiempo como para que se haya generado una.

En cuanto al primer elemento, aquí lo que hay que asegurar es que la


teoría analizada sea realmente una de las propuestas importantes del autor y no
algún intento menor que, jerárquicamente, no calificaría como central en el
conjunto de su obra. La motivación de este elemento es que normalmente nos
interesa analizar una teoría sustantiva como una manera de aproximarnos
también al éxito de la posición teórica de la que se deriva. En consecuencia,
nuestra evaluación de la posición teórica correría el riesgo de ser injusta si
elegimos una teoría de carácter menor o secundario en el contexto de la propia
posición teórica. El mejor ejemplo es la tan llevada y traída “teoría del modo de
producción asiático” de Marx (ver Gándara [1986]). Suponiendo que ésta fuera
una auténtica teoría y que fuera la teoría marxista del origen del Estado arcaico
(cosa que yo he debatido en el artículo mencionado, Ídem), ¿qué sucedería si
fuera refutada? ¿Constituiría dicha refutación (en el caso de que fuera una
refutación real, a partir de una teoría alternativa), una refutación de la posición
teórica marxista? Mi propuesta es que no, dado que en el conjunto de la posición
212

y en el de la obra de Marx, esta es una teoría que aparece en manuscritos no


publicados, o en cartas a amistades de Marx, o en documentos de orden más
político (en el sentido práctico, de discusión de asuntos importantes de ese
momento), que de un trabajo central, depurado, destinado también a tener una
aplicabilidad política pero de una trascendencia mayor, pero capaz de ser
objeto de una discusión académica incluso fuera del ámbito del marxismo, como
sería el caso del El Capital (Marx [1981, 1985, 1980, 1983, 1984]). En consecuencia,
determinar qué tan central es una teoría en el conjunto de la obra del autor, es
indispensable para utilizar el análisis como punto de partida para la evaluación
de la posición teórica de la que se desprende.

Por lo mismo, es importante también saber en qué momento de la


trayectoria personal del autor se produce la teoría: ¿se trata de una obra de
juventud, madurez o senectud?. No es lo mismo Kirchhoff proponiendo el
concepto de Mesoamérica en 1943 [Kirchhoff 1943], que proponiendo, por
ejemplo, que todas las altas civilizaciones son resultado de una difusión desde
Sumeria, como él concluía a partir de un análisis comparativo de calendarios ya
al final de su vida, en la Mesa Redonda de Antropología celebrada en Cholula en
1972. En un caso tenemos una obra de madurez, en el segundo, sin restarle
importancia o validez71, de uno de los últimos trabajos que preparara poco antes
de morir ya a una edad muy avanzada, en la que parecía obsesionado con el
difusionismo.

Una teoría normalmente no se presenta y ya; generalmente se presenta


para mejorar las teorías pre-existentes (o incluso reemplazarlas). En consecuencia,
es parte de un diálogo con interlocutores, diálogo que a veces llega a adquirir
tonos ríspidos. Es importante para el análisis, en lo posible, el rastrear este diálogo y
cómo es que influyó en versiones sucesivas de la teoría analizada, si las hubo.

Este elemento es parte, entonces, de uno de orden más general, que sería
el documentar, cuando es posible, la “historia de la recepción” de la teoría y de
los intentos del autor por contestar a sus críticos. No siempre se cuenta con
elementos formales, pero la tradición oral (con todos sus peligros) puede ser de
utilidad en este caso.

Un análisis completo (que no es lo que pretendemos aquí), profundizaría en


estos aspectos contextuales sociales, teóricos, biográficos y de historia de la
recepción de la teoría. Los apuntamos solamente para dar una idea de la
complejidad de la tarea. Pasemos ahora a los aspectos específicos que
constituyen las seis áreas de análisis que propondremos. No pretendemos que
estas áreas sean exhaustivas, pero creemos que son un buen punto de partida y
mantienen al análisis dentro de una escala manejable.
71
Me precio y siempre agradeceré el haber sido su alumno, primero en el Curso
Introductorio a la Antropología en la ENAH (1970), como en el Seminario especial que
gentilmente accedió a darnos –a insistencia de Linda Manzanilla- en el que tratamos estos
aspectos relativos a la difusión, poco tiempo después. Kirschhoff era de la opinión que los
cursos introductorios, más generales, deberían ser impartidos por los decanos de una
disciplina, para aprovechar su experiencia y su visión panorámica del campo disciplinar.
213

Aspectos a analizar y criterios de evaluación para las teorías sustantivas


Hemos dividido el análisis teorías sustantivas en seis aspectos, que nos parece
cubren las características centrales de cualquier teoría en arqueología: 1) el
pragmático; 2) el formal-sintáctico; 3) el metodológico; 4) el ontológico; 5) el
valorativo; y, reconociendo el lugar que justamente le toca, 6) el empírico. En
paralelo, esbozaremos los criterios de evaluación que son aplicables a cada uno
de estos aspectos, de nuevo sin pretender que estos criterios sean exhaustivos o
que su aplicación sea siempre un asunto inequívoco, de “blanco o negro”, sino
más bien de gradaciones y comparaciones cualitativas.

1. Aspecto pragmático

En general, en este primer aspecto, intentamos determinar qué


problema(s) intenta resolver la teoría. Si las teorías sustantivas son
precisamente intentos para resolver problemas, entonces no debería ser
demasiado difícil determinar qué problemas son éstos, al menos en un
primer nivel, explícito en los textos. El tipo de problemas estaría acotado, en
principio, por la propia posición teórica, en sus objetivos cognitivos; es
decir, esperaríamos que en una posición teórica orientada a la
explicación, el problema a resolver sea un problema explicativo
(expresado normalmente mediante una pregunta de tipo “por qué” o
“cómo” causales); mientras que en una posición teórica interpretativa la
pregunta normalmente será de tipo “qué significa”, o “qué motivó que…”.

Es importante notar dos cuestiones: la primera, que en ambos tipos


de problemas se encuentra implícito uno de corte descriptivo, del tipo que
hemos llamado “identificatorio”. Si la pregunta es “por qué surge X”,
entonces típicamente no habrá sólo una definición de X, sino criterios para
identificar un caso de X en el registro arqueológico. Así, sería raro que
alguien proponga una teoría del origen del Estado, sin tener un concepto
de lo que es el Estado, o cómo es que se observa en arqueología. Ello
implica que, en paralelo, se asume un problema identificatorio que, en
principio, debería estar o resuelto o en vías de solución. En la práctica esto
no es así y suelen debatirse tanto el problema de fondo como los
problemas definitorio e identificatorio.

La segunda cuestión es más compleja ya que, como vimos, de una


pregunta de tipo “por qué” suelen derivarse otras preguntas de tipo “por
qué”, que en conjunto constituyen lo que hemos llamado “cadena
explicativa”. Aquí el analista tiene que tomar una decisión difícil y es la de
determinar el grado de “resolución” del análisis: la escala o finura, si se
quiere, a la que se llevará a cabo. Así, por ejemplo, si la teoría ubica como
214

elemento causal central en el origen del Estado a la irrigación, entonces es


probablemente correcto preguntar “¿y por qué adoptan la irrigación?”; y si
a su vez la respuesta habla del incremento en la productividad agrícola, es
legítimo preguntarse quizá “¿y por qué quieren incrementar su
productividad agrícola?”, etc., etc.. En principio, nada impide que, con
tiempo, sabiduría y paciencia infinitos, se reconstruyera el “texto explicativo
ideal” completo (al estilo que postula como experimento mental Railton).
En la práctica, el análisis tiene que parar en algún lado, que suele estar
insinuado en el propio texto que sirve de base al análisis.

A las preguntas que formarían parte de la cadena explicativa, por


ser consecuencia de respuestas previas, les he llamado “preguntas
subsidiarias legítimas”. La idea es diferenciarlas de otras que implican o
problemas que la teoría nunca se planteó, o que resultan del uso de un
recurso ilegítimo, al que llamo “desplazamiento de explanandum” y que
trataré en el siguiente capítulo. Puedo anticipar que implica que la
pregunta explicativa original es subrepticiamente sustituida por otra que la
teoría no pretendía resolver. Evidentemente, mientras más preguntas
subsidiarias legítimas contesten una teoría, es más fértil.

Unida a esta segunda cuestión, en que la cadena explicativa le da


posibles “profundidades” diferentes al análisis, está la de lo que hemos
llamado “preguntas legítimas subsidiarias o relacionadas” y que tiene que
ver con la idea de una “presuposición completa”, por un lado y con
elementos de simetría que normalmente son considerados importantes en
la arqueología (aunque no siempre se utilicen de manera consistente o
justa). Si pregunto “¿por qué surge el Estado arcaico en Teotihuacan en la
fase 4 del periodo intermedio?” (Esto es, aproximadamente a finales del
formativo), asumo ciertas cosas y abro legítimamente mi teoría a ser
analizada en términos de preguntas relacionadas a la que explícitamente
intento resolver. Entre los supuestos podíamos señalar algunos ontológicos:
que Teotihuacan existe, que ahí se dio un proceso de formación del Estado
arcaico y que se dio en el momento señalado; otros serían de corte
epistemológico: que podemos reconocer algo como Teotihuacan,
determinar que fue un arcaico y que surgió en tal periodo. Estos supuestos
son los que tienen que ver con las cuestiones identificatorias ya
mencionadas. En cuanto a las preguntas subsidiarias legítimas, me parece
que están las que surgen, por simetría, de la propia formulación de la
pregunta: nos interesa saber por qué surge en Teotihuacan (y no en otro
lado de la Cuenca de México) y por qué surge en ese periodo (y no en
otro, anterior o posterior). Vista con toda su generalidad, si la teoría cumple
con su cometido, debería en último caso poder resolver por qué surge,
cuándo y dónde surge y no en otros momentos o lugares del mundo,
aunque ese nivel de generalización muchas veces no es lo que, de
entrada, intenta resolver el autor.
215

Criterios de evaluación: fertilidad explicativa, simetría explicativa,


inferencia a la mejor explicación
De este primer aspecto pragmático se derivan ya algunos elementos de
evaluación. El primero es el que he llamado “fertilidad explicativa”
[Gándara 1994]. Consiste en la capacidad de una teoría sustantiva de dar
respuesta a la sucesión de preguntas por qué dentro de la cadena
explicativa que se genera, dentro del marco mismo de los principios que la
teoría (o la posición teórica de la que se deriva) proponen. En principio,
mientras más larga sea esta cadena, mayor fertilidad explicativa tiene la
teoría. Dicho de otra manera, mientras menos rápidamente recurra a la
“ontologización” (sea ésta modesta o arrogante), mejor72.

La justificación para este primer criterio es su uso común en


arqueología. Hasta donde entiendo, algunas de las críticas de Blanton a
SPS (notablemente [Blanton 1980]) van por ahí: si se asume que el aumento
demográfico es una variable central, entonces es necesario explicar por
qué ocurrió, lo que parece una pregunta derivada legítima. Si la teoría de
SPS es fértil, deberá poder darle respuesta. Generalmente, parte de la
crítica a las llamadas “teorías de motor central” sobre el origen del Estado
son de ese tipo: que el motor central queda en sí mismo sin explicación. Me
parece que es una forma de decir que la teoría no es fértil, al no darle
explicación sino solamente suponerlo.

El segundo criterio sería el de simetría explicativa: la teoría debe


permitir explicar no solamente por qué ocurre el proceso, dónde y cuándo
ocurre, sino por qué no en otros lugares o momentos. La idea es simple: si el
conjunto de principios y condiciones antecedentes es más o menos
completo, entonces, por simetría debería explicar no solamente la
ocurrencia sino la falta de ocurrencia del proceso, precisamente en virtud
de esos principios y condiciones antecedentes. Es precisamente este
criterio de evaluación el que hace a la ontologización arrogante una mala
estrategia explicativa: si se nos propone que el Estado surge porque el
hombre está siempre deseoso de poder y dominación, que así es su
naturaleza, sin más, entonces hay que explicar por qué no surgió el Estado
entre los aborígenes del desierto occidental en Australia o, como en el
ejemplo paradigmático inventado en los cursos que llevé en Michigan,
entre los “Bongo-bongo del sur del Congo”. Si sólo se requiere humanos
que “así son”, salvo que se pretenda, de manera racista inaceptable,
calificar de no humanos a esos grupos, entonces la “explicación” resulta no
serlo y la ontologización arrogante queda expuesta como recurso
72
En la ontologización “modesta”, como se recordará, ante la enésima pregunta “y por
qué…”, contestamos, “pues eso ya no sabemos por qué, al menos por el momento” –es
decir, hacemos un reconocimiento de nuestra ignorancia; en la ontologización
“arrogante” contestamos “¡ya estuvo bueno, es así por que así son las cosas! (así es la
vida, así es el hombre, así es la naturaleza humana, etc.); es decir, recurrimos a una
ontologización que “naturaliza” o hace parte de una “esencia irreductible” y ahistórica
aquello que ya no podemos explicar y nos negamos a seguir buscando respuestas
simplemente por que no tendría caso: así es la vida ¡y ya!
216

explicativo. Claramente, aún concediendo para propósitos del ejemplo,


que “así es el hombre”, debe entonces haber algo más, un conjunto de
condiciones que hacen que en Teotihuacan sí surja el Estado y en esos
otros casos no. Ello indica que, en el mejor de los casos, tenemos una teoría
incompleta y por lo tanto, menos preferible a otras que sí sean
simétricamente explicativas.

De nuevo, la justificación para incluir este criterio está en la propia


literatura arqueológica. Baste señalar dos casos: el de Braidwood
criticando la idea de “área nuclear” de Childe para el explicar el origen de
la domesticación de plantas y animales (Braidwood 1951, citado en Binford
[1968:42]). Y el ya mencionado de Binford contra Willey y Sabloff sobre el
colapso de la civilización maya. En el primer caso, lo que Braidwood critica
a Childe es que si lo único que se requiere para que surja la domesticación
es la concentración forzosa de plantas, animales y humanos en los “oasis”
formados por condiciones de desecación ambiental (como las del
pospleistoceno), entonces resulta que ese mismo tipo de condiciones se
dieron cuando menos tres veces en los periodos interglaciales previos y no
surgió en ninguno de ellos la domesticación. Claramente, aún si la idea de
áreas nucleares u oasis tuviera algo que ver, falta algo más, que explique
esta asimetría. En ausencia de un señalamiento de condiciones
antecedentes que explique por qué sí ocurrió donde ocurrió y no antes, la
explicación es menos satisfactoria que una que sí lo haga. En el caso de la
polémica Binford-Willey y Sabloff, el argumento de Binford es que la
explicación de que el colapso maya es el resultado de una invasión por
parte de grupos no mayas resulta insatisfactoria, porque parecería invocar
un principio general del tipo “a toda invasión se produce un colapso
sociocultural”, que es a todas luces falsa, como muestra el florecimiento de
la cultura en España luego de la invasión musulmana; o bien citar ejemplos
de colapso sin invasión, como en el Suroeste Americano (Binford 1972 (orig.
1968)-c:115). Es decir, la teoría no es satisfactoria, porque no permite
explicar cuándo las invasiones resultan en colapsos y cuándo en
florecimientos. Es, apenas y con mucho, una explicación incompleta.

El tercer criterio es más reciente, “inferencia a la mejor explicación” y


se deriva de ciertas escuelas de filosofía de la ciencia (derivadas, entre
otros autores, del pragmatismo de Pierce, aunque en versiones más
modernas, como en Harman y Van Fraassen (para las referencias
bibliográficas más importantes ver Hanen and Kelley [1989:17]) y adoptado
en arqueología particularmente por Kelley y Hanen [1988), especialmente
el capítulo 8, páginas 360 y ss]. Consiste en proponer que, dado un
conjunto de evidencia, la mejor manera de dar cuenta de toda la
información disponible es precisamente la hipótesis que se ofrece como
explicación. Es decir, “acomoda” toda la evidencia disponible, o en el
lenguaje original neopositivista “salva los fenómenos”. Estas autoras dan
ejemplos de la aplicación de este criterio en arqueología, como en el caso
de Point of Pines y su explicación por Haury [Hanen and Kelley 1989:15-16].
La idea es que, como en las mejores historias de detectives, no queden
217

aspectos sobresalientes del caso sin explicar: si compiten dos hipótesis


sobre un asesinato y una explica por qué no hay huellas de hemorragia
junto al cadáver y la otra sí, es preferible la segunda, al “acomodar” este
hecho sobresaliente que quedaría de otra manera como un misterio. En el
caso de las explicaciones sobre el origen del Estado, un ejemplo potencial
sería la presencia de ciudades en muchos Estados arcaicos. Aunque la
explicación no es necesariamente sobre el origen de la ciudad, una buena
teoría sobre el origen del Estado debería acomodar el hecho de que
muchos Estados generaron ciudades (o, según el autor, muchas ciudades
generaron Estados). Es un hecho sobresaliente que debería ser explicado.

El idea central detrás del aspecto pragmático (y los criterios para su


evaluación) es la que aportaron los neopragmatistas como Bromberger,
Achinstein [1971]y Van Fraassen [1980; Van Fraassen, et al. 1985]: las teorías
son intentos de responder a preguntas de tipo por qué (y como señaló
Railton, también “cómo” en el sentido causal). O bien, como pretendía
Achinstein, de proporcionar “comprensión” o “entendimiento”. Si esta idea
es certera, entonces el análisis debe empezar tratando de clarificar cuáles
son las preguntas que la teoría intenta contestar y qué tan bien lo hace. Los
criterios de fertilidad y simetría explicativa, así como el de inferencia a la
mejor explicación, permiten una primera aproximación a la teoría. En
muchos casos, se aprecia de inmediato que la teoría tiene una cadena
explicativa pobre (al recurrir al segundo paso a la ontologización), o que
no es simétrica, o que deja elementos sobresalientes sin explicar. En esos
casos, será difícil que una teoría deficiente en este primer aspecto sea
satisfactoria en los otros cinco aspectos a analizar. Por otro lado, si pedimos
de cualquier teoría que cubra este primer conjunto de requisitos, es más
difícil que se construyan ejemplos espurios de explicaciones formalmente
impecables pero cuyos problemas son triviales o irrelevantes (como el caso
del Sr. Jones que no se embaraza: el problema a resolver no es realmente
por qué el Sr. Jones no se embaraza, sino por qué los hombres en general
no se embarazan, asunto para el cual los hábitos excéntricos del Sr. Jones
resultan totalmente irrelevantes).

2. Aspecto sintáctico.
Hemos propuesto en otro lado que “una teoría es lo que lo que una teoría
dice” y que “lo que dice lo dice en sus principios generales” [Gándara
1994]. El análisis del aspecto formal-sintáctico es parte de la determinación
de lo que la teoría dice. Aunque, como veremos, la forma no lo es todo, las
características que arroja un análisis sintáctico son cruciales para luego
complementar el estudio con el significado (la ontología) de las variables y
principios detectados.

Anticipo que este aspecto sea uno de los más polémicos. Y concedo
de antemano parcialmente el punto: hoy día no es tan seguro que
podamos capturar todo lo que una teoría dice simplemente acudiendo a
218

un examen de su forma. En particular, hay dudas sobre la capacidad de


fórmulas lógicas, como la del condicional, de capturar toda la fuerza de un
principio general tipo-ley. Para entender mejor estas cuestiones, conviene
desviarnos momentáneamente y comentar un poco sobre la
representación formal de las teorías.

La idea de formalizar una teoría (reducirla a símbolos y conectivos


lógicos) viene, cuando menos, desde el neopositivismo. Era parte de ese
esfuerzo por eliminar la ambigüedad y la vaguedad de las teorías y
bloquearles el paso a conceptos “metafísicos” y de otros estilos que
representaran una “carga innecesaria” en la ciencia empírica. Además, si
el sueño neopositivista había de realizarse, era necesario poder identificar
con claridad los términos teóricos y sustituirlos por sus consecuencias
empíricas, a fin de “cargar” de empiria la teoría o, visto mediante otra
metáfora, “anclarla” y darle “tierra” en nuestras observaciones en el
mundo. Para ello se contaba con la lógica simbólica, o lógica de
predicados con cuantificación, que la generación anterior de filósofos
había argumentado era capaz de capturar toda la lógica canónica
previa. De hecho, se habían probado teoremas en el sentido de que el
número de conectores lógicos podía reducirse a un pequeño grupo. Como
se recordará, los conectores lógicos son partículas tales como “y”, “o” (que
puede ser excluyente o no excluyente), “no” y “si…, entonces…”; es decir,
como la conjunción, la disyunción, la negación y el condicional. Estas
partículas sirven para armar “proposiciones” con ayuda de símbolos que
representan variables. Armados con las reglas de inferencia deductiva, es
posible entonces evaluar la validez de argumentos complejos examinando
solamente la relación entre estas proposiciones y los “valores de verdad”
que arroja la articulación de variables y conectores.

A esta lógica, llamada “de primer nivel”, se le complementó más


tarde con otras funciones que permiten expresar ideas más complejas,
como la de “para todos los casos de…” o “existe al menos un caso que…”;
es decir, los cuantificadores universal y existencial. Con ello se pudo
reproducir argumentos complejos y capturar todas las reglas de silogismo
clásicas y evaluar la validez de los juicios solamente por referencia a su
forma. Nótese que la validez no es lo mismo que la verdad: la validez lógica
solamente tiene que ver con la estructura del juicio deductivo correcto, en
la que la verdad de las premisas se preserva en la conclusión (si las
premisas eran en efecto verdaderas). Es decir, no es factible generar una
conclusión falsa a partir de premisas verdaderas si el juicio ha sido
formulado válidamente.

Como todo esto suena muy abstracto, vale la pena recurrir a un


ejemplo visto anteriormente. El argumento de que el Sr. Jones no se
embaraza porque los hombres que toman anticonceptivos no se
embarazan y el Sr. Jones toma cotidianamente los anticonceptivos de su
mujer podría esquematizarse así, como se recordará:
219

Los hombres que toman anticonceptivos no se embarazan


El Sr. Jones toma cotidianamente anticonceptivos
-----------------------------------------------------------------
El Sr. Jones no se embaraza

En la lógica clásica, suele llamarse “premisa mayor” a la que


generaliza; “premisa menor” a la que establece que estamos frente a un
ejemplo de la generalización en cuestión; juntas nos permiten deducir la
conclusión. Este es un ejemplo típico de inferencia deductiva. Si las
premisas son verdaderas y el juicio es válido, no hay manera de que la
conclusión sea falsa. El juicio podría expresarse simbólicamente reduciendo
progresivamente los detalles:

Todo h que t no e (en donde h equivale a “hombre”, t a


“toma anticonceptivos” y e a
“embarazan)
Jt (en donde J equivale a “el Sr. Jones” y,
como vimos, t a “toma anticonceptivos”
(por lo tanto)
J no e

Y, continuando con nuestro proceso de abstracción, podemos generalizar


todavía más:

Para todo x, si px entonces qx (en donde x equivale a


hombre, p equivale a “toma
anticonceptivos” y q equivale
a “no se embaraza”)
Xp (que equivale a sustituir la
variable x (hombre) por su
valor específico en este caso,
el Sr. Jones y atribuirle la
propiedad p, de tomar
anticonceptivos)

(Por lo tanto)
Xq (que equivale a adjudicarle al
Sr. Jones la propiedad de no
embarazarse)

Y todavía de manera más general:


220

Si p -> q
p
(entonces)
q

Que no es otra cosa que la representación del “modus tollens” que


hemos encontrado anteriormente. Es decir, una vez despojado de los
detalles específicos, podemos mostrar que el juicio es un ejemplo de una
forma de inferencia válida, la inferencia deductiva. Este es un ejemplo de
la representación “sintáctica” del juicio que nos ocupa, a niveles
progresivos de abstracción. Es sintáctica, porque lo que hemos hecho a
cada paso es quedarnos con la forma del juicio, prescindiendo de los
detalles de contenido. Ello permite evaluar la validez del juicio y generalizar
la regla de inferencia. Pero lo hace a costa de abstraer el contenido.

El problema es si, con este sencillo utillaje (cuantificación universal,


existenciación particular, conjunción, disyunción, negación y condicional)
es posible representar las teorías científicas, especialmente los principios
generales (leyes). Ya no en su forma y en la validez de la inferencia, sino en
su contenido o importancia empírica. En particular, si el condicional (“si p
entonces q), universalizado (Para todo x, si x tiene la propiedad P entonces
tiene la propiedad Q), es suficiente para captar “la fuerza” de las leyes
empíricas. Y las dudas surgen porque no es claro que el condicional
universalizado equivalga a proponer una conexión causal, que haga que
necesariamente, si X tiene P entonces tenga Q.

Hay quien ha pensado que para capturar esa relación causal hay
que ascender al siguiente nivel de la lógica, el llamado “modal”, en el que
a los conectores y cuantificadores se les unen nuevas funciones como
“necesariamente que…” y “probablemente que…” y sus negaciones. Y
aún así, hay quien piensa que este nivel sigue sin hacer justicia a las leyes
científicas, o bien que lo hace a costa de hablar de propiedades y no de
entidades; es decir, que evita comprometerse ontológicamente [Harré
1984:12-14].

Aunque fascinante, este debate nos alejaría mucho de nuestro


objetivo aquí. Lo que intento es simplemente dejar constancia de que la
formalización es problemática y que hay quien piensa que el condicional
cuantificado no es una representación suficiente de los principios
nomológicos. Yo asumiré ese riesgo aquí, tratando de escapar de cualquier
cargo de formalización neopositivista introduciendo no solamente las
características pragmáticas relevantes, como vimos, sino las de contenido
(que representan los compromisos ontológicos a los que la mera forma
sintáctica no nos permite acceder).

La formalización también es problemática porque implica no


solamente esta pérdida (al menos momentánea) del contenido, sino
221

porque nada en el procedimiento indica a qué escala hay que formalizar,


problema que es una herencia de la dificultad pragmática de saber qué
segmentos de la cadena explicativa hay que incluir en el análisis. Y es
finalmente problemática porque tampoco selecciona qué nivel de detalle
hay que reconstruir una explicación, es decir, la resolución a la que se
presentan las variables.

Veamos un ejemplo parcialmente ficticio. Se ha tratado de


adjudicar a Wittfogel la teoría de que la única manera de que surja el
Estado (despótico) es vía el control de la irrigación compleja. Yo dudo que
la teoría de este autor sea tan simple como eso, pero valga como ejemplo
precisamente del problema de la escala y de la resolución. ¿Cómo
podríamos representar ese principio general?

Una posibilidad sería el reducir la teoría a dos variables: irrigación


compleja y Estado despótico. De ser aceptable este nivel de “resolución”,
entonces el principio en cuestión podría representarse así:

Para todos los casos, si hay irrigación compleja, entonces hay


Estado despótico

O, formalmente:
Para todo x, si x tiene IC entonces tiene ED, (en donde IC es
“irrigación compleja” y ED es “Estado despótico”).

Nótese de inmediato que, formulada así, la expresión no


capta todo el significado de la teoría. Lo que dice es que si hay irrigación
compleja habrá Estado despótico; pero no que la única manera de llegar
al Estado despótico es la irrigación compleja. Ello es así porque la lógica del
condicional está permitiendo ir de lo que se llama el “antecedente” (si x
tiene IC) a lo que se llama el “consecuente” (entonces tiene ED); o, en
términos aún más generales, si P, entonces Q, en donde P es el
antecedente y Q el consecuente.

Requerimos una relación más fuerte, una que en español se


indica con la fórmula “Si y sólo si hay irrigación compleja habrá Estado
despótico”. Para formalizar esa relación puede acudirse al símbolo usado
en matemáticas (“iff”, del inglés if, “sí…”, o si quisiéramos traducirlo: “SSi”
(de sí y solo si). La expresión quedaría como “SSi IC entonces ED”. O bien,
como se hace en otros casos, juntar dos condicionales, uno que exprese la
relación desde la irrigación compleja al Estado despótico y otro la relación
inversa, en lo que se llama un “bicondicional”:

(Si IC entonces ED) y (si ED entonces IC)


222

En la lógica simbólica se utiliza una flecha doble para expresar


esa relación:

Si IC  ED

Hay problemas con esta segunda opción, dado que en ese caso,
como bien señala Bate [comunicación personal, abril 2007], lo que se ha
sacrificado es el carácter causal: parecería que la generalización
nomológica se ha convertido en una mera correlación estadística);
aunque se reconocen como legítimas, al menos en filosofía de la ciencia,
las llamadas “leyes de coexistencia”, si bien no establecen necesariamente
vínculos causales [Ruben 1990:191]. Es decir, se establece que ambas
variables van siempre juntas y nada más y se pierde el sentido en que la
única manera de llegar al Estado despótico es por la vía de la irrigación.

El problema no es trivial, dado que la lógica de ambos conectivos es


diferente. La lógica del condicional simple (o meramente “condicional”),
es distinta a la del bicondicional. En el primer caso, el condicional es falso si
el antecedente es verdadero y el consecuente falso y verdadero en todos
los otros casos (incluyendo uno paradójico, el caso en que ambos
antecedente y consecuente son falsos, lo que hace que el condicional sea
verdadero). En el caso del bicondicional, será falso cuando los valores de
verdad del antecedente y consecuente no coincidan: esto es, cuando el
antecedente sea verdadero y el consecuente falso, o a la inversa; y
verdadero cuando coincidan (ambos falsos o ambos verdaderos).

Analizando las llamadas “tablas de verdad” (que todos aprendimos


a odiar en la preparatoria, así que me disculpo por traerlas de regreso
aquí), vemos (Ilustración 7) que esta diferencia será relevante para
propósitos de refutación: el condicional solamente tiene un caso de
refutación (el mencionado, en que el antecedente es verdadero y el
consecuente falso), mientras que el bicondicional tiene dos (los casos en
que los valores de verdad de antecedente y consecuente no coinciden).
Es en ese sentido que el bicondicional es “más fuerte” y
metodológicamente preferible bajo un criterio falsacionista, dado que
existen más posibilidades de darnos cuenta de que es falso (dos vs. una en
el condicional simple) y por lo tanto es más refutable y, en consecuencia,
nos permite corregir más rápidamente nuestro conocimiento.

antecedente consecuente condicional bicondicional


p q p -> q p <-> q
223

v v v v
v f f f
f v v f
f f v v

Ilustración 7. Tabla de verdad para los condicionales deterministas

Complicando el asunto, hay ocasiones en que la relación entre las


variables P y Q no es “determinista”, es decir, no siempre que hay P hay Q,
sino que Q ocurre con un grado de posibilidad, es decir, bajo una
distribución de probabilidad. Esta probabilidad puede ser un reflejo de
nuestra ignorancia (en ese caso es una probabilidad subjetiva, epistémica),
o bien puede ser una característica del propio mundo, como la de que no
todos los que desarrollan sífilis desarrollan paresis, que vimos antes.

Es el caso de autores como Service, que afirman que en la mayoría


de los casos del cacicazgo, éste parece haber surgido como una
respuesta ante la variabilidad ambiental, vía la diferenciación productiva y
la redistribución regional. Dicho de otra manera, no siempre que hay
variabilidad ambiental, diferenciación productiva y redistribución regional
habrá un cacicazgo; o, alternativamente, hay cacicazgos que no parecen
haber surgido por esta causa.

¿Cómo representar esta nueva propuesta? Una, me imagino, sería


vía la lógica modal, o incluso la lógica de la teoría de la probabilidad. La
otra, más común, es ubicar encima de la flecha del condicional o
bicondicional una “P” mayúscula, para indicar el grado de probabilidad.
Éste debe ser alto (no hay una convención universalmente aceptada de
qué tan alto deba ser, pero el mínimo es que sea mayor al 50% pues, de
otra manera, es preferible lanzar una moneda al aire).

Estos principios probabilistas presentan una dificultad adicional en el


momento de ser evaluados: si encontramos un caso en contra no
necesariamente refutamos la teoría, dado que lo que la teoría establece
es que, en efecto, es probable que no todos los casos cumplan la relación
en cuestión. Entonces, si encuentro un caso de cacicazgo sin redistribución,
no he refutado realmente a Service. Se supondría que si caso tras caso
encuentro que hay cacicazgos sin distribución, entonces sí que he
debilitado la teoría. El problema es que, en ausencia de una manera de
determinar el número total de casos, esta evaluación se complica. La
Ilustración 8 resume estas relaciones y las respectivas tablas de verdad.

Antec. consec. condicional bicondicional


probabilista probabilista
p q P P
224

p -> q p <-> q
v v v v
v f f f
f v v f
f f v v

Ilustración 8. Tabla de verdad para los condicionales probabilísticos

En ese sentido, los principios nomológicos probabilísticos serían


“menos fuertes” que los deterministas y entre los deterministas, serían más
fuertes (refutables) los bicondicionales. Estas relaciones se expresan en la
Ilustración 9, en la que el condicional de la esquina inferior izquierda es la
más débil y el la superior derecha la más fuerte:

condicional bicondicional

determinista p -> q p <-> q


probabilístico P P
p -> q p <-> q

Ilustración 9. Relaciones de fuerza (refutabilidad) de los condicionales

Resumiendo las observaciones hechas hasta ahora sobre este


aspecto sintáctico: hay dificultades en la expresión formalizada de una
teoría, porque, por un lado, no es claro si la lógica del condicional
cuantificado captura toda la fuerza de un principio nomológico y por otro,
porque la mera técnica no permite definir a qué escala (qué tantos
segmentos de la cadena causal hay que formalizar), ni a qué nivel de
detalle, es decir, qué resolución hay que usar. Y, adicionalmente, cómo
lidiar con el caso de la fórmula “Sí y sólo sí” y el caso de las variantes
probabilísticas del condicional simple y el bicondicional.

A pesar de estas dificultades y sin resolver de momento el asunto de


la expresión formal, el intentar formalizar una teoría tiene cuando menos
dos efectos positivos: ayuda a explicitar lo que la teoría propone y a ver en
qué momento pueden existir problemas de vaguedad o dificultad para
identificar en la realidad las variables involucradas. Ello es útil simple y
sencillamente para poder determinar lo que la teoría dice. Y, como
veremos, a contrastar si lo que el autor de la teoría dice que su teoría dice,
es lo que realmente dice la teoría. Nos permite también identificar (para
una escala y nivel de resolución), cuántos principios están involucrados, de
qué tipo son y cuántas variables involucran. Ello ayudará a evaluar la
225

simplicidad, elegancia y parsimonia de la teoría (para posiciones teóricas


en las que estos valores son deseables).

Un último ejemplo puede ayudar a ver este proceso. Regresemos a


Service y su teoría del origen del cacicazgo. Una manera de formalizarla es
decir que propone que

“En donde haya sistemas redistributivos regionales aparecerá el


cacicazgo”, en cuyo caso estamos hablando de una teoría
determinista con un condicional simple; o bien:

“En donde haya sistemas redistributivos regionales muy


probablemente aparecerá el cacicazgo”, en cuyo caso tenemos un
condicional probabilista; o bien:

“Solamente en donde haya sistemas redistributivos regionales


aparecerá el cacicazgo”, en cuyo caso tenemos un bicondicional
determinista; o bien:

“Solamente en donde haya sistemas redistributivos regionales muy


probablemente aparecerá el cacicazgo”, en cuyo caso tenemos un
bicondicional probabilista.

Nótese que a esta escala, no tenemos todavía una conexión causal


clara entre la redistribución y el cacicazgo, por lo que se hace evidente
que esta primera reconstrucción no es suficiente y que requerirá de
principios adicionales; un primer intento podría ser algo así:

“En condiciones de diversidad regional, la especialización


productiva de tiempo parcial permite optimizar los recursos y reducir
los tiempos de transporte”
“La especialización productiva requiere, sin embargo, garantizar la
circulación de los bienes, lo que a su vez implica la creación de un
sistema redistributivo”

“Los asentamientos más antiguos de una región suelen estar


centralmente ubicados”

“La ubicación central de un asentamiento incrementa su


probabilidad de ser el centro de un sistema de redistribución”

“La manipulación del sistema redistributivo puede ser una fuente de


beneficios y prerrogativas para el gobernante del sitio central”

(Y el paso de la muerte):
“El gobernante del sitio central asegura la posición de su familia al
frente del sistema redistributivo haciendo que esta posición, con
todos sus privilegios, sea hereditaria”
226

“El cacicazgo surge cuando un gobernante hereda su estatus y


función dentro de un sistema redistributivo regional”

Le dejo al lector de tarea formalizar este argumento. Pero es claro


que estamos más cerca de una versión que le haga justicia a Service. El
precio ha sido ir de un principio general a cuando menos siete (a esta
escala), e involucrando no solamente un par de variables, sino
considerablemente más. La ganancia es detectar la complejidad y
estructura de la teoría y detectar sus puntos débiles, como el que señalé
aquí como “el paso de la muerte”, dado que es factible preguntarse “por
qué quisiera hacer eso el gobernante”, recordando que si Service contesta
“porque así es el hombre”, entonces, por simetría explicativa, debería
haber cacicazgos en todos los lugares en que haya diversidad regional, lo
que, como sabemos, es falso.

Esta explicitación permite enlistar los principios, explorar sus formas y


detectar el conjunto de variables involucradas. Las variables son
reconocibles como sustantivos, cuyas propiedades se establecen mediante
predicados que a veces incluyen adjetivos. Los principios se establecen
como relaciones, identificables como verbos a veces calificados mediante
adverbios. Esta detección será un insumo del análisis del aspecto
ontológico, como veremos adelante.

Una cuestión interesante es qué tratamiento dar a la teoría así


explicitada: ¿es la teoría un argumento cuya verdad es la conjunción de la
verdad de todos los principios involucrados?. Es decir, si se refuta uno de
ellos, ¿se refuta la teoría en su conjunto?. La lógica parecería indicar algo
así. Alternativamente, ¿podemos ver a cada principio como un principio
semi-independiente y entonces evaluar a la teoría como más o menos
fuerte según el número de sus principios corroborados vs. aquellos
debilitados o refutados teórica o empíricamente?. La literatura
arqueológica al respecto es nula o casi inexistente. Y no se puede decir
mucho más con respecto a la guía que ofrecen muchos tratamientos de
filosofía de la ciencia, en donde los ejemplos casi siempre se reducen a
teorías sencillas, de uno o dos principios.

Criterios de evaluación: simplicidad, elegancia, parsimonia,


completud, relevancia y validez del argumento
Los tres primeros criterios son comúnmente reconocidos en los manuales de
filosofía de la ciencia, pero como apunta Harré, es más fácil hablar de ellos
que ponerlos en práctica. Los debates sobre la estructura de las teorías (ver
[Suppe 1977a, 1977b, 1977c]) y el creciente desencanto con las técnicas
de formalización que acompañaron el declive del neopositivismo, hacen
227

difícil una formulación precisa de la simplicidad, la elegancia y la


parsimonia. Con excepción de la propuesta modelo-teórica que, hasta
donde entiendo, tendría el utillaje técnico para convertir esos valores en
elementos mensurables, en general lo que se nos presenta es una idea
intuitiva de los mismos. La elegancia tendría que ver, a escala de los
principios involucrados, con enunciados y el número de variables
involucradas: mientras menos, más elegante la teoría. La simplicidad
tendría que ver con la complejidad interna de los mismos (por ejemplo, el
que la parte antecedente de un condicional incluya, anidados, diferentes
conjunciones, disyunciones y otros condicionales, a varios niveles de
profundidad); en ese caso, el principio sería solamente uno, pero de mayor
complejidad que otros que sólo involucraran condicionales simples con
una variable como antecedente y otra como consecuente. Y la
parsimonia, en su concepción clásica, tendría que ver con que la teoría
permitiera, con pocas variables y relaciones, explicar un rango amplio de
casos y situaciones: una teoría que requiera cinco variables distintas para
dar cuenta de cinco casos diferentes es menos parsimoniosa que una que
lo hiciera con solamente un par de variables y condiciones antecedentes
distintas.

Debe recordarse que, salvo por el argumento popperiano de que la


simplicidad está relacionada a la fuerza y, con ello, a la refutabilidad de
una teoría, otros autores parecerían considerar este asunto como uno de
preferencias estéticas. Es importante tener esto en cuenta, dado que la
posición teórica puede preferir, en su área valorativa, teorías complejas a
sencillas, en cuyo caso el criterio operaría en sentido inverso al expuesto
aquí.

La completud del argumento tendría que ver, para la escala de


análisis seleccionada, con que no se requiera de gran cantidad de
principios o supuestos no explicitados para dar cuenta de todos los detalles
capturados a esa escala y resolución. La relevancia, el sentido de que
tanto las variables presentes en los principios generales y condiciones
antecedentes sean realmente requeridos para la deducción de la
conclusión y a la inversa, nada quede en la conclusión sin cobertura en el
explanans. La validez, con que la inferencia deductiva realmente se
cumpla: que la conclusión (explanans) pueda ser derivada de los principios
generales y las condiciones antecedentes (asumiendo que las
explicaciones en general toman esta estructura básica). El problema, de
nuevo, es el de la escala de trabajo y la resolución, que implicarían
posiblemente resultados diferentes si se trabaja asumiendo solamente una
explicación elíptica (o esbozo explicativo), o se hace el desarrollo
completo sin dejar muchos elementos como supuestos o autoevidentes. En
el caso de la teoría de Service que nos sirvió de ejemplo, es probable que
la pregunta “por qué quiere el cacique hacer hereditarios sus beneficios”
esté poco desarrollada en la formulación original. Ello hace que este
aspecto de la teoría sea elíptico o implícito; ningún procedimiento formal
228

completará, por desgracia, lo que no haya estado en el original. Lo que


puede lograrse es, cuando mucho, hacer explícitos y evidentes los huecos.

Si una teoría no sale moderadamente airosa del análisis formal-


sintáctico probablemente no lo haga tampoco en los aspectos siguientes.
Como se verá, el análisis parece tener una progresión lógica, lo que
implicaría que quizá haya teorías que no lleguen a requerir un análisis
completo, al quedar prácticamente debilitadas desde los análisis
pragmático o sintáctico. En las que sobreviven es factible pasar al aspecto
metodológico.

3. Aspecto metodológico
En este tercer aspecto nos interesa determinar si la teoría es realmente una
teoría empírica legítima: es decir, si es cuando menos refutable en
principio. Y si cumple con el criterio de refutabilidad, qué tan viable es la
refutación. Intuitivamente, para que una teoría sea refutable en principio,
debe “prohibir” algo; es decir, debe especificar qué condiciones llevarían
a considerarla debilitada. Si la estructura es simple, de un condicional, lo
que la teoría prohíbe es que se presente el antecedente y no el
consecuente. O, en su versión cuantificada, que exista al menos en un
caso en que se dé la propiedad adscrita en el antecedente y no la
adscrita al consecuente (como vimos en la sección sobre el método, del
Capítulo 6). El problema surge cuando la teoría tiene muchos principios
generales, dado que, como vimos entonces, en principio, puede suceder
una de dos cosas: considerar al explanans en su conjunto como
antecedente de la explicación y al explanandum como su consecuente; o
bien tratar a cada principio general de manera autónoma. En cualquiera
de las dos opciones debe haber algo que la teoría “prohíbe”, lo que se
llama el “reporte de observación” que debilitaría la teoría.

Regresando al ejemplo de Service, reconstruida simplemente la


teoría como “En donde haya casos de redistribución regional surgirá el
cacicazgo”, el reporte de observación que refuta sería que en el caso X
hubiera redistribución regional y no cacicazgo.

Criterios de evaluación: factibilidad: algoritmo identificatorio,


precisión, factibilidad práctica
No todas las teorías, por desgracia, son refutables en principio. Existen
algunas que parecerían impedir a toda costa su refutación, lo que logran
haciendo que cualquier estado de cosas sea permisible para la teoría.
Dicho de otra manera, no prohíben nada y en consecuencia, son inmunes
a la opinión del mundo. Un ejemplo sería la versión de 1972 de la teoría de
Wittfogel [1972] en que, enfrentado con los casos mesoamericanos, en los
que se pensaba no había irrigación compleja, el autor recurre a proponer
que ello no significa que la sociedad no sea hidráulica, dado que existen
229

“instituciones hidráulicas” aunque la irrigación sea simple. Y en seguida, da


una lista de instituciones que se encontrarían en cualquier Estado,
hidráulico o no. Con ello se asegura que cualquier caso conocido cumpla
lo estipulado por su teoría, dado que no habrá un caso de sociedad
hidráulica que no tenga un Estado despótico, dado que todos los casos de
Estados serían sociedades hidráulicas, aunque no dependan del riego.

En otros casos, el problema para la refutación es la vaguedad de la


teoría. Es el caso de la propuesta de Flannery sobre el origen del Estado de
1973. Aunque el autor, con su modestia característica, nunca pretendió
tener una teoría completa, lectores posteriores (incluyéndome a mí) la han
incluido entre las teorías sobre el origen del Estado arcaico. El problema es
que la teoría sufre de “vaguedad terminal”: sus principios generales
especifican cosas del estilo de que “si un control de orden inferior falla en
mantener algunos valores dentro de los umbrales mínimos, entonces un
control de orden superior tomará su función”, lo que sin duda puede ser
cierto. El problema es qué es un control de orden superior, o de orden
inferior y, peor aún, qué valores son los que hay que mantener dentro de
qué umbrales. En ausencia de una especificación más precisa, la teoría es
totalmente irrefutable, aunque, paradójicamente, siempre será posible
sostener, a posteriori, ante la presencia de una teoría real, que “eso” era lo
que la teoría sostenía. Así si fuera el caso de que la población es una de las
variables en cuestión y el umbral fuera el límite de capacidad de carga,
ambos elementos propuestos por otra teoría, siempre es posible decir:
“claro, exactamente lo que mi teoría predecía”, pero en rigor la teoría no
puede predecir nada con precisión.73

En otras ocasiones no es la imprecisión con la que se formulan los


principios generales, sino más bien que de todas maneras no podemos
evaluar la teoría por que no hay cómo reconocer esas variables en el
mundo. Ya mencionamos el caso de las teorías derivadas de la teoría de la
información o la capacidad de proceso humano, que predicen con
precisión la aparición de controles jerárquicos de segundo orden a partir
del número de unidades de control de primer orden [Johnson 1982:395]. Ahí
el problema no es la precisión, sino el cómo contar unidades de control en
la realidad, o bits de información. ¿El control de primer nivel equivale al

73
Aprendí en Michigan que esta es la razón por la que el éxito predictivo tiene que ser
genuino como para que valga a favor de una teoría y que Popper no está tan
convencido de que ese sea el quid del asunto. El ejemplo, del que luego yo hice uso, es el
de las “teorías de las psíquicas de California”. Al inicio de cada año, en las revistas
femeninas (lamento el comentario aparentemente sexista, pero es en donde aparecen
normalmente estas predicciones), las psíquicas de California predicen cosas como “morirá
este año una querida actriz de Hollywood”. “¡Claro!”, decía mi profesor Railton, “¡si
Hollywood está lleno de viejas actrices alcohólicas!; o bien: “continuarán los conflictos en
el Medio Oriente”, o “un terrible fenómeno natural azotará Asia”. El número de eventos
que son compatibles con estas pseudo-predicciones es potencialmente infinito. Así, no es
el que predigan algo, lo que las haría científicas, sino el que fueran refutables, cosa que
por lo visto no pueden ser.
230

grupo familiar? ¿al pater familias? ¿el de segundo nivel al administrador del
poblado? ¿al centro regional del que dependen poblados locales? Es
imposible, con solamente leer la teoría, determinar estos factores.

Es a este problema al que he llamado de “algoritmo identificatorio”.


Un algoritmo, entendido el término en un sentido laxo, es el procedimiento
a seguir para resolver un problema. En este caso, el problema es el de
identificar en la realidad una variable y poder determinar su magnitud. Las
teorías en ciencias sociales parecen adolecer en ocasiones de este tipo de
problemas. La causa, se ha dicho, es la dificultad de cuantificar lo social 74.
Pero es claro que no se requiere llegar a escalas de intervalos para decir
que hemos cuantificado: las escalas nominal y ordinal son escalas también
(aunque cuantitativa sólo la segunda, en sentido estricto). El problema es el
de poder tener un algoritmo para identificar la variable y estimar, cuando
menos en una escala ordinal, su magnitud. Ello suele ser resultado menos
de la complejidad de lo social que de lo incompletas que suelen ser las
teorías en nuestras ciencias.

Un último elemento tiene que ver con la viabilidad práctica de la


refutación (es decir, ya no en principio, sino en la práctica). Me refiero a
que la teoría puede ser de tal complejidad y la recuperación de los datos
tan difícil (tardada, costosa, peligrosa, moralmente objetable, etc.), que en
realidad aunque la teoría sea refutable en principio, no lo es en la práctica
(salvo por experimentos “mentales”). Ello en sí mismo no descarta a una
teoría: hemos empleado en otras ocasiones el ejemplo de teorías sobre
qué implicaría desviar el eje terrestre, que aunque quizá hoy ya sea posible
lograrlo, ello no significa que sea bueno o justificable hacerlo simplemente
para evaluar una teoría. Pero es claro que si tenemos dos teorías,
empatadas en todos los otros aspectos y desiguales en cuanto a éste,
habría que preferir aquella cuya evaluación en la práctica y no solamente
en principio, es más viable.

Si la teoría no logra pasar el análisis de este aspecto metodológico,


entonces probablemente ya no será necesario (ni posible, en sentido
estricto) pasar a evaluarla empíricamente; a una teoría irrefutable no
pueden hacerle nada los datos. Me temo que en arqueología será
frecuente encontrarnos con discursos que son, a la hora de la hora,
formulaciones veladas de filosofía política, disfrazadas de teorías empíricas,
cuya verdadera identidad será revelada cuando sean analizadas en el
aspecto formal-sintáctico.

74
Al menos en algunas de las ciencias sociales parecería haber una reticencia a
cuantificar, que yo asociaría a que muchos llegamos a las ciencias sociales escapando
de las matemáticas. Pero, como con justicia señala Aura Ponce de León (Comunicación
personal, México, 2008), existen ciencias sociales en las que la cuantificación y el uso de
sofisticados modelos incluso computacionales son frecuentes, como en ciertas áreas de la
economía, la sociología y la psicología.
231

4. Aspecto ontológico
Otro elemento que distingue nuestra propuesta de las
formalizaciones de corte sintáctico, gratas al neopositivismo, además del
énfasis pragmático señalado, es el que el contenido importa. De poco sirve
en arqueología una teoría formalmente impecable si no es una teoría
social aplicable a la arqueología. Ello requiere analizar el tipo de entidades
que la teoría postula. De nuevo, esta asignación derivará, en condiciones
normales, de la posición teórica que generó la teoría sustantiva. Es decir,
sería extraño encontrar que no coincidieran.

Lo que nos interesa, en consecuencia, es determinar si las unidades


empleadas en la teoría son unidades sociales o si estamos frente a un caso
de reducción o de “absorción” teórica (que abordamos con algún detalle
en el Capítulo 4). En el primer caso, la explicación recurre a entidades de
una teoría que está “por debajo” del nivel ontológico social –como sería el
caso en el intento de reducir lo antropológico a lo genético en la
sociobiología [Wilson 1975]; en el segundo caso, cuando las unidades son,
al menos pretendidamente, de un nivel “superior” que engloba y subsume
a lo social, como pretenden la escuela sistémica [Bertalanffy 1971] y
ecosistémica [Flannery 1975, orig. 1972], que sostienen que los sistemas
sociales no son sino ejemplos de un tipo de sistemas más amplio, el de los
sistemas complejos, con principios generales de un nivel mayor de
aplicación que simplemente el ámbito social (como proponía Flannery en
1972: “Sugiero que los mecanismos y procesos son universales, no
solamente en la sociedad humana, sino en la evolución de los sistemas
complejos en general”. [Flannery 1975, original 1972:31].

¿Qué unidades son, al menos en principio, sociales? Cualquier


mención a sociedades, asentamientos, grupos, etnias, culturas, niveles
evolutivos humanos, sitios, tecnologías, etc., es decir, cuestiones producto
de la actividad social humana; por contraste, no son al menos en principio
sociales unidades como “sobrecarga de información”, “entropía”, “gen”,
“atractor”, “unidad jerárquica de proceso y control”. No por ello son
unidades ilegítimas: en absoluto, juegan importantes papeles en sus
respectivas teorías; solamente que estas teorías no son teorías sociales, sino
de la cibernética, la genética, la teoría del caos, la teoría de la información
y similares. En particular, sobresale el intento de explicar mediante teorías
de las llamadas “ciencias formales” (lógica y matemáticas) asuntos de las
“ciencias empíricas” como la arqueología. Resulta absurdo contestar a la
pregunta “por qué surge el Estado”, con el teorema de Pitágoras (o algún
principio similar en la teoría del cálculo o de la teoría matemática del
caos). Y resulta problemático hacerlo desde una disciplina empírica que
intenta reducir o absorber a la teoría social en cuestión. Al menos es
inaceptable si no se cumplen los requerimientos para una reducción
interteórica, que cómo vimos en el Capítulo 4, son muy demandantes.
232

Criterios: “emergencia”, o en su caso, “calidad de la reducción


interteórica”
Derivados de las consideraciones anteriores, surgen cuando menos
dos criterios: es preferible en arqueología una teoría que reconoce el
carácter “emergente” de los procesos sociales, es decir, que no son
reducibles/absorbibles por otros niveles ontológicos. O, si no se quiere
prejuiciar el asunto, entonces se puede pedir que la propuesta de
reducción/absorción cumpla los requisitos relevantes: que haya funciones
(unívocas o multívocas) que permitan eliminar todos los términos y
principios de la teoría reducida a favor de los de la teoría reductora; que la
teoría no pierda capacidad explicativa al ser reducida; y que las reglas de
reducción (que son en sí mismas hipótesis), tengan corroboración empírica
independiente.

Para ilustrarlo con el caso de la sociobiología, no solamente habría


qué encontrar a qué término de la teoría sociobiológica corresponde un
término como “ideología”, sino mostrar que los fenómenos ideológicos o
simbólicos son explicables a partir de diferenciales reproductivos atribuibles
en último caso a caracteres genéticamente determinados. Habría que
mostrar, adicionalmente, que dichos caracteres son localizables en el
genoma humano, por ejemplo, que existe, como insinuaba Wilson, un “gen
de la clase social”; y que los principios generales que gobiernan la
transmisión de información genética son, en efecto y con todo el apoyo
empírico requerido, capaces de explicar, por ejemplo, las diferencias
ideológicas entre clases. Sin evidencia al respecto, la reducción no es
aceptable y la teoría en cuestión no es satisfactoria, o al menos lo es en
menor medida que una teoría no reductora.

Íntimamente ligado al problema de la reducción de los términos


teóricos, como veremos, está el de su identificación en la realidad: lo que
he llamado el “problema del algoritmo de identificación”. Si propongo que
un proceso social es el resultado de la “sobrecarga de información”,
entonces más vale que tenga manera de determinar a qué equivale una
“unidad de información” en lo social. De otra forma no puedo aplicar las
ecuaciones que relacionen la carga de información con la aparición de
“unidades jerárquicas de control” y argumentar que cuando la carga de
información supera “cierto límite”, típicamente después de la séptima
unidad de información, será más “eficiente” generar una “unidad de
segundo nivel” que optimice el proceso de toma de decisión, como hace
Johnson [1982].

No se me malinterprete. No tengo nada en contra de usar teorías de


otras disciplinas como fuente de inspiración y búsqueda de analogías que
pueden estimular la generación de teorías sociales. Cualquier disciplina
puede ser utilizada con propósitos heurísticos en arqueología. Lo que no se
vale es afirmar que se han logrado explicaciones legítimas cuando lo único
que se tiene, quizá, son paralelos que puede valer la pena explorar.
233

Aquí es más difícil encontrar ejemplos del criterio en arqueología,


precisamente porque la arqueología procesual era muy dada a explorar
posibilidades reductoras, es decir, el criterio sería exactamente el opuesto.
Pero el propio Binford se quejaba, por ejemplo, del intento de explicar
mediante principios de la psicología (un caso de absorción, en nuestra
terminología), procesos culturales [Binford 1972 (original 1965):196].Y uno
podría leer la insatisfacción sobre la arqueología procesual que hacían
críticos como Hodder, como al menos parcialmente motivada por la
tendencia hacia explicaciones deterministas en que los elementos causales
siempre vienen desde el exterior, de cambios medio ambientales [Hodder
1986]. No obstante, hasta donde se, el tema de la reducción no se ha
discutido mucho, salvo quizá desde la propia arqueología social
latinoamericana [Gándara 1983, 1990b].

De nuevo, como sucedía con el aspecto pragmático, el análisis de


este segundo aspecto puede ser suficiente como para reducir el número
de teorías contendientes, o al menos, ir jerarquizando qué teorías son
preferibles. Las teorías que califican mal en este aspecto difícilmente
mejorarán en los aspectos subsecuentes del análisis (con excepción del
sintáctico, dado que las teorías formales que se ha intentado a veces
utilizar suelen ser teorías sintácticamente impecables, incluso formalizadas y
con todo un aparato cuantitativo, como la teoría matemática de la
información).

5. Aspecto valorativo (implicaciones éticas y políticas de la


teoría)
Una de las mejores maneras de detectar si la teoría es realmente una teoría
empírica o un discurso moral velado es analizar sus implicaciones éticas y
políticas. De nuevo, estas implicaciones derivan de lo que, a nivel de la posición
teórica en su conjunto, se sostiene en el área valorativa. Pero es en las teorías
sustantivas en donde esta valoración es mucho más clara.

En cierto sentido, esto no es sino una expresión de lo que hemos llamado la


“ontología social” de la posición teórica. Es decir, los supuestos que tienen que ver
con la condición o naturaleza humana. Estos supuestos quedan evidenciados
cuando una teoría poco fértil “enseña el cobre” rápidamente y recurre a la
ontologización arrogante. Es en ese momento en que quedarán más
evidenciados sus supuestos valorativos. He hecho mención antes a las polémicas
con colegas tan queridos como Luis Guillermo Lumbreras, quien alguna vez
propuso una teoría del origen del Estado en la que, una vez que existía el
excedente o plus producto social, alguien lo “secuestraba” para su uso individual.
Ante la pregunta “¿y por qué lo hacen?”, la respuesta solía ser, “porque
aprovechan el poder que les da su función, como la de ser los que predicen el
tiempo”; a lo que la pregunta se convertía en “¿y por qué quieren sacar
234

provecho al poder de su función?”, la respuesta, luego de varios titubeos era


“porque así es la gente”. El problema es que esta ontologización, además de ser
poco explicativa, nos genera un problema político: si así es la gente, entonces
¿qué caso tiene trabajar por un cambio social profundo? A la larga, el “hombre
malo por naturaleza” volverá a emerger, de forma tal que parecería que la única
manera de protegerse es con terribles instituciones de supervisión y control, en
cuyo caso no es claro decir en qué sentido es que una transformación
revolucionaria sería realmente un paso adelante. Al menos para el marxismo,
asumir una valoración de este tipo implica contradecir los valores éticos y políticos
detrás de la teoría.

En otras teorías hay menos empacho al respecto. Service cierra su libro de


1975 con una propuesta que no es otra cosa que el discurso de la filosofía política
liberal del siglo XIX: la gente se da cuenta que le conviene vivir bajo la supervisión
del Estado y sacrificar algunos derechos personales y, por supuesto, que alguna
parte de la población viva en condiciones de desventaja- siempre y cuando se
eleve el bien común [Service 1975:294-299]. Con ello, la explicación del origen del
Estado regresa a las teorías voluntaristas que Carneiro criticó desde 1970, críticas
con las que Service se supone estaría de acuerdo. Al menos la teoría no indica en
qué condiciones antecedentes es que la gente “se da cuenta”. Ello es
importante, porque deja sin explicar por qué solamente en seis casos apareció en
el mundo el Estado arcaico original. Me imagino que el resto de la gente simple y
sencillamente “nunca se dio cuenta”.

Criterios: fertilidad teórica; consistencia con el resto de los valores de la


posición teórica; congruencia con un punto de vista que permita entrever
cómo mejorar nuestra realidad social

Muchas teorías acaban resultando realmente ontologías derivadas de una


filosofía política, que el autor consciente o inconscientemente intenta vendernos
como teorías sustantivas. La mejor manera de detectarlo es viendo tanto la
naturaleza de las entidades propuestas (es decir, si son realmente sociales o
implican alguna forma de reducción). Y de ser entidades sociales, ver qué tan
fértil es la teoría, antes de recurrir a la ontologización. Una vez que lo hace,
determinar qué concepción del hombre o la naturaleza humana presenta. El
hombre acaba siendo: macho dominador, adicto al poder, sediento de violencia
gratuita, ostentoso, megalomaníaco y antisocial, ya sea de manera aislada o en
conjunto, “por naturaleza”. Como señalamos antes, aún si eso fuera cierto (cosa
que no es factible probar, dado que las ontologías se asumen, no se prueban,
como vimos en el Capítulo 4), las teorías en cuestión resultan insatisfactorias,
precisamente porque carecen no sólo de fertilidad explicativa (de otra manera
no ontologizarían tan rápido), sino de simetría explicativa: si el hombre “es así por
naturaleza”, entonces en donde quiera debería haber Estados y sociedades de
clase.
235

Es importante también determinar si los valores presentes en la teoría


sustantiva son congruentes con los de la posición teórica (al menos con el
discurso de la posición teórica). Una posición teórica que dice tener una visión
optimista del mundo, pero que en el último análisis renuncia a cualquier
posibilidad de mejorarlo, dado que “el hombre es así”, es incongruente. Conste
que aquí la congruencia no es entre mis valores y los de la teoría analizada: es
entre la posición teórica, su discurso y los valores encarnados en la teoría
sustantiva.

Sobre estos criterios tampoco hay muchos antecedentes, salvo que las
críticas de autores como Shanks y Tilley [1987a, 1987b] a la arqueología procesual
pudieran considerarse como tales. En virtud de que el propio proceso de
ontologización no había recibido mucho interés en la disciplina, era difícil
detectar sus componentes políticos y éticos.

Resulta interesante preguntarse cómo es que científicos responsables,


normalmente hasta progresistas, son capaces de recurrir a la ontologización
prematura, orientados más por una filosofía política implícita y sin crítica, que por
una teoría empírica real. Me imagino es el resultado de que las posiciones teóricas
no se adoptan en un vacío social. Los componentes valorativos de la posición
suelen responder a las necesidades ideológicas del momento en que se generan.
Los arqueólogos no tendríamos por qué ser inmunes a este proceso. Lo que no se
vale es que simplemente se asuma, sin cuestionamiento y se eleven a elementos
de la “esencia humana”, eterna e inmutable, opiniones políticas y morales.

Es por esta razón que resulta ilustrativo el análisis de este aspecto de las
teorías sustantivas, aún si otros aspectos han demeritado a la teoría en cuestión.
Nos ayuda a entender el conjunto de fuerzas y valores en el que opera la
arqueología; y a detectar y examinar críticamente estos valores, antes de
pasarlos como “resultados de la ciencia”.

Si la teoría ha pasado bien otros aspectos entonces, aunque nuestra


valoración pueda ser diferente a la del autor analizado, es indispensable ver el
último (y en mi opinión ese debería ser el orden real de la evaluación teórica) de
los aspectos, que es en el que normalmente se centra el trabajo en arqueología:
el del apoyo que pueden estar o no dando a la teoría “los datos”.

6. Aspecto empírico: el apoyo de los “datos”


A estas alturas quizá quede al menos un poco más claro por qué es que
este aspecto debe ser considerado en este momento y no antes. Si no sabemos
cuando menos a qué responde la teoría, qué es lo que la teoría dice y si lo que
dice es refutable o no, entonces no veo en qué sentido los datos pueden hacerle
o no mella. La información por si misma no es significativa. Lo es en función de
alguna teoría. Pero entonces adquiere prioridad determinar qué es lo que la
teoría propone, con la mayor exactitud y fidelidad al autor original que podamos
lograr.
236

Para verlo baste revisar un solo ejemplo. En una sus tres “refutaciones
hawaianas”, Earle pretende [Earle 1978] haber refutado la teoría de Service sobre
el origen del cacicazgo (la misma teoría sobre la que presentamos antes tres
posibles reconstrucciones informales). Earle reporta que a) en la isla de Kawaii,
que es la que el estudia, sí hay variabilidad ambiental; b) que no hay un sistema
redistributivo regional, dado que cada unidad es autosuficiente y no existe
especialización productiva; y c), que la organización social no es una de
cacicazgo al estilo de Service. En consecuencia, concluye que Service está
refutado.

Si yo entiendo bien este argumento, Earle propone que de dos de las


variables que constituyen el posible antecedente del condicional, solamente una
se cumple; y que el consecuente está ausente. Es decir, reconstruye algo así
como:

Principios generales
P1: Si existe variabilidad regional y especialización
productiva entonces surgirá un sistema de redistribución
regional
P2: Si existe un sistema de redistribución regional entonces
surgirá (asumimos que de su manipulación) un cacicazgo

Condiciones antecedentes
A1: En Kawaii hay variabilidad regional
A2: En Kawaii no hay especialización redistributiva
A3: En Kawaii no hay un sistema de redistribución
regional
--------------------------------------------------------------
Explanandum: En Kawaii no hay un cacicazgo

Hasta donde yo logro darme cuenta, este argumento no refuta a Service,


sino, en una interpretación al menos, ¡lo corrobora!. La razón es simple: se cumple
precisamente lo que establece la teoría (así reconstruida): si el cacicazgo es
resultado del sistema de redistribución (por P1) y en Kawaii no hay un sistema de
redistribución (por A3), ¡no tendría por que surgir un cacicazgo!. Y eso es
precisamente lo que Earle dice que encuentra (para él Hawai en su conjunto no
es un cacicazgo “simple” como el descrito por Service, sino un cacicazgo
complejo, cuyo origen Earle intentará explicar de manera alternativa [Earle 1973].

Earle parece reducir la teoría a una expresión todavía más simple y con
otra composición:

P*: Sí y solo sí hay redistribución regional habrá cacicazgo


A* En Kawaii no hay redistribución y sí un cacicazgo (complejo)
--------------------------------------------------------------------
237

(Por lo tanto), es falso que el cacicazgo (complejo) sea un resultado de la


redistribución

Es decir, interpreta aparentemente P* como un principio bicondicional


determinista: si es cierto, deberán aparecer con el mismo valor de verdad ambos
antecedente y consecuente; como indica A* esto no se cumple en Kawaii, al no
haber redistribución y sí haber cacicazgo, lo que muestra que A* es falso.

Pero es dudoso que A* captura lo que Service quería decir cuando


propuso su teoría. Y peor de dudoso (aunque en un sentido diferente, el de la
honestidad intelectual), es el truco que hace Earle a sustituir el consecuente
original de P*, que habla del concepto de cacicazgo de Service, con el término
que Earle introduce, el de “cacicazgo complejo”, sobre el que Service no tuvo
nada que decir. Conste que no abogaré aquí por una interpretación de la teoría
de Service como compuesta de condicionales probabilísticas (él era muy
cuidadoso y generalmente utilizaba fórmulas como “es altamente probable”, o
“en la mayoría de los casos”, ambas mucho más legítimamente interpretables
como apuntando hacia principios probabilísticos).

Entonces: ¿apoyan o refutan a Service los datos de Earle?. Depende de


dos cosas: primero, de cómo se reconstruya la teoría de Service; es una desgracia
que Earle no haya tenido oportunidad de responder a esta “refutación”, que sin
duda impulsó la carrera académica de Earle (había refutado a una “vaca
sagrada”). Segundo, de qué tan confiables sean en cualquier caso los datos de
Earle. No puedo entrar aquí en detalles sobre el asunto, pero el lector interesado
los puede consultar en Gándara [1981]. En suma, se trata de un estudio
etnohistórico mediante documentos obtenidos de un periodo en el que la
economía y organización social hawaiana habían sido totalmente transformados
por la invasión inglesa. En lo que toca a la parte arqueológica, es
fundamentalmente un estudio de superficie, con excavación limitada (de
confiabilidad difícil de evaluar, al menos en la versión publicada como tesis), que
difícilmente constituyen una muestra adecuada del distrito de Halelea, que es en
donde se centra el estudio, que a su vez es difícilmente una muestra
representativa de Kawaii, o del conjunto de las islas hawaianas.

Generalizando el ejemplo, podemos regresar a formular en qué consiste la


evaluación de este aspecto empírico. Requiere, en primer lugar, una
reconstrucción cuidadosa de los aspectos pragmáticos y formal-sintácticos de la
teoría, para determinar exactamente lo que la teoría dice. En segundo lugar, del
aspecto metodológico, sobre todo lo que se refiere a la viabilidad de la
evaluación empírica, es decir, que no haya variables o principios vagos o
imposibles de identificar empíricamente. En tercer lugar, hay que evaluar la
calidad de la información en sí, en términos de la calidad y variedad, la
confiabilidad y la representatividad de la información empírica, lo que se logra
por referencia a las teorías de la observación y de lo observable involucradas. En
suma, se requiere de hacer una “crítica de fuentes”, que en arqueología suelen
ser fuentes arqueológicas (es decir, el propio registro arqueológico recuperado
por el arqueólogo o sus colegas).
238

Criterios: calidad y variedad de los casos de prueba; severidad del intento


de falsificación; confiabilidad y representatividad de la información;
contundencia de la evaluación
He argumentado en otro lado que, aunque parezca sorprendente, nuestros
procedimientos de obtención de datos (y conversión en información) involucran
siempre teorías, teorías de la observación y lo observable, a las que haremos
referencia en el Capítulo 11. Hasta la aparentemente inocente elección de
herramientas de excavación y tipo de ataque empleado a la superficie
excavada, dejan improntas sobre la calidad y confiabilidad de los datos. El
control de la representatividad estadística es otro factor importante.

No añado, entonces, mucho que no sea conocido, a los argumentos


típicos que tienen que ver con la evaluación de la corroboración (o confirmación,
en el lenguaje neopositivista): variedad e independencia de los casos, a lo que se
suma el criterio popperiano de “severidad del intento de refutación”; y, por
supuesto los de confiabilidad de la información, en términos de los
procedimientos de obtención y análisis, incluyendo la representatividad
estadística.

Sin criterios como los señalados (aunados a tener claro lo que la teoría
dice), es difícil ver cómo es que puede proceder la evaluación empírica. De otra
manera, se asume implícitamente una epistemología empirista ingenua, en la que
la información es siempre confiable y no problemática, dado que accedemos a
los datos sin ningún tipo de dificultad.

Por último, aún con una información impecable (y como he dicho en otro
lado, el que tenga los datos libres de culpa que arroje la primera piedra. Gándara
[1994], si la evaluación no está hecha bajo criterios claros, puede perder
contundencia. Es el caso de una hipótesis en la que se dijera que en un alto
número de casos si P entonces Q. Reviso 6 casos; en cuatro se cumple el principio;
en dos no. ¿He refutado la teoría?. Depende, por supuesto, de la manera en que
se interprete “alto número de casos”. Es por ello que lo ideal es que los que
proponen teorías empíricas establecieran los criterios de su evaluación empírica.
Por desgracia, muchas de las teorías empleadas en arqueología vienen de la
antropología cultural y sus autores no siempre han visto la necesidad de explorar
la literatura arqueológica para ver cómo es que se están interpretando (e
identificando en el campo) conceptos como “ arcaico” o “presión demográfica”.
Las posibilidades para errores del tipo llamado “equívocos” (en que se mantiene
el término pero se sustituye el significado original por uno nuevo, del analista o
crítico de la teoría), son amplias.

Pero incluso en el caso en que la información fuera impecable y estuviera


fuera de duda lo que la teoría dice y cómo ha de ser evaluada y la información
contradijera directamente a la teoría, no se le habría refutado por completo. No
hay que olvidar que, siguiendo a Lakatos, no puede haber refutación sin
239

alternativa. Así que un último elemento en el análisis de este aspecto puede ser el
examen de la o las teorías que supuestamente constituyen la alternativa a la
teoría refutada.

Hay que resistir, entonces, el síndrome que he llamado de “empirización


prematura” en la que, sin tener primero claro lo que la teoría intenta resolver,
cómo es que lo hace y qué es lo que realmente dice, saltamos de inmediato a los
“datos” para refutarla o corroborarla. Como he dicho en otro lado, la
empirización prematura, como otras incidencias prematuras, suele dejar a todo
mundo insatisfecho. Afortunadamente, es tratable y se puede superar con un
poquito de análisis… teórico.
240

Segunda Parte

El caso de estudio: la teoría de Sanders, Parsons y


Santley
241
242

Capítulo 11

El campo de batalla: las teorías sobre el origen del Estado arcaico,


prístino o inicial
En esta segunda parte aplicaremos las herramientas desarrolladas hasta
ahora a nuestro caso de estudio, la teoría sustantiva de Sanders, Parsons y Santley
[Sanders, et al. 1979] sobre el origen del Estado en la Cuenca de México. En este
capítulo analizaremos el contexto en que la teoría se propuso y, en particular,
cómo se concebía en ese momento el problema que la teoría debía resolver. En
el Capítulo 12, ubicaremos la teoría dentro de la posición teórica de Sanders; en
el Capítulo 13 realizaremos el análisis teórico de la teoría sustantiva, para intentar
en el Capítulo 14 evaluar el resultado de este análisis comparando la propuesta
de SPS con algunas de las teorías competidoras destacadas de ese momento.

En el capítulo anterior señalábamos que uno de los pasos iniciales del


análisis de teorías sustantivas es la delimitación del contexto en que se produce la
teoría a analizar. En este capítulo nos daremos a esa tarea, sobre todo en lo que
toca al contexto académico. Intentaremos dar algunos antecedentes sobre las
polémicas en torno al origen del Estado y cómo la discusión del propio término (y
sus indicadores arqueológicos) constituyen un auténtico campo minado. Para
poder proceder al análisis es importante al menos desactivar algunas de esas
minas. Ello implicará hacer algunos viajes que, de primera impresión, parecerían
alejarnos del tema, pero espero que luego el lector podrá constatar son
indispensables para darle sentido a la polémica.

Explicar el origen del Estado. Ok. Pero ¿qué entendemos por Estado?
Sin pretender un examen exhaustivo del tema (aunque el lector interesado
puede consultar Gándara [1987] para un recuento más completo), es
indispensable clarificar primero de qué se trataba la polémica sobre el origen del
Estado y cómo la caracterización de este término tiene un impacto directo tanto
sobre las teorías producidas como sobre sus supuestas “refutaciones”.

El término “Estado” adquiere su connotación actual en antropología a


partir del trabajo de Service, quien lo ubica como el cuarto de los estadios o
niveles evolutivos en su esquema de evolución general (Sahlins, et al. [1960];
Service [1962, 1963, 1971a]). La definición que propuso originalmente sufrió
modificaciones en el camino y, en ocasiones, se confunde con la que sostuvo un
ex-militante compañero suyo en las brigadas de apoyo a la República Española,
el también evolucionista Morton Fried [1967, 1968]. Sin embargo, aunque tienen
puntos de coincidencia, también los tienen de divergencia (aunque no tan
243

severa como en los conceptos de “cacicazgo” –Service- vs. sociedad


estratificada -Fried).

Estos conceptos, generados por los antropólogos culturales, fueron


introducidos a la arqueología por varias rutas. La más prolija fue la propia
arqueología procesual que adopta, como hemos señalado antes, el
neoevolucionismo como su columna vertebral. A finales de la década de 1960 se
popularizó la secuencia de “bandas, tribus, cacicazgos y Estados”, así como el
intento de explicar los orígenes de cada uno de estos niveles, junto con el
problema de la inestabilidad de los primeros Estados arcaicos (“colapsos”). Habría
un nivel evolutivo que quedó solamente esbozado en los trabajos originales de
Service, que es de los imperios y su surgimiento. De esta manera, la Nueva
Arqueología “reinventa” el problema del origen del Estado en su versión moderna.

Otra ruta tuvo que ver con la arqueología de asentamientos y la


arqueología de ecología cultural. Y en ella (al menos para propósitos
mesoamericanistas), Sanders fue pionero. En su libro con Bárbara Price [Sanders
and Price 1968] propuso por primera vez de manera formal el estudio del origen y
transición entre los diferentes estadios evolutivos. Los autores también intentan dar
un primer conjunto de “indicadores”, es decir, de elementos diagnósticos que
permitirían detectar su presencia en el registro arqueológico.

Pero ni el “reinvento” de la arqueología procesual ni la incorporación del


modelo de Service a la arqueología de ecología cultural y asentamientos ocurrían
en un vacío. El problema del origen del Estado no era en realidad nuevo: era
solamente la nueva versión de un problema que es, de hecho, constitutivo de las
propias ciencias sociales: el problema de cómo es que la sociedad occidental
desarrolló los aparatos políticos que tenía en el momento en que contacta a
sociedades no-occidentales, mientras que éstas parecían arreglárselas muy bien
sin gobierno (¡gracias!). A partir de un conjunto de especulaciones en filosofía
política, apoyadas en las observaciones del registro etnográfico, el estudio de los
textos clásicos y las incipientes observaciones arqueológicas, surgieron los
primeros intentos de resolver ese enigma. Con el evolucionismo clásico, se
postulan las primeras secuencias evolutivas y se genera por primera vez un
concepto para el conjunto de características que distinguían originalmente a la
sociedad occidental: el de “civilización”. Morgan incorpora este concepto como
estadio evolutivo y apunta algunos de los elementos que debían cumplirse para
que una sociedad se considerara civilizada: la vida en ciudades (de donde viene
el término “civilización”) con un gobierno central que controla el poder sobre un
territorio, la escritura y otros logros culturales y artísticos.

El modelo original eran las civilizaciones clásicas del Egeo, pero con el
desarrollo de la arqueología pronto se hizo evidente que estas primeras
civilizaciones eran aparentemente tardías; no solamente más tardías que Egipto
(cuya antigüedad era reconocida ya por los historiadores griegos), sino que
Egipto mismo era tardío en relación con lo que empezaba a aparecer en
Mesopotamia, particularmente en Sumeria. A principios del siglo XX se generalizó
la discusión sobre otros casos posibles, notablemente el de los Aztecas y el de los
244

Incas, con una polémica sobre si la carencia de ciertos rasgos (entre ellos la
escritura y la rueda) eran suficientes o no como para conceder el estatuto de
civilización a dichas culturas (como en el debate entre Bandelier y Gamio, por
ejemplo).

Para el primer tercio del siglo XX no solamente habían proliferado los


intentos de explicar por qué es que no todas las culturas del mundo habían
“logrado alcanzar” el grado de civilizaciones –en un problema con claros tintes
de evolucionismo unilineal, en el que el progreso era el destino de la Humanidad-
con lo que era imperioso saber qué facilitaba o impedía este proceso. El marxismo
no había estado al margen de esta discusión. Es conocido el aprecio que tenían
Marx y Engels por la obra de Morgan; en el caso del marxismo el asunto no era
tanto de unilinealismo hacia el progreso sino sobre las distintas vías que podían
llevar hacia el capitalismo y su disolución. En ese contexto el hecho de que
hubiera rutas “no occidentales” era un problema de interés. Es probable que
Childe, militante de izquierda en su país natal (Trigger [1980, 1982]; Pérez [1981]),
Australia, adquiriera parte de su interés en el problema por esta misma vía.
Aunque hay que recordar que los escritos de Marx sobre las llamadas “formas
precapitalistas” no se dieron a conocer sino hasta finales de los años de mil
novecientos cuarenta [Marx and Hobsbawm 1979].

Aunque en principio para el marxismo no era el Estado, sino la sociedad de


clases la que interesa (el Estado no era sino la forma de control que una clase
ejercía sobre otra), Childe [1950] centró su interés sobre el conjunto de rasgos que
llamó “civilización” (las primeras cinco, son características primarias, las segundas,
secundarias):

Los rasgos definitorios de la civilización (Childe [1950]; Redman [1978:218]):


1. Tamaño y densidad de las ciudades
2. Especialización de tiempo completo
3. Concentración de excedentes
4. Sociedad estructurada en clases
5. Organización estatal
6. Obras públicas monumentales
7. Comercio a larga distancia
8. Arte hierático estandarizado
9. Escritura
10. Aritmética, geometría y astronomía

Con la reivindicación del evolucionismo en Estados Unidos (representado


por White y por Steward) el problema adquirió carta de naturalización en este
país. En particular Steward, influido por la lectura de Wittfogel y desde su
perspectiva de ecología cultural, intentó formular una “hipótesis tentativa” sobre
el origen de la civilización [Steward 1949]. Por rutas que a mi todavía no me
quedan muy claras, el problema parecía bifurcarse: autores como Adams (en
[Manzanilla 1986]) parecían poner énfasis en la cuestión del urbanismo como
245

elemento central definitorio, mientras que otros, notablemente Service, pondrían


énfasis en los mecanismos de integración social [Service 1963 ,1975].

Así, para Sanders y Price [1968] y otros arqueólogos afiliados a la ecología


cultural), al igual que la Arqueología Procesual (y en particular, Flannery [1975,
orig. 1972]), el Estado era centro de atención. Reivindicaban el esquema
neoevolucionista de Service. Del otro lado del Atlántico había también una rica
tradición académica, que privilegiaba otros aspectos, como el del urbanismo. El
asunto era: ¿son estas formulaciones equivalentes?

El problema eran casos como el egipcio, del que se dudaba hubiera


tenido auténticas ciudades; o el Inca, que no tuvo una escritura fonética (o al
menos no se ha descubierto). Lo cierto es que para finales de los años de mil
novecientos sesenta y con toda claridad para los setentas, se había conformado
un corpus de casos que parecían ser reconocidos ampliamente como los casos
relevantes; en orden de aparición: Mesopotamia, Egipto, India (hoy Pakistán),
China, Mesoamérica y Perú. Esta coincidencia en casos es importante dado que,
independientemente de las divergencias específicas en la definición (civilización
o Estado), había convergencia en cuanto a la mayoría de los casos involucrados.
Era el origen de esos casos el que había que explicar.

Es importante reconocer que la lista, sin embargo, es muy general y que los
detalles particulares en cada región reflejarían el grado de avance de las
investigaciones arqueológicas. El efecto típico fue “echar para atrás” tanto las
fechas como los sitios específicos: Sumer/Uruk y ya no Babilonia, que era mucho
más tardía; el viejo Imperio, en Egipto; Mohenho Daro y Harappa en India (hoy
Pakistán); las sociedades pos-bronce en China; Teotihuacan (y no los aztecas) en
Mesoamérica –caso al que pronto se uniría el de Oaxaca- y Wari y no los Incas en
Perú. Es decir, aunque las regiones seguían siendo las mismas, a medida que se
refinaban las cronologías y se excavaban nuevos sitios, lo que en general sucedió
es que el caso se movía hacia atrás en la secuencia. Y surgía un interesante
paralelo: los casos originalmente utilizados resultaban todos ser tardíos y mucho
más complejos que los casos originales. Todos tenían una organización imperial.
En este proceso surgió la discusión de las diferencias entre los “Estados primarios” y
los “Estados secundarios”.

La distinción entre Estados primarios y Estados secundarios; y entre


Estados e imperios
Este progresivo avance del conocimiento arqueológico llevó, a inicios de la
década de 1970, a una reconsideración de los casos y a un primer intento de
afinar la secuencia evolutiva.

El primer punto a definir fue cuál debería ser el centro de atención: si de lo


que se trataba era de explicar el origen del Estado/civilización, entonces parecía
legítimo concentrarse en los primeros casos conocidos. Dicho de otra manera: si
el Estado griego, uno de los casos originalmente considerados, resultaba ser casi
246

3,000 años posterior al origen del primer Estado en Sumer –y había maneras en
que el desarrollo de este último pudo haber impactado los procesos que llevaron
a la constitución del caso griego- habría que centrar la atención en los primeros
casos. Algo similar sucede con el caso mexicano: si los aztecas son un Estado
alrededor de 1,500 años posterior a los primeros Estados (Teotihuacan y Monte
Albán), entonces el énfasis debería recaer sobre los casos más tempranos.

Esta es la motivación detrás de uno de los primeros ajustes al concepto: se


apellidó a los primeros Estados como “arcaicos”, para enfatizar que eran los
primeros de lo que podría ser una secuencia larga que condujera en muchos
casos hasta los imperios originalmente reconocidos en la lista de casos.
Posteriormente esta distinción se afinó aún más, aunque no tuvo necesariamente
el consenso de todos los involucrados: había que distinguir entre “Estados
primarios” y “Estados secundarios”.75 Los primeros son aquellos que surgen en un
contexto de sociedades no-estatales –y por ello son los “prístinos”- mientras que
los segundos ocurren en un contexto en el que ya existen otras sociedades
estatales (ver particularmente Price [1978]). Otros autores, como Wiesheu [1996]
retoman el término, así como lo hacen Feinman y Marcus [1998].

Para muchos colegas, esta distinción era “bordar demasiado fino” y


pensaban que daba igual estudiar casos primarios que casos secundarios76. Otros
pensaron que no era suficiente: se produjo entonces la propuesta de hablar de
Estados “incipientes, medios y desarrollados” (Claessen and Skalnâik [1978];
Claessen and Velde [1987]) en donde no es siempre claro que esta distinción
haga coincidir los términos de Estado prístino, arcaico o primario con el de
“Estado incipiente”, ni el de “Estado desarrollado” con el de imperio; mucho
menos es claro si todos los Estados “incipientes” tenían que ser primarios (es decir,
si la distinción rescataba la característica de haber surgido en el contexto de
sociedades no estatales), o si reflejaba la complejidad estructural,
independientemente del contexto de surgimiento. Bajo esta segunda
interpretación, Estados como el Zulú, en África, serían –al menos en sus primeros
momentos- Estados incipientes, aunque definitivamente no prístinos ni arcaicos.

La otra distinción importante sería entre Estados arcaicos e imperios. Los


segundos serían un momento evolutivo más desarrollado de los primeros. Los
imperios serían, por el criterio expresado arriba, Estados secundarios.
Adicionalmente, suelen ser Estados expansionistas en los que la guerra de
conquista juega un papel central. Su extensión territorial es mucho mayor y
normalmente tienen un carácter multiétnico. En la tradición marxista se les asocia
al nivel evolutivo llamado “esclavismo”. En la arqueología procesual, Service tuvo
menos éxito con este término que con el de Estado. La arqueología
mesoamericana parecería indicar, adicionalmente, que estos imperios podrían
ser momentos de resurgimiento de Estados arcaicos luego de un momento de
colapso inicial. Hoy sabemos que, al menos para el área maya, esta distinción
pudiera no ser aplicable y si la epigrafía se interpreta literalmente, tampoco
75

76
O bien que realmente los que calificaban como Estados eran los imperios que, bajo esta
terminología, no podrían ser ya casos arcaicos o primarios legítimos.
247

valdrían para el altiplano central: en 370 un guerrero de filiación teotihuacana


entra a Tikal y al día siguiente el señor de Tikal “entra al agua”, es decir, muere.

Para nuestros propósitos no es crucial ni que todos los imperios sean Estados
arcaicos resurgidos luego de colapsos, ni que sean militaristas o esclavistas. Lo
crucial es que son Estados secundarios y muchos son, adicionalmente, muy tardíos
al momento del origen del Estado arcaico. Esta es la razón por la que estudiar el
imperio de Alejandro Magno (casi cuatro mil años más tardío que el primer Estado
arcaico en Sumer), o el imperio azteca en Mesoamérica (casi mil quinientos años
después del primer candidato a Estado arcaico, Monte Albán), aunque sin duda
es importante, no es directamente relevante al problema del origen del Estado
arcaico. Sin duda, al ser los imperios normalmente casos mejor documentados,
más cercanos en el tiempo, etc., constituyen información comparativa de interés,
a veces proyectable como elemento de contraste con casos anteriores, pero
definitivamente no son Estados que hayan surgido en un contexto de sociedades
no estatales previas. No son Estados primarios.

El asunto parecería reducirse a una cuestión clasificatoria: indudablemente


un asunto muy aburrido y que parecería llevar a debates irresolubles y, en
consecuencia, poco útiles. Pero yo quisiera argumentar que es absolutamente
crucial para una justa evaluación sobre las teorías del origen del Estado. El
argumento es simple: aquellas teorías que se generaron para explicar el origen de
los Estados arcaicos o primarios deberían ser evaluadas solamente con casos
arcaicos o primarios; de otra manera, se extiende la teoría a casos que los autores
no necesariamente intentaban explicar y se abre la puerta a refutaciones
espurias. Y para muestra un botón: la “refutación” de los Hunt a la teoría de
Wittfogel.

Perdidos en el tiempo: los Hunt a la caza de Wittfogel con una


diferencia de solamente… ¡dos mil años!
Cuando escuché por primera que Eva y Robert Hunt habían “refutado a
Wittfogel”, lo primero que pensé fue “Ahá…ellos y cuántos más”, porque
parecería que, además de la música disco y los zapatos de plataforma, una de
las diversiones favoritas de la segunda mitad de la década de los años de mil
novecientos setenta era “refutar” a Wittfogel. Luego, entrando en detalles, me
comentaron que la “refutación” era particularmente ingeniosa porque no se
trataba de algún caso prehispánico, sino de la cañada de Cuicatlán, Oaxaca a
finales de… ¡la década de 1960! En ese momento pensé que se trataba de una
mala broma, pero mis interlocutores (compañeros de doctorado en Michigan)
parecían tomarse el asunto con seriedad.

Aunque resultó que la noticia no era exacta, es interesante que varios


colegas pensaran que, en efecto, se trataba de una refutación legítima. Por
cierto que en México el efecto de esta “refutación” no fue el mismo, sino más
bien uno de burla: nadie entendía cómo era posible que se pensara que un caso
contemporáneo refutara una teoría sobre el Estado arcaico. En justicia, lo que
248

realmente había sucedido es que, motivados por las críticas que se habían hecho
a Wittfogel desde varios flancos, los Hunt [Hunt and Hunt 1978] habían tomado
algunos elementos de la teoría, para ver su viabilidad mediante un enfoque
comparativo. En el proceso, más que evaluar directamente la teoría
wittfogeliana, lo que harían sería tratar de precisar algunos de los términos
involucrados, para terminar proponiendo algunas hipótesis propias sobre las
relaciones entre irrigación, conflicto y poder.

Los autores eran conscientes de que el caso mexicano contemporáneo no


cabía entre los casos originalmente previstos por la teoría (los Estados arcaicos del
Oriente lejano y medio) [Id: 89]. De todas maneras, creían poder derivar lecciones
importantes sobre los conceptos de centralización, escala del sistema de
irrigación y la relación entre el control de los recursos hidráulicos y el poder. En sus
propias palabras:

“Las críticas al modelo de Wittfogel, en oposición a las evaluaciones


de la precisión de su tratamiento de los casos empíricos, deben
mantenerse dentro del dominio que Wittfogel ha definido. Muchas de las
críticas se han enfocado no sobre las posibles relaciones entre el riego, la
economía, la estratificación y la política sino en el nexo supuesto entre la
irrigación (concebida normalmente en términos generales, más que con las
limitaciones que demandaba la teoría de Wittfogel), la centralización y el
despotismo. La distinción debe tenerse en mente cuando uno lee la
literatura sobre la irrigación, dado que se ha hecho un esfuerzo importante
para desacreditar la parte de la teoría referida al despotismo. Para poder
cumplir esa meta, la relación entre la irrigación y la estructura política ha
sido oscurecida, que en este caso equivale a tirar el grano con tal de
deshacerse de la paja” [Hunt and Hunt 1978:71]; énfasis en el original].

A primera vista, parecería ser un llamado a la cordura y a la prudencia en


cuanto a las críticas a Wittfogel. Por lo mismo, resulta entonces incomprensible
que los autores no protesten cuando comentan sobre otros intentos de evaluar a
Wittfogel que han resultado en rechazos a la teoría, como sería el caso de Glick,
que no encontró la presencia de un Estado despótico en …¡la Valencia de la
Edad Media! [Id:72]. Claramente el caso está fuera de lo que ellos llaman “el
dominio de la teoría” original. Algo similar sucedería con otros casos que citan,
como el de Ceilán de Leach [Id.]. Es decir, por un lado, parecen tener una idea
de lo que llaman el “dominio de la teoría original”, que entendemos son los
Estados arcaicos; pero por otro lado no señalan el abuso de casos fuera de ese
dominio que supuestamente debilitan la teoría original.

Hay varios elementos importantes en este caso de evaluación: el primero


es que los autores [Hunt and Hunt 1978:69] parecen depender más de una fuente
secundaria, los comentarios de Price [1971], destinados a defender a Wittfogel,
que de la obra original [Wittfogel 1957]; de otra manera no se explica que la
distinción de hace Price entre los supuestos aspectos diacrónicos y sincrónicos de
la teoría sea retomada, ya que esta distinción no juega un papel central en la
teoría original. Y tampoco que se separen elementos de la teoría que
249

supuestamente correspondan a aspectos sincrónicos (también llamados


“funcionales” por los Hunt [Id.:69]; y que, así separados de la teoría original, ahora
puedan considerarse en un marco comparativo, “fuera del dominio” de la teoría,
un marco históricamente lejano al de los casos originales. El segundo elemento es
que se pretende también separar la teoría de su componente evolutivo y de su
intención de explicar el origen del despotismo oriental. Es decir, se prescinde de la
“problemática explicativa” original de la teoría. El tercer elemento es que, a pesar
de contar con una secuencia histórica sobre los sistemas de riego en la región de
la Cañada de Cuicatlán, Oaxaca, que va desde el Posclásico hasta finales de la
década de 1960, que documenta los cambios y la compleja interacción entre las
escalas local, regional y nacional, así como su efecto en el juego entre las
variables políticas, sociales y económicas, los autores encuentren que pueden
restringir su evaluación fundamentalmente al municipio de San Juan en las
décadas de 1940 a 1970 (aproximadamente) y, al mismo tiempo, pretendan
encontrar relaciones que sean invariantes en el tiempo, como para poder
fundamentar desde ahí sus propias hipótesis.

Los autores señalan que comparten con otros asistentes a una reunión en
Long Beach en 1971, la conclusión de que en realidad “no hay una sociedad
hidráulica” [Id.:72], sino quizá muchos tipos de sociedades hidráulicas. De nuevo
quizá este intento de mejorar las clasificaciones sea loable. Lo que no queda
claro es entonces cómo deja esto a la teoría de Wittfogel, que no habla sobre las
sociedades hidráulicas de cualquier momento de la historia o el tiempo, sino de
las que acompañaron al origen del Estado en sus áreas respectivas, es decir, un
tipo particular de sociedades hidráulicas. Al menos era así en la formulación
original de la teoría, que para 1972 Wittfogel mismo se encargaría de transformar
para dar cuenta, llamándoles “sociedades hidráulicas” [Wittfogel 1972], de
aquellas que no dependían de las obras hidráulicas, maniobra que, como
comentamos en el capítulo anterior, hace irrefutable a la teoría.

No pongo en duda la seriedad de los Hunt, de la honestidad de su


motivación, ni el esmero que pusieron en la recolección y análisis de los datos; de
hecho, hacen una contribución en el sentido de ayudarnos a encontrar medidas
tanto de centralización como de complejidad hidráulica. Pero el hecho es que
este caso se usó luego, aunque solamente en la vox populi como un ejemplo en
contra de la teoría de Wittfogel. De aceptarse como legítimo, de hecho
desaparece la necesidad de hacer arqueología: podríamos con mucho menos
costo y trabajo, refutar todas las teorías disponibles sobre el origen del Estado
arcaico mediante casos contemporáneos de sociedades capitalistas, so pretexto
del uso del “método comparativo”, aplicable una vez que son expurgados los
elementos “diacrónicos” y “evolutivos” de las teorías. Teotihuacan y Monte Albán
resultarían superfluos, al menos para esos propósitos.

Pero, de nuevo, el argumento es poco claro, pues resulta que los Hunt no
hicieron después de todo, un estudio comparativo, sino un estudio de caso
[Id.:74]; la intención era contribuir a tener suficientes estudios de caso para
entonces, quizá solamente entonces, aplicar el método comparativo. Su estudio
de caso los lleva a concluir que, por supuesto, no hay elementos de un Estado
250

despótico en el México de 1960, aunque –¡sorpresa!- encuentran que sí existe una


relación entre el control de los recursos hidráulicos (a diferentes escalas) y el
control político. De hecho, de todos sus esfuerzos se deriva al menos una nueva
hipótesis:

“El problema central al que nos hemos enfocado en este ensayo es la


relación que existe entre la centralización política generalizada y los niveles
de conflicto en una sociedad basada en la irrigación mediante canales. En
términos más generales, esta cuestión focaliza el problema en el valor
adaptativo de la centralización en sociedades con agricultura de
irrigación. La hipótesis que emerge de nuestro caso de estudio es que una
condición bajo la que la centralización de la autoridad es adaptativa sería
en la reducción de conflictos bajo condiciones de escasez de agua (esto
es, cuando hay presión demográfica sobre los recursos de la tierra y el
agua) y esta respuesta adaptativa podría ser particularmente efectiva en
un sistema de producción de comida que fuera totalmente dependiente
de la agricultura hidráulica” [Hunt and Hunt 1978:118].

Por supuesto, en buen estilo inductivo estrecho, se formula esta hipótesis


pero ya no se evalúa. Cuando menos los autores no proponen que ésta sea una
alternativa a la teoría original de Wittfogel. Así, aún si el caso fuera relevante, los
datos confiables y la lógica empleada fueran correctos, sigue sin constituir un
caso legítimo de refutación al no haber realmente una alternativa.

Detrás de todo esto está una ontología profundamente ahistórica: es decir,


cualquier sociedad de cualquier momento histórico puede servir para evaluar
teorías de cualquier estadio evolutivo; claro, si primero eliminamos la historia. Y
dudo que esta sea la intención del llamado “método comparativo”. Hasta donde
lo entiendo, este método, también llamado de “la variación concomitante”, se
deriva de las propuestas de Mills (para una síntesis del “canon” de Mills, véase, por
ejemplo, Harré [1984:38, 58]. La idea central es que, cuando por alguna razón
resulta imposible realizar experimentos controlados en el sentido estricto, se puede
llegar a resultado similares si se comparan casos que coinciden en la variable de
interés, aunque varíen en otras características; alternativamente, se pueden
comparar casos que compartan muchas características comunes, salvo en la
que interesa evaluar. Pero en ambos casos es necesario controlar el rango de
variación para que la comparación tenga sentido.

La hipótesis de Wittfogel no es una hipótesis sobre cualquier tipo de


sociedades ni sobre cualquier tipo de irrigación. Es claramente sobre la relación
entre un cierto tipo de Estado arcaico y el control de la irrigación compleja. Es
una hipótesis destinada originalmente a explicar, en términos evolutivos, el
surgimiento del Estado despótico. Para evaluarla con justicia, como vimos en el
capítulo anterior y proponemos como idea central en esta tesis, se requiere, antes
que nada, determinar con claridad qué dice la teoría; es decir, qué tipo de
relaciones se establece entre las variables centrales.
251

Me quedo con la impresión de que los Hunt (y otros críticos), asumen que
es una relación expresable mediante un bicondicional. Ello implicaría que sería
legítimo evaluarla mostrando un caso en el que el despotismo no fuera
acompañado por el control de la irrigación compleja (suponiendo que una
simplificación tan burda como la anterior reflejara lo que la teoría dice), o bien
que la irrigación compleja estuviera presente y al mismo tiempo no hubiera un
Estado despótico. Nótese que, cuando menos, una de las dos variables tiene que
estar presente para que la evaluación tenga sentido. Podemos buscar Estados
despóticos y ver si su base no es hidráulica compleja, o bien sociedades con
irrigación compleja que no sean despóticas, dentro del marco de referencia de
la teoría, que son los Estados primarios. Wittfogel no escribió sobre las sociedades
industriales, ni sobre el medioevo, ni sobre las sociedades poscoloniales modernas
de Oriente. Aunque sin duda puede resultar interesante ver si en estas sociedades
la irrigación juega un papel importante, la relación a evaluar no es la que motivó
la creación de la teoría y lo que se logre aprender, aunque sin duda útil, no lo será
para evaluar la teoría original.

Nótese también que mi intención en todo esto no es defender a Wittfogel,


sino abogar por una honestidad intelectual en la que las refutaciones no sean
espurias y se haga un mínimo de justicia a su autor. Ello implicaría tener respeto
ante un logro que muchos ya quisiéramos poder presumir: el de producir una
teoría mínimamente plausible. En el caso de las teorías sobre el origen del Estado,
ello requiere reconocer, cuando menos, la diferencia entre Estados primarios y
Estados secundarios y el concepto de “situación problema” original de una teoría.

Antes de continuar, es importante señalar que no solamente se han usado


casos de Estados secundarios para refutar teorías sobre Estados arcaicos, sino
también para corroborarlas. Es el caso de Stephenson (citado en Wright y Johnson
[1975:274])77, quien muestra una cercana correlación positiva entre la densidad
demográfica y los Estados del sur del Sahara, lo que reforzaría la teoría de
Carneiro. Pero esta corroboración sería igual de espuria que las refutaciones si los
casos no son casos de Estados primarios. Curiosamente, hasta donde sé, ni
Carneiro ni Wittfogel comentaron estos incidentes, con lo que quizá se dio pie a
interpretar que estaban de acuerdo con este tipo de extensiones de su teoría a
casos no originalmente previstos.

Quien sí lo comenta es precisamente Sanders, que reconoce la diferencia


entre Estados primarios y secundarios de manera explícita y rechaza el uso de
ejemplos contemporáneos para evaluar teorías sobre el origen del Estado
arcaico. El caso en cuestión no es el de Hunt, sino de un miembro del proyecto de
ecología humana de Oaxaca, de Flannery, Susan Lees:

“Un tratamiento aún más ingenuo [que el de algunos arqueólogos, como


Adams y Lanning] de la tesis de Wittfogel lo representan los estudios

77
Este uso es irónico, dado que Wright y Johnson parecen aceptar la distinción entre
Estados primarios y Estados secundarios [Op. cit.:267-8]; aunque luego, en el estudio sobre
Madagascar al que nos referimos antes, Wright parece haber abandonado la distinción.
252

etnográficos, que se proponen evaluar [to test] esta hipótesis mediante el


uso de datos cuidadosamente controlados provenientes de comunidades
contemporáneas. Un ejemplo clásico del mal uso de Wittfogel es el estudio
de Susan Lees [1973] de la irrigación contemporánea en el Valle de
Oaxaca, que cubre aproximadamente 2,500 kms2, es parte de una
república que cubre aproximadamente 2,000,000 de km2, caracterizada
políticamente por una burocracia elaborada incluyendo varios niveles
jerárquicos y un complejo patrón de departamentalización de funciones.
La organización política de los niveles más bajos está predeterminada por
la constitución nacional y todos los grupos locales del Estado de Oaxaca se
conforman en general de acuerdo con la organización de la república.
[…]”

“Aparentemente, cuando Lees inició su proyecto, esperaba encontrar una


burocracia elaborada para la gestión del agua y un poder despótico entre
y dentro de las comunidades de acuerdo con el modelo clásico de
Wittfogel y lo aplicó a los diminutos sistemas de riego y la organización de
baja escala del área. Esta hipótesis inicial alcanzó el nivel del absurdo
cuando intentó encontrar si existían ejemplos de despotismo dentro de la
aldea y si es que una aldea ejercía un poder despótico sobre otras en el
mismo sistema de irrigación. ¡Y todo esto se suponía sucedería dentro de la
configuración de un Estado nacional moderno!...”[…]”Lo que encontró fue
una gran variedad de arreglos en la distribución del agua (aunque el agua
era oficialmente gestionada en cada comunidad) y ninguna evidencia de
un “despotismo” de aldea. En consecuencia, rechazó la hipótesis de
Wittfogel”. [Sanders, et al. 1979:368, énfasis en el original].

Cito en extenso este segmento dado que la cita apoya la observación de


que Sanders no considera ejemplos etnográficos contemporáneos como válidos
para la evaluación de teorías sobre el origen del 78. Adicionalmente, porque
evidencia el que ya desde inicios de 1960 se generó una curiosa dinámica, en la
que investigadores relacionados al proyecto de Oaxaca de Flannery, alumnos o
no de Michigan, insisten en refutar teorías como la de Wittfogel o la de Carneiro,
que son parte de la formulación que Sanders venía sosteniendo ya desde esa
misma época79.

78
SPS recuperan explícitamente la distinción entre Estados primarios y Estados secundarios
en su discusión de los casos relevantes a la teoría de Wittfogel [Sanders et al. 1979:366] y,
un párrafo adelante, de cómo Wittfogel se abre a las críticas cuando él mismo incluye
Estados secundarios como casos de despotismo oriental aún en ausencia de complejidad
hidráulica [Ibíd.].
79
Y que fueron objeto de acalorados debates entre Sanders y Flannery, durante aquel
Taller Avanzado de Arqueología, organizado por el INAH en 1973 y en el que el tercer
docente era Pedro Armillas.
253

Instrumentalismo vs. realismo: ¿a qué se refieren los términos de una


teoría?
El problema que venimos comentando se deriva, al menos parcialmente,
de las diferentes maneras en que términos claves, como Estado o civilización