Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Goldthorpe
Reconocimientos
Introducción
1. La sociología como una ciencia de la población: la idea central
2. La variabilidad individual en la vida social del hombre
3. El paradigma individualista
4. Las regularidades de la población como explananda básicos
5. La estadística, los conceptos y los objetos de estudio sociológico
6. Estadística y métodos de recogida de datos
7. Estadística y métodos de análisis de datos
8. Los límites de la estadística: la explicación causal
9. La explicación causal mediante mecanismos sociales
Conclusión
Referencias
Créditos
Para Raffi, que llegó tarde al anterior
Reconocimientos
1 Por desgracia, la principal excepción a esta tendencia general es mi propio país, Gran Bretaña,
donde especialmente en los departamentos universitarios —a diferencia de los centros de
investigación, que suelen ser interdisciplinares— persiste una fuerte hostilidad hacia la sociología
cuantitativa. Curiosamente, la versión original de mi libro anterior y sus versiones italiana, polaca y
española han sido reseñadas en muchas partes, pero no en Sociology, la revista oficial de la British
Sociological Association, ni en Sociological Review. Pero quizá incluso en Gran Bretaña «los
tiempos están cambiando». El objetivo del programa Q-Step, lanzado en 2013 con un presupuesto de
19,5 millones de libras esterlinas, es aumentar y revitalizar considerablemente la formación
cuantitativa de los estudiantes de grado en ciencias sociales. Espero que logre sus fines en el campo
de la sociología, a pesar de los esfuerzos que al parecer intentan subvertirlo. Últimamente se han
hecho algunas declaraciones notablemente mal informadas que mantienen que los métodos
cuantitativos calificados de «convencionales» están en general pasados de moda, son irrelevantes y
deben sustituirse por otros (por ej., Byrne, 2012; Castellani, 2014). Algunos de los métodos
alternativos que se proponen son objeto de análisis crítico en los siguientes capítulos.
2 Las entidades colaboradoras en la red CHANGEQUAL eran el Economic and Social Research
Institute, Dublín; el Centre National de la Recherche Scientifique EHSS LASMAS, París; el Swedish
Institute for Social Research, Universidad de Estocolmo; el Zentrum für Europäische
Sozialforschung, Universidad de Mannheim, y mi propia institución, Nuffield College, Oxford. En la
red EQUALSOC, la institución CNRS se convirtió en GENES/GRECSTA y se sumaron ocho
instituciones más: el Institute for Advanced Labour Studies, Universidad de Ámsterdam; el Centre
for Social Policy, Amberes; la Universita Degli Studi di Milano Bicocca; el Departamento de
Ciencias Políticas y Sociales, Universidad Pompeu Fabra, Barcelona; el Departamento de Sociología
y Política Social, Universidad de Tartu; el Departamento de Ciencias Sociales, Universidad de Turín;
el Departamento de Sociología e Investigación Social, Universidad de Trento; y la
Wissenschaftzentrum für Sozialforschung, Berlín.
3 Una vez más, hay que advertir la excepción británica. En las conferencias y seminarios referidos en
el texto, ha quedado tristemente de manifiesto la virtual ausencia de investigadores británicos
jóvenes.
4 El revisor de un artículo que un colega tan añoso como yo y yo mismo enviamos hace poco tiempo
a una revista puntera de sociología objetaba el hecho de que los artículos que se citaban se habían
publicado antes de que él o ella naciese. Claramente, nada importante podía haber sucedido antes de
esa fecha.
1. La sociología como una ciencia
de la población: la idea central
Neyman subrayó que, en este sentido técnico, las poblaciones podían ser,
en lo sustantivo, de tipos bastante diferentes. Podían ser humanas u otras
poblaciones animales, pero también, por ejemplo, poblaciones de moléculas
o de galaxias. El rasgo común de estas poblaciones era que, aunque sus
elementos individuales estaban sujetos a una variabilidad considerable y
podían parecer, al menos en algunos aspectos, indeterminados en sus
estados y comportamientos, podían no obstante exhibir regularidades de
tipo probabilístico en el nivel agregado 5 .
La meta de una ciencia que trata de esos objetos plurales de estudio —o
de lo que podría llamarse una «ciencia de la población»— era por tanto
doble. La meta inicial era investigar y establecer las regularidades
probabilísticas que caracterizan a una población o a sus subpoblaciones
adecuadamente definidas. A este respecto, Neyman consideraba esencial el
uso de métodos estadísticos de recogida y análisis de datos. De hecho,
cincuenta años antes, R. A. Fisher (1925: 2) había definido ya la estadística
como «el estudio de poblaciones o de agregados de individuos», y había
presentado la estadística como una disciplina fundacional para todas las
ciencias que se ocupaban primordialmente de las propiedades de los
agregados más que de las de sus miembros individuales. Se puede asimismo
advertir, a la vista de lo que sigue, que Fisher añadió entonces la
observación de que «los métodos estadísticos son esenciales para los
estudios sociales, y es principalmente con la ayuda de esos métodos como
esos estudios pueden elevarse al rango de ciencia» 6 .
Sin embargo, Neyman aclaró también que una vez establecidas
empíricamente las regularidades de una población, la siguiente meta de una
ciencia de la población debía ser determinar los procesos o «mecanismos»
que operaban en el nivel individual para producir esas regularidades. Y
como las regularidades —los explananda de una ciencia de la población—
eran probabilísticas, los mecanismos en los que había que pensar serían
aquellos que, en lugar de regirse completamente por leyes deterministas,
incorporaban el azar. Todo esto implicaba una nueva forma de explicación
científica.
La afirmación de Neyman de que desde el siglo XIX y a lo largo del XX el
estudio creciente de entidades «plurales» basado en la estadística marcó una
revolución científica ha sido justificada plenamente por el trabajo posterior
de la historia de la ciencia. Lo que de hecho vino a llamarse la «revolución
probabilística» (Krüger, Daston y Heidelberger, 1987; Krüger, Gigerenzer y
Morgan, 1987) se reconoce hoy día ampliamente como uno de los
desarrollos intelectuales más trascendentales, si no el más trascendental, de
ese periodo en cuestión. «En 1800», por citar a Hacking (1987: 52),
«estamos en el mundo determinista que Laplace nos describe tan
acertadamente. En 1936 estamos firmemente anclados en un mundo que es
en última instancia indeterminado... El azar que, para Hume, no era ‘nada
real’ era, para von Neumann, tal vez la única realidad» 7 . Sin embargo,
como Hacking continúa subrayando (véase también Hacking, 1990), es
importante apreciar que «la erosión del determinismo» se complementó con
«la domesticación del azar», es decir, el proceso de hacer inteligibles y
manejables el azar y sus consecuencias sobre la doble base del ensamblaje
de datos numéricos y la aplicación de la teoría de la probabilidad.
De hecho, en las primeras fases de la revolución probabilística, las
ciencias sociales desempeñaron un papel importante. En particular, la
aplicación de Quetelet (1835/1842, 1846, 1869) de la «curva de error»
gaussiana —o distribución normal— para visualizar las regularidades en las
«estadísticas morales» del matrimonio, los nacimientos fuera del
matrimonio, el suicidio y la delincuencia representó un intento pionero de
mostrar cómo podría emerger un orden probabilístico de nivel superior a
partir de acciones individuales que por lo general se consideraban de índole
no determinista, es decir, un intento de expresar la voluntad y la elección
individuales (Porter, 1986: caps. 2 y 6 especialmente). Y lo notable de ese
desarrollo fue que la influencia de la obra de Quetelet se extendió desde las
ciencias sociales hasta las ciencias naturales —algo en cierto modo
paradójico, dada la gran ambición de Quetelet de crear una «física social».
Como Krüger (1987: 80) ha observado, en ese momento «la conocida
jerarquía de las disciplinas» se invirtió.
Más notable aún es que el uso que Quetelet hizo de la curva de error
proporcionó a James Clerk Maxwell un modelo para su desarrollo de la
teoría cinética de los gases (Gillispie, 1963; Porter, 1982). En un gas, los
procesos de nivel inferior de colisión de moléculas estaban, en principio,
sujetos a las leyes newtonianas deterministas; pero las grandes cantidades
de moléculas afectadas implicaban que, en la práctica, se necesitaba un
tratamiento probabilístico —«una física estadística». En los trabajos que
realizó a finales de la década de 1860, Maxwell utilizó una versión de la
curva de error para representar la distribución de las velocidades
moleculares en un gas ideal, de forma tal que, mientras no se podía decir
nada sobre las moléculas individuales, sí era posible calcular la proporción
de moléculas con velocidades dentro de unos determinados límites y a
cualquier temperatura dada. Maxwell fue generoso en su reconocimiento de
las ideas que tomó prestadas de Quetelet y sus seguidores. Dirigiéndose a la
British Association for the Advancement of Sciences (Asociación británica
para el avance de las ciencias), recomendó a los físicos que adoptaran un
método de análisis nuevo para ellos pero que «llevaban mucho tiempo
usando en la estadística» (citado en Gigerenzer et al., 1989: 62; véase
también Mahon, 2003: cap. 6) 8 .
Posteriormente, Fisher (1922), con la idea de integrar el mendelismo en
la teoría de la evolución de Darwin, adoptó un modelo análogo al que
Maxwell había tomado de Quetelet, con poblaciones biológicas en lugar de
poblaciones de moléculas. Bajo este modelo, la selección natural operaba
entre una multiplicidad de causas aleatorias —cualquiera de ellas podía
tener una influencia predominante en el nivel de un individuo particular—
mientras los procesos probabilísticos de la selección natural seguían siendo
los determinantes clave de la evolución de la población en su conjunto
(Morrison, 2002).
Junto a estos desarrollos, la biología evolutiva, como ha descrito Ernst
Mayr (2001; véase también 1982: cap. 2), pasó a ser el campo en el que se
produjo el desarrollo más explícito del «pensamiento poblacional». En un
mundo científico dominado por la física y la química había prevalecido lo
que Mayr denomina el «pensamiento tipológico», centrado en las
propiedades de entidades —y en las leyes deterministas aplicadas a ellas—
de un tipo supuestamente homogéneo más que «pluralista», tales como las
partículas nucleares o los elementos químicos. Pero la biología evolutiva
empezó a reconocer cada vez más la variación existente dentro de las
entidades estudiadas —es decir, la variación entre los individuos que
forman una población— y al mismo tiempo a centrar su interés en las
regularidades probabilísticas discernibles en medio de esa variación y en los
procesos o mecanismos que creaban esas regularidades 9 .
En cambio, las ciencias sociales, a pesar de su influyente papel en los
orígenes de la revolución probabilística, no consiguieron explotar las
posibilidades que esta ofrecía tanto para la investigación como para la
teoría. De la sociología al menos puede pensarse (véase Goldthorpe, 2007:
vol. 2, capítulos 8 y 9) que todavía no ha resuelto del todo su relación con
esa revolución y con las nuevas maneras de pensamiento científico que
promovió 10 . Pocos sociólogos hoy en día se creen en la obligación de
formular leyes deterministas como lo intentaron Comte, Spencer o Marx a
fin de proporcionar un entendimiento integral de la estructura, el
funcionamiento y el desarrollo de las sociedades humanas. Pero para los
que siguen manteniendo que la sociología es, al menos en potencia, una
ciencia de algún tipo, todavía existe el problema —que apenas ha sido
abordado— de decidir qué tipo de ciencia debe ser. Más concretamente, si
la búsqueda de leyes deterministas en sociología es un propósito
descabellado, entonces podemos preguntarnos: ¿cuáles son los objetivos
hacia los que debe orientarse la sociología y cómo hay que entender el
fundamento de las actividades de investigación que se realizan para
alcanzarlos? Como he mencionado en la Introducción, la propuesta de que
la sociología debe comprenderse como una ciencia de la población intenta
responder a estas preguntas y, al mismo tiempo, anclar firmemente la
sociología dentro de la revolución probabilística.
Lo que esto implica, en su sentido más amplio, es lo siguiente. La
sociología debe ocuparse de las poblaciones o subpoblaciones de Homo
sapiens (o quizá mejor —véase el capítulo 2— de las poblaciones o
subpoblaciones de Homo sapiens sapiens) ubicadas en el tiempo y el
espacio; y la meta de la investigación sociológica debe ser una comprensión
no de los estados y el comportamiento de los miembros individuales de esas
poblaciones en toda su variabilidad, sino de las regularidades que son
propiedades de esas mismas poblaciones, aunque sólo se puedan inferir a
partir del comportamiento o —más concretamente, como se argüirá más
adelante— de las acciones de sus miembros individuales.
Explicar mejor qué implica esta propuesta primordial será el objetivo de
los próximos capítulos, encabezados todos por su propia propuesta
subsidiaria. Para concluir este capítulo voy a añadir algunos comentarios
preliminares sobre las regularidades en las poblaciones humanas y su
determinación y explicación. Esto puede contribuir a proporcionar un
contexto a la línea del argumento subsiguiente y a señalar algunos
importantes problemas que van a surgir.
Las regularidades que se pueden identificar en las poblaciones humanas,
y más en concreto en la vida social humana, son diversas en su rango y
complejidad. Las regularidades en «las estadísticas morales» a las que
Quetelet prestó atención inicialmente eran regularidades relativamente
simples relacionadas con la estabilidad en el tiempo de las tasas de acciones
individuales de diferentes tipos y de sus productos en poblaciones
nacionales o regionales. Pero, al final, el propio Quetelet se vio obligado a
admitir no sólo diferencias de tasas entre unas y otras de esas poblaciones,
sino también diferencias significativas entre sus diversas subpoblaciones;
es decir, entre las diferentes agrupaciones de individuos definidos por su
edad, género, etnia, ocupación, etc. Y en relación con este último punto se
vio abocado a moverse desde los análisis esencialmente bivariados hacia lo
que puede reconocerse como los primeros intentos de análisis multivariados
de las regularidades sociales de un tipo que ha llegado a ser normal en la
investigación actual (véase especialmente Quetelet, 1835/1842: Parte 3
sobre las tasas de delincuencia).
En la sociología actual la complejidad de las regularidades en las que se
centra la atención ha aumentado sin duda de forma considerable. Por
ejemplo, el interés podría dirigirse no sólo a las regularidades expresadas en
la estabilidad de formas particulares de acción individual y sus productos en
las poblaciones o a las diferencias prevalecientes entre poblaciones o en sus
subpoblaciones, sino también a las regularidades en los cambios de estas
materias a lo largo del tiempo —donde el tiempo puede tratarse con
referencia a periodos históricos, a la sucesión de cohortes de nacimiento o
al curso de vida del individuo. O podría dirigirse a las regularidades que
hay entre las pautas de la acción individual y la ubicación de los individuos
en contextos sociales de nivel macro, meso o micro, como los que
representan, por ejemplo, los grupos primarios, las redes sociales, las
asociaciones y organizaciones o los cambiantes aspectos institucionales y
de otro tipo de la estructura social en general. Además, el interés podría
encaminarse a buscar regularidades exclusivamente en el nivel
supraindividual: por ejemplo, entre los rasgos estructurales de sociedades
«totales» —naciones o estados.
Sin embargo, hay otros dos aspectos de las regularidades de la vida
social humana que, en la medida en que están asociados a su grado de
complejidad, tienen a los presentes efectos una relevancia más directa: lo
que podría llamarse su visibilidad y su transparencia.
Consideremos el siguiente ejemplo. Hay una marcada regularidad en el
número de individuos que pasan en coche delante de mi casa los días
laborables entre las 7 y las 9 de la mañana, y una considerable y regular
disminución en la cantidad que pasa los sábados y los domingos. Estas
regularidades son evidentes en su forma general para cualquier observador
casual, y cualquier recuento estandarizado de tráfico serviría para
establecerlas con alguna precisión. Además, en este caso podríamos
construir de inmediato una explicación simple —que, como veremos más
adelante, podría sin embargo seguir considerándose paradigmática— de
cómo se producen esas regularidades. Es decir, una narrativa causal
formulada en términos de los fines del individuo —en los días laborales,
típicamente los de ir al trabajo o llevar los niños al colegio— y de los
cursos de acción por medio de los cuales pretenden lograr esos fines, dadas
las diversas constricciones y oportunidades que definen las condiciones de
su acción. En suma, las regularidades en cuestión podría considerarse que
son visibles y transparentes. Es relativamente fácil verlas y «ver a su
través», es decir, ver a través de ellas los procesos sociales mediante los que
se generan y mantienen.
Pero, en cambio, las regularidades que típicamente interesan más a la
sociología como una ciencia de la población son aquellas que no son ni
enseguida visibles, ni tampoco transparentes una vez que se hacen visibles.
De aquí se siguen implicaciones de gran alcance para la práctica de la
sociología entendida como esa ciencia. Así, cumplir el primer objetivo de
una ciencia de la población —es decir, establecer empíricamente las
regularidades de una población— por lo general exigirá, en el caso de las
sociedades humanas, un esfuerzo considerable de recogida y análisis de
datos. Lo que esto exige es el diseño y la aplicación de procedimientos de
investigación capaces de revelar regularidades en el nivel agregado que
quizá hayan sido ya percibidas sólo de una forma vaga, si es que no eran del
todo desconocidas, en las sociedades en las que se dan. Por ejemplo,
volviendo a las regularidades que preocupaban a Quetelet y sus seguidores
en las tasas de matrimonio, nacimientos fuera del matrimonio, suicidio y
delincuencia, la posibilidad de establecerlas de forma fiable no se presentó
hasta que los gobiernos nacionales empezaron a desarrollar lo que hoy
llamamos «estadísticas oficiales», incluyendo los censos de población y
diferentes sistemas de registro 11 .
Volviendo al presente, se podría decir que el principal logro científico de
la investigación sociológica basada en encuestas de población de diferentes
diseños y en el análisis de los datos producidos ha sido hasta ahora su
capacidad demostrada para revelar las regularidades de la población en las
formas más complejas antes mencionadas —regularidades que simplemente
no se podrían haber identificado sin la metodología en cuestión, reforzada
poderosamente por equipos informáticos cada vez más potentes para el
almacenaje y el análisis de los datos.
Para ilustrar este asunto pondré un ejemplo de mi propio campo de
investigación, aunque se podrían dar muchos otros. Se han realizado
muchos estudios sobre las pautas y tendencias de la movilidad social
intergeneracional que se caracterizan por una creciente sofisticación
conceptual. En particular, se ha hecho una distinción crucial entre las tasas
de movilidad absoluta y relativa, refiriéndose las primeras a la movilidad
real experimentada por los individuos y comparando las segundas las
oportunidades que tienen los individuos de diferentes orígenes sociales de
llegar a diferentes destinos de clase (véanse, por ejemplo, Grusky y Hauser,
1984; Goldthorpe, 1987; Erikson y Goldthorpe, 1992; Breen, 2004; Ishida,
2008). El extenso trabajo de recogida de datos y el desarrollo de modelos
estadísticos conceptualmente informados han revelado tanto regularidades
poblacionales como rasgos históricamente específicos de las sociedades
estudiadas de un tipo que no podría haberse observado de otra manera —
ciertamente no por los «miembros legos» de esas sociedades en el
transcurso de sus vidas cotidianas, a pesar de la estrecha conexión que de
hecho existe entre las regularidades y las especificidades en cuestión y sus
propias oportunidades y elecciones vitales 12 .
Sin embargo, regresando a mi anterior distinción, hacer visibles las
regularidades de la población no implica hacerlas transparentes; es decir, no
implica cumplir el segundo objetivo de una ciencia de la población: la de
determinar los procesos —podríamos llamarles mecanismos causales— por
los que las regularidades establecidas en el nivel agregado se producen en el
nivel individual. En el caso de la sociología esto implicará demostrar cómo
esas regularidades se derivan en última instancia de la acción y la
interacción individuales. Y debe reconocerse que, si la sociología puede
reivindicar por ahora algún éxito genuino como ciencia de la población en
lo que concierne a revelar regularidades poblacionales, sus logros hasta la
fecha en la tarea de hacer transparentes estas regularidades —es decir, de
dar cuenta de ellas de la forma indicada— han sido bastante menos
impresionantes. Las regularidades que se han descrito de una forma
bastante detallada a menudo siguen siendo más o menos opacas.
Desgraciadamente, la investigación sobre la movilidad social nos ofrece
una buena ilustración de esta opacidad 13 .
Distinguir entre las dos tareas de una ciencia de la población orientada a
hacer las regularidades poblacionales primero visibles y luego transparentes
—siendo la primera esencialmente una labor descriptiva y la segunda
explicativa— tiene una importancia clave. Esto se hará cada vez más
evidente a medida que el argumento se desarrolle en los siguientes
capítulos.
5 La primera vez que leí las observaciones de Neyman fue en una referencia a ellas que había en
Duncan (1984: 96). Como se pondrá de manifiesto más adelante, Dudley Duncan es un autor con el
que estoy en deuda en muchos otros sentidos. Se le puede considerar como uno de los grandes
pioneros en conceptualizar y practicar la sociología como una ciencia de la población. Otro autor que
ha contribuido de forma significativa, aunque menos explícita, ha sido mi antiguo maestro en la
London School of Economics, David Glass —ahora tristemente olvidado por la sociología británica
—, quien experimentó la influencia de su propio maestro, el extraordinario polímata Lancelot
Hogben (véase Hogben, 1938).
6 Neyman y Fisher fueron sin duda los adversarios principales en lo que ha venido a describirse
como «la mayor fractura en la estadística» en torno a la cuestión de la comprobación de hipótesis.
Pero, como Louça (2008: 4) ha observado, en relación con su idea de la estadística como lenguaje
para un nuevo tipo de ciencia, estaban, en realidad, «muy cerca».
7 Hacking se refiere aquí a la formulación matemática que von Neumann hizo de la teoría cuántica.
Esta perseguía excluir la posibilidad de «variables ocultas» que, si se pudieran identificar, permitirían
entender como determinísticos los fenómenos que en caso contrario aparecían como probabilísticos
—como si las partículas tuvieran una posición y velocidad definidas en todo momento. Para una
presentación accesible, véase Kumar (2008: cap. 14).
8 Ludwig Boltzmann, otro pionero de la física estadística, recibió la influencia de la obra de Quetelet
y sus seguidores e intérpretes (Porter, 1986: 125-128).
9 Estoy en deuda con Yu Xie por atraer mi atención sobre la remarcable obra de Mayr y sobre su
relevancia para los problemas actuales de la sociología, como veremos más adelante. Véase Xie
(2005).
11 Se puede considerar que fue la falta de datos de este tipo lo que principalmente obstaculizó los
esfuerzos de los «aritméticos políticos» británicos del siglo XVII y principios del XVIII como John
Graunt, William Petty, Gregory King y Edmond Hally. En sus pioneros esfuerzos en el campo de la
demografía, concebida en sentido amplio, se vieron obligados a trabajar —a menudo con gran
capacidad e ingenio— con una miscelánea de datos limitados y con frecuencia imperfectos
procedentes de catastros, pago de impuestos, registros parroquiales de nacimientos y muertes,
boletines de defunción, etc. He aprendido mucho sobre estos primeros científicos de la población a
partir de la investigación de David Glass (1973) y después de la de Richard Stone (1997), habiendo
tenido el privilegio en la década de 1960 de formar parte del Department of Applied Economics
(Departamento de economía aplicada) de Cambridge, que fue creado principalmente por Stone.
13 Se puede encontrar mi esfuerzo inicial por remediar esta situación, sobre el que espero avanzar en
el transcurso de la investigación a la que ahora estoy dedicado, en Goldthorpe, 2007: vol. 2, cap. 7.
2. La variabilidad individual en la
vida social del hombre
14 Se ha debatido mucho y se sigue debatiendo si hay otros animales —por ejemplo los chimpancés
— que operan en alguna medida con una teoría de la mente. Sabemos que en los humanos la teoría de
la mente se desarrolla rápidamente entre los primeros tres y cinco años de edad, pero es significativa
la dificultad de los niños autistas para desarrollarla (Baron-Cohen, 1995; Barrett, Dunbar y Lycett,
2002: 303-315).
15 A menudo se ha advertido la ironía de que la primera gran obra de Parsons (1937) —en la que él
se propuso desarrollar una «teoría voluntarista de la acción»— empiece con la pregunta retórica de
Crane Brinton: «¿Quién lee hoy a Spencer?». Admitiendo que Spencer ha «muerto», Parsons señala
que el problema clave que hay que abordar es «¿quién lo mató y cómo?». Pero de una forma que
ilustra las dificultades de los sociólogos para alejarse del paradigma holístico, Parsons regresó al final
a un estilo de pensamiento sociológico bastante próximo al de Spencer —primero adoptó una versión
de la teoría funcionalista en The Social System (Parsons, 1952) y luego la combinó con una
perspectiva evolutiva en las obras citadas en el texto.
17 Un problema básico y hasta ahora muy reconocido de las teorías funcionalistas en sociología es
que casi no explican por qué los individuos deben actuar —incluso en detrimento suyo— en
congruencia con los rasgos de los «sistemas sociales» que cumplen las funciones que se les
atribuyen. A falta de tal explicación, las explicaciones funcionalistas tienen que basarse en la
existencia de «entornos» muy selectivos tales que, si un sistema social no cumple los imperativos
funcionales que afronta, simplemente desaparecerá y no existirá por tanto como ejemplo contrario a
la teoría. Pero, aunque haya ejemplos de sociedades «extintas», hay pocas razones para pensar que en
general opere una selectividad lo suficientemente poderosa. Parece que pueden existir sociedades con
niveles muy diferentes de eficiencia o de éxito, cualesquiera que sean los criterios que se tengan en
cuenta a este respecto.
19 Sin embargo, es importante advertir que desde un punto de vista sociológico no hay razón alguna
para, como propusieron los economistas Stigler y Becker (1977), dar un paso adelante y tratar los
fines o «gustos» como estables en el tiempo y similares entre individuos, porque el propósito de tales
suposiciones —escasamente verosímiles— es simplemente permitir que todos los análisis
económicos se hagan por referencia a los cambios en los precios y rentas.
20 Malinowski y Radcliffe-Brown suelen ser considerados los dos pioneros del análisis funcionalista
en sociología. Pero sus funcionalismos eran de muy diferente tipo. A Malinowski le interesaban
sobre todo las funciones de las prácticas culturales y las instituciones sociales destinadas a satisfacer
las necesidades psicológicas y biológicas del individuo, más que a mantener las necesidades
societales de integración y estabilidad. Para una explicación de sus posiciones diferentes sobre esta y
otras cuestiones, véase Kuper (1973: caps. 1, 2).
21 Por ejemplo, Hobhouse, Wheeler y Ginsberg (1915) consideraban su trabajo «un ensayo de
correlación», aunque los métodos de correlación que aplicaban eran muy rudimentarios, incluso para
los estándares de la época. Murdock (1949) usó el coeficiente de asociación de Yule, Q, y los test de
significación. Habría que añadir, sin embargo, que una dificultad estadística básica que este tipo de
trabajo en cuestión planteaba era que los resultados de los análisis realizados se basaban ampliamente
en el supuesto de las observaciones independientes, mientras Galton (1889b) ya había señalado en un
comentario sobre Tylor que ese supuesto era muy cuestionable. Bien podría ser que las asociaciones
entre las características institucionales se derivaran no sólo de los requisitos funcionales internos,
sino también de los procesos de difusión entre culturas y sociedades. Parece que el «problema de
Galton» nunca se ha llegado a resolver totalmente en la investigación comparada dentro del
paradigma holístico.
23 Estoy en deuda con mi colega John Darwin por llamar mi atención sobre la notable obra de
Vansina.
24 Hay que señalar que Warner y muchos de sus colegas eran, de hecho, antropólogos formados bajo
la influencia principal de Radcliffe-Brown. Pero se comprometieron a llevar a la sociología los
métodos de investigación y las teorías de la antropología y por tanto optaron por trabajar sobre todo
en las sociedades modernas.
3. El paradigma individualista
Boudon (1990; véase también 1987) ofrece un claro alegato en favor del
paradigma de investigación individualista frente al holístico en sociología
reconociendo sus orígenes en la obra de Max Weber (véase, especialmente,
1922/1968: cap. 1). Boudon hace hincapié en que el paradigma
individualista no implica «una perspectiva atomista de las sociedades» ni
una negación de la realidad sui generis de los fenómenos socioculturales y
de los modos en que estos pueden motivar, constreñir o pautar de algún
modo la acción individual (1990: 57). En otras palabras, no implica un
individualismo ontológico: es decir, no supone que sólo existen los
individuos (o, por citar a la sra. Thatcher, que «no existe tal cosa como la
sociedad»). Antes bien, el alegato es en pro del individualismo
metodológico (Popper, 1945: vol. 2, cap. 14; 1957: cap. iv): es decir, en
favor de la posición de que los fenómenos socioculturales deben explicarse,
en última instancia, en términos de la acción individual. Aunque para los
propósitos de muchas investigaciones sociológicas es totalmente razonable
dar por supuestos algunos de esos fenómenos en vez de considerarlos
explananda de interés inmediato, ocurre que si queremos explicarlos sólo
podremos hacerlo por referencia a la acción individual y sus consecuencias
presentes o pasadas, intencionadas o no intencionadas, directas o indirectas
(véanse Hedström y Sweldberg, 1998a; Elster, 2007: cap. 1) 25 .
El principio del individualismo metodológico bien podría considerarse
«trivialmente cierto» (Elster, 1989: 13). La dificultad para aceptarlo parece
en efecto surgir bien porque no se comprende que el individualismo
metodológico no implica individualismo ontológico, bien porque se insiste
en que la acción individual está siempre influida por las condiciones
sociales en las que ocurre, una afirmación que podría considerarse también
trivialmente cierta, pero en absoluto perjudicial para el individualismo
metodológico 26 . El aspecto crucial que hay que abordar es dónde podría
residir, en la vida social del hombre, más capacidad causal real que en la
acción de los individuos, bajo cualesquiera condiciones que se considere.
La forma principal, aunque no única, de teoría sociológica que ha intentado
ignorar esta capacidad es la del funcionalismo, siguiendo la lógica de la
explicación del capítulo 2, según la cual la acción individual se reduce
efectivamente a un comportamiento epifenoménico y socioculturalmente
programado. Pero, como vimos también en ese capítulo, mientras el
funcionalismo representa el principal recurso teórico del paradigma
holístico, sólo puede proclamar, en su aplicación real, un muy escaso éxito
explicativo.
Lo que se sigue de la aceptación del paradigma individualista es, por lo
tanto, que las normas y su plasmación en tradiciones culturales o
instituciones sociales no pueden servir de «línea de referencia» para las
explicaciones sociológicas (véase además Boudon, 2003a). Estas
explicaciones deben basarse en relatos de la acción individual, y cuando se
invoque la influencia de las normas sociales siempre han de formularse las
preguntas adicionales de por qué son esas normas las que operan y no otras
y por qué los individuos las cumplen —si es que lo hacen— en lugar de
desviarse de ellas o desafiarlas abiertamente. No se puede considerar
adecuada ninguna lógica explicativa en la que las acciones de los individuos
siguen, por así decir, un guion predeterminado 27 .
Sin embargo, para nuestros propósitos, lo que hay que resaltar con
claridad son las fuentes de autonomía de la acción humana que el
paradigma individualista requiere y suscribe. Como se ha señalado ya, la
capacidad evolucionada de los individuos humanos para concebir sus
propios fines, diferentes de los de la colectividad a la que pertenecen, es una
de esas fuentes. Pero hay que reconocer algo más respecto al vínculo entre
los fines y la acción: la capacidad aún más evolucionada de los seres
humanos para hacer lo que podemos llamar una elección informada. Esta
capacidad se deriva de la facultad mental distintiva de los seres humanos —
en la que al parecer el lenguaje tiene un papel crucial— para prefigurar las
acciones que pueden emprender para conseguir sus fines, dada la
información que tienen sobre las situaciones en las que se encuentran. Otros
animales, incluso los primates, parecen vivir en un presente eterno o ser
capaces de «planificar con antelación» de forma bastante limitada: los
chimpancés no pueden aprender a mantener el fuego. En cambio, los
humanos pueden pensar sin problemas en, digamos, futuro perfecto. Pueden
imaginar no sólo un curso de acción sino varios diferentes para una
situación determinada, y están en condiciones de valorar y evaluar por
adelantado las posibles consecuencias de actuar de una forma o de otra
(véanse, por ejemplo, Dennett, 1995: cap. 13; Dunbar, 2000, 2004: 64-69,
104-107; Gärdenfors, 2006: caps. 2-5). Y, por supuesto, la cuestión aquí es
poder sopesar, en relación con los fines dados, las ventajas y desventajas de
comprometerse con una forma de acción normativamente desviada o quizás
normativamente innovadora 28 .
Es posible considerar que esta capacidad para la elección informada
implica a su vez cierta forma de racionalidad en la acción: es decir, la que
opera cuando los individuos realmente hacen elecciones entre las
posibilidades que tienen. Como Runciman (1998: 15) señaló, «... hay
razones para suponer que la mente humana ha sido programada por la
selección natural para calcular cómo se relacionan los costes y los
beneficios de un curso de acción en lugar de otro» 29 . Y, como veremos más
adelante, el paradigma individualista se basa principalmente en una
apreciación de la «racionalidad de la vida cotidiana» para intentar dar
cuenta de la acción y la interacción individuales, interpretadas como si
fuesen —en el corto o el largo plazo, intencionada o no intencionadamente
— la fuerza generadora de los fenómenos socioculturales.
Cómo opera exactamente la racionalidad de la vida cotidiana es un tema
que actualmente se investiga y debate mucho. Sin embargo, se puede decir
que hay consenso sobre una importante cuestión. Se acepta en general, por
razones empíricas, que el tipo de racionalidad en cuestión es claramente
diferente al que se da típicamente por supuesto en la corriente principal de
la economía —la ciencia social en la que hasta ahora ha sido más
dominante el paradigma individualista. Es decir, no se trata de una
racionalidad «demoníaca» o una «hiper-racionalidad», que de hecho
requiere que los actores tengan información y capacidad de cálculo
ilimitadas 30 . Antes bien, es una racionalidad subjetiva o limitada que se
orienta hacia resultados suficientemente buenos o «satisfactorios» en vez de
óptimos (Simon, 1982, 1983) y que opera con una información y unos
cálculos bastante limitados y en condiciones que en todo caso se
caracterizan a menudo por un alto grado de incertidumbre.
Las versiones de esta racionalidad que han suscrito las perspectivas
psicológica (por ejemplo, Gigerenzer y Selten, 1999; Augier y March,
2004; Gigerenzer, 2008) y sociológica (por ejemplo, Boudon, 1996, 2003a;
Blossfeld y Prein, 1998; Goldthorpe, 2007: vol. 1, caps. 6-8) se pueden
considerar, en buena medida, complementarias. En el primer caso, el énfasis
se pone en los aspectos procedimentales de la racionalidad cotidiana que
están «bajo la superficie»: por ejemplo, en el uso que hacen los individuos
en los procesos de toma de decisiones de una heurística «rápida y frugal»
—que se puede aplicar rápidamente y con relativamente poca información y
produce resultados generalmente positivos en situaciones determinadas, es
decir, en los entornos en los que ha evolucionado 31 . En el segundo caso, el
énfasis se sitúa en los aspectos situacionales per se: es decir, en la manera
en que se concibe que los individuos actúan si no óptimamente desde un
punto de vista «demoníaco», sí en la forma adecuada para conseguir sus
fines —por «buenas razones» (Boudon, 2003a)— una vez se tienen en
cuenta las características de las condiciones en las que tienen que actuar,
tales como las constricciones de tiempo, información y recursos.
Hay que resaltar que en este trabajo se reconoce totalmente que la
elección informada, subjetivamente racional, puede por sí misma conducir a
menudo al cumplimiento de las normas y las prácticas establecidas. Por
ejemplo, en muchas situaciones, «hacer lo que hacen los demás» puede
servir efectivamente como una regla heurística buena, rápida y frugal
(Gigerenzer y Todd, 1999; véase también Richerson y Boyd, 2005: 119-
126), una regla que ahorra costes de experimentación y aprendizaje
individuales y que, en la medida en que ayuda a los individuos a perseguir
sus fines, puede adoptarse, en mayor o menor medida, como una cuestión
de hábito. Y se admite también que las normas, sean informales o
institucionalizadas, se pueden aceptar y seguir con bastante racionalidad:
por ejemplo, como medio para superar tanto problemas relativamente
simples de coordinación (en Gran Bretaña, conducir por la izquierda cuando
en casi todas partes se conduce por la derecha) como problemas complejos
de «bienes públicos», aun admitiendo cierta dosis de free-riding (véase
Ostrom, 1990, 2000). Sin embargo, lo que sí se cuestiona (por ejemplo,
Edgerton, 1992; Boyd y Richerson, 1999) es la suposición de que las
normas prevalecientes son siempre y necesariamente «adaptativas». Así,
cuando se trastocan las normas sociales establecidas o surgen nuevas
situaciones, el seguimiento incondicional e irreflexivo de las normas por
medio de la regla heurística de «hacer lo que hacen los demás» puede ser
cada vez menos eficaz para lograr fines (Laland, 1999). De la mayor
importancia entonces es que los individuos concernidos tengan recursos
cognitivos para reaccionar ideando cursos alternativos de acción, incluso
cursos que tal vez son de un tipo innovador o normativamente desviado, y
haciendo elecciones informadas entre ellos.
En suma, los intentos de proporcionar fundamentos al paradigma
individualista en sociología en el nivel de la acción implican un rechazo del
Homo economicus guiado por una racionalidad demoníaca en favor de una
concepción del actor basada más sólidamente en la naturaleza del Homo
sapiens sapiens guiado por lo que Gigerenzer (2008) ha llamado una
«racionalidad para los mortales». No obstante, estos intentos siguen
produciendo una comprensión del actor muy diferente, y más elaborada, de
la que ofrece el paradigma holístico. En vez de tratar los individuos como
criaturas producidas en gran medida por las entidades socioculturales en las
que nacen y viven —en su grado más extremo, como marionetas
socioculturales—, se resalta su capacidad para concebir sus propios fines y
elegir, en cierto sentido racionalmente, entre los diferentes medios posibles
para lograrlos. Son estas capacidades las que dotan a los individuos de un
grado significativo de autonomía respecto de su condicionamiento
sociocultural y hacen necesario y validan el paradigma individualista.
Es más, desde esta perspectiva se ve otra ventaja significativa del
paradigma individualista: permite, de forma tal vez un poco paradójica, una
mejor apreciación de la naturaleza de las constricciones sobre la acción
individual. En el paradigma holístico el énfasis se pone en las
constricciones normativas. Sin embargo, como se supone además que
mediante los procesos de aculturación y socialización las normas que se han
institucionalizado de varias maneras tienden también a internalizarse en la
personalidad individual, la distinción entre constricción y elección en la
acción individual se desdibuja, si es que no desaparece del todo. La acción
se reduce, efectivamente, al comportamiento social normativamente
moldeado. Fue de hecho esta reducción la que suscitó la vieja broma,
dirigida contra la obra de Parsons y normalmente atribuida al economista
James Duesenberry, de que mientras la economía trata de distintas formas
de elegir, la sociología trata de por qué no hay ninguna elección que hacer.
En cambio, la posibilidad de que las normas sociales se pueden
experimentar subjetivamente como constricciones encaja fácilmente en el
paradigma individualista: esto es, las normas imponen limitaciones externas
a la acción de los individuos que no se basan en las creencias y valores que
ellos mismos comparten. Y, además, es más fácil ver que centrar la atención
en las constricciones normativas de la acción es en todo caso muy
restrictivo. Existen otras constricciones, de al menos parecida importancia,
que son de tipo no-normativo: aquellas que David Lockwood calificó de
«fácticas» en una crítica suya temprana a Parsons (Lockwood, 1956; véase
también Lockwood, 1992: 93-97 esp.). Se trata de constricciones que no
dependen de creencias y valores compartidos en común, sino que expresan
simple y llanamente desigualdades entre los individuos y grupos en el
control de los recursos —económicos, políticos y otros— y, por lo tanto, en
su ventaja y poder social. De ese modo, las oportunidades de los individuos
para la acción o, digamos, la gama de elecciones que realistamente tienen
ante sí se diferencian de forma sistemática y, a menudo, extrema.
Desde este punto de vista apenas sorprende entonces que el tratamiento
de las desigualdades sociales estructuradas en relación a los recursos —o en
otras palabras, de la estratificación social— haya constituido siempre un
grave problema para el paradigma holístico: en concreto, el problema de
cómo reconciliar la estratificación social con los supuestos sobre la
homogeneidad interna de las entidades socioculturales consideradas como
las unidades de análisis y sobre su grado de integración 32 . Desde el punto
de vista del paradigma individualista, en cambio, la estratificación social y
la operación de las constricciones no-normativas derivadas de ella no
plantean ningún problema. Se las considera como importantes factores
adicionales que incrementan la heterogeneidad de las poblaciones humanas
y crean variabilidad en la vida social humana —en este caso, se podría decir
que una variabilidad en las oportunidades vitales que es previa a la
variabilidad en las elecciones vitales. Y de este modo, se vuelve a poner el
acento en la necesidad de que la sociología se base —volviendo a la
distinción de Mayr— en el pensamiento poblacional en vez de en el
pensamiento tipológico.
El argumento de este capítulo ha sido hasta ahora un tanto abstracto. Con
el fin de poner de manifiesto con más claridad lo que implica puede ser útil
proporcionar, para concluir, algunos ejemplos más concretos de sus puntos
centrales. Puede hacerse así por referencia a uno de los más notables
procesos de cambio social que se ha patentizado en el mundo occidental: la
rápida erosión desde los años sesenta en adelante de las creencias, los
valores y las normas sociales relacionadas que sancionan el matrimonio
como base de las relaciones sexuales y de la reproducción y crianza de los
hijos y el correspondiente incremento en la cantidad de individuos que
optan por la cohabitación y la formación de familias al margen del
matrimonio.
En primer lugar, se puede señalar que los análisis de este proceso (por
ejemplo, Nazio y Blossfeld, 2003; Nazio, 2008) muestran que se inicia con
un aumento relativamente pequeño de los que se desvían de las normas
prevalecientes —que, por utilizar la distinción que hace Merton (1957: cap.
IV), incluyen no sólo «innovadores» pragmáticos, sino también «rebeldes»;
es decir, individuos que se oponen a lo que para ellos son «convenciones
burguesas» y cuya entrada bastante abierta en la cohabitación parece haber
producido un significativo efecto de demostración.
La difusión de esta práctica empieza a cobrar ritmo a medida que los
miembros de las sucesivas cohortes no sólo ven ejemplos de cohabitación
entre sus coetáneos, sino que, además, son cada día más conscientes de las
ventajas en costes y beneficios que proporciona —incluso aunque en alguna
pero decreciente medida sigan considerándola desviada—, sobre todo en un
tiempo en el que las oportunidades y las constricciones económicas
cambiaban de forma sustancial. Las oportunidades del mercado de trabajo
para las mujeres estaban creciendo, pero muchos hombres y mujeres
experimentaban de igual forma una mayor incertidumbre en el inicio de su
vida laboral (Blossfeld y Hofmeister, 2006; Blossfeld, Mills y Bernhardi,
2006). En estas circunstancias, cohabitar se consideraba a menudo más
atractivo —se podría decir que como una cuestión de elección informada—
que la alternativa de casarse o seguir sin ataduras. Por medio de la
cohabitación el compromiso a largo plazo se puede posponer hasta
conseguir cierto grado de seguridad laboral sin incurrir en los costes del
aislamiento sexual o de la promiscuidad, al mismo tiempo que se puede
acceder a las ventajas de los recursos compartidos y las economías de
escala al vivir juntos (Oppenheimer, 1994, 1997; Mills, Blossfeld y
Klijzing, 2005; Bukodi, 2012).
Estos análisis sobre el declive del matrimonio y el aumento de la
cohabitación ilustran convenientemente la fuerza potencial de la autonomía
individual frente a las normas predominantes como respuesta a las
condiciones cambiantes de la acción. Pero además sirven también para
subrayar otro punto relevante que nos interesa aquí. Muestran que cuando la
elección informada de los individuos socava normas sociales sólidamente
establecidas no necesariamente se genera ni movimiento hacia un nuevo
consenso normativo ni desorden radical.
En muchas sociedades podría parecer que, al menos hasta ahora, el
aumento de la cohabitación está asociado simplemente a una mayor
diversidad normativa. Las normas antes prevalentes siguen conservando
cierto grado de influencia junto a las nuevas. Por ejemplo, los individuos
con afiliación religiosa tienden a casarse más sin cohabitación previa que
los que no la tienen; y tienden también más, si cohabitan, a comprometerse
en matrimonio llegado un determinado momento como, por ejemplo, tras la
concepción o el nacimiento de un hijo (Manting, 1996; Nazio, 2008). Así,
se podría decir que los hombres y las mujeres han creado grados de libertad
mayores que los de antes para realizar las diferentes ideas e ideales por los
que viven; o, como Thornton, Axin y Xie (2007: 73) han dicho
acertadamente, los individuos «han conseguido de la comunidad y del
sistema social en general el control sobre elementos cruciales de los
procesos de formación de la pareja». De hecho, Lesthaeghe (2010: 213-
216) ve en el aumento de la cohabitación uno entre varios de los aspectos
de una «segunda transición demográfica» que implica «un ajuste de la
estructura normativa» relativa no sólo al matrimonio y la unión, sino
también a las relaciones sexuales y la reproducción y crianza de los hijos; y
en la que las «elecciones individuales» autónomas y las evaluaciones de la
«utilidad» han prevalecido sobre la «adhesión al grupo social» 33 .
Sin embargo, no necesariamente hay que considerar que este tipo de
cambios implica una reducción del orden social o, en todo caso, no en el
sentido de que haya menos regularidad en la vida social. Los individuos
también pueden ser una fuente de regularidades en el nivel de la población
cuando persiguen sus propios fines mediante procesos de elección
informada: es decir, si los individuos hacen elecciones similares en
situaciones semejantes (véase Goldthorpe, 2007: vol. 1, cap. 6). Y también
a este respecto, los efectos de las constricciones, tanto de las no normativas
como de las normativas, a la hora de pautar la acción social pueden adquirir
mucha importancia. Así, en el caso de la cohabitación, una constricción no
normativa sobre su difusión es la impuesta por la mundana cuestión de los
costes. Por ejemplo, se ha mostrado (Nazio y Blossfeld, 2003; Nazio, 2008)
que en países como Italia y España, donde hay escasez de vivienda
económicamente accesible, muchas parejas jóvenes, sobre todo en los
estratos inferiores, a las que les gustaría cohabitar, no pueden permitírselo y
se ven obligadas a permanecer en casa de sus padres simplemente por
razones económicas.
Por lo tanto, los niveles altos de consenso en creencias y valores y de
conformidad con las normas no deben considerarse las únicas fuentes de
regularidad en la vida social. Pero, al mismo tiempo, del argumento general
de este capítulo y de la ilustración específica de él que se ha presentado se
puede extraer una ulterior conclusión que tiene implicaciones directas para
lo que sigue.
Cuando los individuos intentan de un modo informado alcanzar sus
propios fines en condiciones creadas por compromisos normativos
posiblemente muy diversos y también por constricciones no normativas que
limitan las elecciones posibles en grados muy diferentes, tienden a
generarse regularidades en la acción y en los resultados que emergen en el
nivel de la población de formas más complejas que las esperadas bajo los
supuestos holísticos. Y este hecho tiene consecuencias directas porque
implica dificultades, por volver al análisis del capítulo 1, para hacer esas
regularidades visibles y transparentes. Cuando el análisis sociológico parte
de la idea de poblaciones y subpoblaciones, en vez de entidades
socioculturales consideradas en niveles más micro o más macro, lo que
debe resultar es una concepción de la sociedad humana como si, por así
decir, fuese de una textura mucho más suelta que la que presenta el
paradigma holístico, pero, al mismo tiempo, con un tejido mucho más
intrincado. Y esta concepción refuerza a su vez lo que se dijo al final del
capítulo 2 sobre los requisitos que deben cumplir los métodos de recogida y
análisis de datos si se quieren establecer y describir adecuadamente las
regularidades poblacionales, y es, además, relevante para determinar la
forma apropiada de explicar esas regularidades.
Las cuestiones que se plantean aquí son centrales para los próximos
capítulos con la excepción del 4, que constituye un excurso necesario para
defender que son las regularidades probabilísticas de la población las que
constituyen los explananda apropiados de la sociología.
25 Una situación análoga que David Cox me mencionó es que en muchas investigaciones en física
no es necesario descender hasta el nivel de los quantum, aunque si se requiriese una explicación
«elemental» de todos los fenómenos implicados sí sería necesario hacerlo.
26 Es posible también criticar el individualismo metodológico por creer que implica cierto
compromiso con el individualismo como credo económico o político. Pero como Weber (1922/1968:
18) observó: «Es un enorme dislate el pensar que un método ‘individualista’ significa una valoración
individualista en cualquier sentido concebible».
27 A este respecto, Boudon (1990: 41) compara de forma esclarecedora su propia posición con la de
su compatriota, Pierre Bourdieu, quien cuando aplica —o, se podría sostener, cuando aplica mal— la
noción tomista de habitus supone en efecto una concepción supersocializada del actor individual
mucho más extrema que aquella contra la que objetaron, en un contexto principalmente
estadounidense, Wrong y Homans. Véase también Boudon (2003b: 140-148).
28 Las obras de psicología evolutiva y cognitiva referenciadas en las fuentes citadas contribuyen a
remediar una debilidad importante de las críticas a la concepción «supersocializada» del actor
humano desarrolladas por Wrong y Homans —a saber: que los fundamentos psicológicos de estas
críticas eran cuestionables y bastante contradictorios ya que Wrong recurrió a una teoría freudiana de
los instintos y Homans a un conductismo bastante rudimentario. Los sociólogos han solido
reaccionar de una forma muy negativa a las posiciones que adoptan los psicólogos evolutivos, por
ejemplo a la de Tooby y Cosmides (1992) en su ataque contra «el modelo estándar de ciencia social»
del individuo humano en la medida en que implica una «tabla rasa» (véase también Pinker, 2002). De
hecho, se puede entender que este ataque apunta específicamente a los supuestos psicológicos del
paradigma holístico y, si se entiende así, está bien concebido. Pero es un problema que los autores no
distingan entre el individualismo ontológico y el metodológico. Un compromiso con este último no
implica en absoluto suscribir la muy desafortunada afirmación de que «lo que queda en general en el
mundo humano, una vez que quitamos todo lo interno a los individuos, es el aire entre ellos» (Tooby
y Cosmides, 1992: 47; véase también Goldthorpe, 2007: vol. 1, 180-183).
29 Curiosamente, Dunbar (2004: 64-66) sugiere que la muy elaborada teoría de la mente que
subyace a la ultrasociabilidad humana puede ser una propiedad derivada de esta capacidad más
básica para la elección informada en el sentido de que el tipo de razonamiento que esta última
entraña podría proporcionar la base para la comprensión de otras mentes: «recurro a la experiencia de
mis propios procesos mentales para imaginar cómo funciona la mente de otras personas». Esta
sugerencia está en la línea de los conocidos argumentos, tanto de la filosofía como de la antropología,
de que es la idea de la racionalidad la que proporciona el passepartout básico para entrar en otras
mentes y a su vez en otras culturas (véase, por ejemplo, Hollis, 1987: cap. 1).
30 «Demoníaca» hace referencia aquí al demonio que concibió Laplace (1814/1951), cuya
inteligencia va más allá de toda limitación de cálculo y acopio de información y para quien nada es
incierto y el futuro está tan claro como el pasado. A veces los economistas proclaman que se ha
realizado mucho trabajo teórico sobre los costes de la información y los límites de los cálculos y sus
consecuencias. Pero es posible cuestionar en qué medida todo ese trabajo forma parte del análisis de
la toma de decisiones en la investigación de economía aplicada. Por ejemplo, consideremos la
siguiente afirmación en un trabajo sobre la toma de decisión de los padres de cara a la financiación de
la educación de los niños: «Con unos mercados de capital que funcionaran de forma fluida, los
padres igualarían el tipo de interés del mercado de préstamos con el valor presente del rendimiento
marginal de inversión en sus hijos» (Blanden et al., 2010: 30). ¿Seguro que lo hacen?
32 La aproximación más común al problema, adoptada por Parsons (1940) entre otros (por ejemplo,
Davis y Moore, 1945), ha sido tratar la estratificación social como si, en sí misma, estuviera
normativamente sancionada y generalmente aceptada como una respuesta necesaria a exigencias
funcionales, a saber: las de asegurar la asignación de los individuos más capaces a los roles más
importantes para el «mantenimiento del sistema» y las de asegurar su motivación para desempeñar a
un alto nivel esos roles. Estas teorías de la estratificación social han estado sometidas, sin embargo, a
una serie considerable de críticas empíricas y conceptualmente fundadas (para un ejemplo temprano,
véase Tumin, 1953) y en la actualidad reciben poca aceptación. Un enfoque alternativo característico
del fonctionnalisme noir inspirado en Marx, diferenciado del fonctionnalisme rose de Parsons —por
mencionar la sutil distinción de Raymond Aron—, ha sido considerar la aceptación de la
estratificación social como indicativa de un sistema social cuya integración y mantenimiento se
deriva de la dominación ideológica, económica y política de las clases inferiores por las superiores.
33 Sin embargo, yo subrayaría que no hay que suponer, como Lesthaeghe parece inclinado a hacer,
que lo que está implicado aquí es un movimiento unilineal e irreversible —desde, digamos, la
«tradición» hasta la «modernidad». Es muy posible concebir que, de nuevo bajo condiciones
cambiantes, la acción individual pueda conducir al resurgir de una situación de más consenso
normativo y conformidad.
4. Las regularidades de la
población como explananda
básicos
Elster (2007: 9) ha afirmado que «la tarea principal de las ciencias sociales
es explicar los fenómenos sociales» y que «el tipo básico de explanandum
es el suceso». Desde el punto de vista de la sociología como una ciencia de
la población, el argumento de Elster requiere una matización importante.
Los sucesos que preocupan a la sociología son de un tipo determinado; a
saber: son sucesos que se puede mostrar que ocurren en una población o
subpoblación dada con algún grado de regularidad.
Muchos de los explananda o «puzles» para la sociología que Elster
(2007: 1-5) sugiere al ilustrar su argumento están de hecho relacionados con
regularidades en los sucesos: por ejemplo, «¿por qué los pobres tienden a
emigrar menos?» y «¿por qué vota un individuo en las elecciones cuando su
voto no tiene virtualmente ningún efecto en el resultado?». Sin embargo,
otros casos que menciona hacen referencia a sucesos singulares; por
ejemplo: «¿por qué el presidente Chirac convocó elecciones anticipadas en
1997 y perdió la mayoría en el parlamento?» 34 . Y, lo que es más importante
aún para nuestros propósitos aquí, hay otros autores (por ejemplo, Brady,
Collier y Seawright, 2006; Mahoney y Goertz, 2006; Mahoney y Larkin
Terrie, 2008) que reconocen de forma más explícita que Elster la distinción
entre regularidades en los sucesos y sucesos singulares y que aun así
mantienen que las ciencias sociales deben preocuparse por explicar tanto
estos últimos como las primeras.
Para comprender por qué surgen dificultades cuando se consideran como
explananda sociológicos sucesos distintivos, singulares, en lugar de las
regularidades en los sucesos, es necesario considerar el papel del azar en la
vida social. A este respecto es útil la distinción que propuso el biólogo
Jacques Monod (1970) entre dos visiones, o usos, diferentes de «azar» en
un contexto científico; a saber: la distinción entre azar «operativo» y azar
«esencial».
Monod señala que se emplea el término «azar» en sentido operativo
cuando, para analizar ciertos fenómenos, un enfoque probabilístico es, en la
práctica, el único factible en términos metodológicos —aun en el caso de
que se pudiera utilizar, en principio, uno determinista. Así, el azar, en este
sentido operativo, es el concepto básico para la idea de una ciencia de la
población tal y como la entiende Neyman. Se acepta la no factibilidad de
intentar dar cuenta de forma determinista de los estados y el
comportamiento de todos los individuos que componen una población, bien
debido a que son intrínsecamente indeterminados o simplemente debido al
grado de complejidad implicado en esa determinación. Sin embargo, queda
la posibilidad de, por volver a la expresión de Hacking, «domesticar el
azar» y establecer regularidades de tipo probabilístico en el nivel agregado
de la población para luego buscar explicaciones de esas regularidades que
resultan de los procesos causales o mecanismos que operan en el nivel del
individuo e incorporan el azar.
En cambio, el azar en sentido esencial es, para Monod, una idea mucho
más radical que se emplea cuando un cierto resultado surge de la
intersección de dos o más series bastante independientes de sucesos (véase
Hacking, 1990: 12). En el ejemplo que ofrece Monod (1970: 127-131), el
doctor Dupont acude a una llamada de emergencia y, cuando pasa al lado de
un edificio que están arreglando, al operario Dubois se le cae el martillo
sobre la cabeza del doctor y lo mata. Incluso si las dos series de sucesos se
consideran en cierto modo determinadas, su independencia implica que el
resultado de las dos debe considerarse una «coïncidence absolue» 35 .
Puede parecer que en la vida social del hombre el azar esencial se da de
forma generalizada. Como el doctor Dupont, los individuos se encuentran a
menudo en el lugar equivocado y en el momento inoportuno o, felizmente,
en el lugar adecuado y en el momento oportuno. Sin embargo, el azar
esencial se da en un contexto en el que también están presentes las fuerzas
que producen la regularidad. Los individuos persiguen sus diferentes fines,
a menudo en situaciones de gran incertidumbre, pero de una manera
informada, guiados por una racionalidad común y bajo varias constricciones
normativas y no normativas que comparten parcialmente. Lo que a primera
vista podría parecer un azar esencial en funcionamiento, puede mostrarse
que suele ser un azar condicionado socialmente, al menos en cierta medida.
Por ejemplo, en su obra temprana, Jencks (1972) subraya el papel de la
«pura suerte» en el éxito o fracaso relativos en la actividad económica;
pero, como él mismo admitió más tarde (Jencks, 1979), la experiencia de
los individuos con la suerte, ya fuera buena o mala, podía estar influida de
forma significativa por su entorno social. Y como la obra de Granovetter ha
contribuido a mostrar, la ocurrencia de uno de los tipos de suerte que cita
Jencks —«las personas conocidas por casualidad que te llevan hacia una u
otra línea de trabajo»— es muy probable que esté condicionada por algunos
rasgos de las redes sociales de individuos, de tal forma que resulta posible
«emprender un análisis sistemático de esta variedad de ‘suerte’
enmarcándola en un contexto estructural social dado» (Granovetter, 1995:
xi).
Así, en los análisis realizados en el nivel de población —es decir, con
cantidades de individuos relativamente grandes— siguen surgiendo muchos
tipos de regularidades probabilísticas en la vida social a pesar del
funcionamiento generalizado del azar esencial; pero suelen ser
regularidades de un tipo complejo y no inmediatamente visible, no digamos
transparente. Y son entonces estas regularidades las que, bajo los auspicios
del azar operativo, se pueden considerar los explananda para los que hay
que construir las apropiadas explicaciones sociológicas.
En cambio, en el caso de los sucesos singulares y distintivos, el azar
esencial tiende a tener un papel mucho más dominante y a funcionar de una
forma que es mucho menos fácil de «domesticar». Aunque puedan
sugerirse, al menos después de producidos los hechos, ciertas regularidades
predominantes y tal vez los mecanismos causales subyacentes que puedan
haber conducido a esos sucesos, para su ocurrencia real tiende a invocarse,
y a menudo crucialmente, la —intrínsecamente improbable— intersección
de los sucesos precedentes. Es este hecho lo que al parecer pasan por alto
los que apremian a los sociólogos a que intenten explicar sucesos singulares
o complejos singulares de sucesos, como —por poner los ejemplos de
Mahoney y Goertz (2006: 230)— el estallido de las dos guerras mundiales
o el colapso de la Unión Soviética. Al argumentar de este modo, estos
autores afirman que los científicos naturales están muy dispuestos a aplicar
sus teorías para dar cuenta de «resultados particulares» y ponen de ejemplo
la explicación que dio el físico Richard Feyman del desastre del
transbordador espacial Challenger de la NASA en enero de 1986. Sin
embargo, este ejemplo sirve muy bien para ilustrar en realidad la debilidad
de la posición que adoptan Mahoney y Goertz.
La causa inmediata del desastre del lanzamiento del Challenger fue el
fallo de una junta de sus cohetes aceleradores sólidos debido a que perdió
resiliencia a bajas temperaturas. Y las razones físicas de este fallo las
demostró Feynman con mucha teatralidad. En una sesión de la Comisión
Presidencial de Investigación sobre el desastre, puso una muestra de la
goma usada para las juntas en remojo en un vaso de agua helada sobre la
mesa y luego la rompió. Pero el problema de la resiliencia de las juntas ya
se conocía, y lo crucial fue que durante una teleconferencia la noche
anterior al lanzamiento hubo cierta confusión sobre la relación entre la
temperatura del aire y la probabilidad de que las juntas perdieran su
eficacia. Los datos estadísticos que se consideraron apresuradamente
procedían sólo de lanzamientos previos en los que se había producido
realmente algún daño en las gomas, y los análisis de esos datos no
indicaban fehacientemente que, con la temperatura pronosticada, el
lanzamiento debiera posponerse —mientras que lo que se planteó
posteriormente es que si se hubieran examinado todos los datos de todos
los lanzamientos, los resultados habrían mostrado con mucha más claridad
que había un gran riesgo de catástrofe (Dalal, Fowlkes y Hoadley, 1989).
Tras muchas discusiones se permitió que el lanzamiento siguiera adelante, y
luego las juntas fallaron.
La cuestión clave que hay que resaltar aquí es que mientras la teoría
sociológica quizás podría, como señala Vaughan (1996), ser de ayuda para
explicar los rasgos contextuales predominantes que hacían más probable
que pudiera ocurrir algún tipo de desastre en el lanzamiento —por ejemplo,
la cultura organizacional de la NASA y su «normalización de la
desviación» respecto a las cuestiones de seguridad—, difícilmente podría
producir una explicación del hecho de que este desastre particular sí que
ocurrió. Como Popper (1957: 116-117, 143-147) ha sostenido, con el
debido reconocimiento a Max Weber (1906/1949), cuando para explicar
algún «suceso real, singular o específico» hay que invocar varios procesos
causales diferentes, con distintos fundamentos teóricos, la explicación que
resulta no será en sí misma una explicación teórica. Será una explicación
de un tipo bastante diferente; a saber: una explicación histórica, que implica
un relato del despliegue de todos los eventos relevantes previos, incluidas
sus intersecciones contingentes y sus consecuencias —el azar esencial en
funcionamiento— hasta el momento en que el suceso en cuestión se
produce. En suma, lo que está implicada aquí es una narrativa de un tipo
muy específico, ligada al espacio y al tiempo, y necesariamente
proporcionada ex post 36 .
Se puede decir que últimamente el propio Mahoney se ha acercado a la
idea de que las explicaciones históricas son en efecto distintivas porque se
ocupan de las causas de acontecimientos particulares del pasado, y que «la
cuestión de si la explicación podría generalizarse y cómo hacerlo es una
preocupación secundaria» (Mahoney, Kimball y Koivu, 2009: 116). Pero es
extraño encontrar esta afirmación en un trabajo dedicado a la lógica de la
explicación histórica en las ciencias sociales, donde, se supone, la principal
preocupación debe ser la búsqueda de explicaciones teóricamente
fundamentadas que se puedan aplicar más allá de los casos particulares.
Por suerte, pese a los descaminados empujes que ofrecen algunos, no
todos los científicos sociales intentan tan a menudo explicar sucesos
singulares, por lo que la importancia del argumento anterior se hace patente
en realidad en otro caso: cuando los sociólogos intentan explicar sucesos o
complejos de sucesos agrupados bajo una misma rúbrica como si se
caracterizaran por regularidades significativas, pero sin proporcionar
ninguna demostración convincente de esas regularidades. A modo de
ilustración de las dificultades que aquí surgen me referiré a lo que ha dado
en llamarse la sociología de las revoluciones, aunque también podría haber
elegido la supuesta sociología de las crisis económicas o de diversas
trayectorias históricas como, por ejemplo, las «rutas» hacia el autoritarismo
o la democracia o los «caminos» hacia la modernización.
En un artículo de revisión, Goldstone (2003: 50, véase también 1995)
mantiene que se ha logrado un «progreso continuo» en la sociología de las
revoluciones. Este progreso es resultado de la aplicación de procedimientos
esencialmente inductivos a estudios de caso detallados de «conjuntos
finitos» de revoluciones, en lugar del análisis de muestras de revoluciones
tomadas de un «universo predefinido». Goldstone señala que, con la
acumulación de estudios sobre revoluciones concretas, ha aumentado el
conocimiento de los diferentes procesos causales que pueden estar
implicados, lo que ha permitido hacer generalizaciones de mayor alcance y
solidez sobre la existencia de las revoluciones y la posibilidad de
predecirlas. El mismo Goldstone (1995: 45) ha intentado integrar este
trabajo en lo que ha denominado «un modelo de proceso coyuntural» de las
revoluciones. Este modelo propone que una sociedad «se escora [sic] hacia
la revolución» cuando se dan tres condiciones: (i) el Estado pierde eficacia
en su capacidad para controlar los recursos y la obediencia; (ii) las élites
están alienadas del Estado y en conflicto abierto sobre la distribución del
estatus y el poder; y (iii) es posible movilizar rápidamente a una proporción
grande o estratégica de población para que emprenda acciones de protesta.
Como ha observado Tilly (1995: 139-140), estas condiciones son en sí
mismas tan parecidas a las que definen una situación revolucionaria real que
hacen que el modelo de Goldstone tenga un potencial limitado a la hora de
explicar cómo se producen las revoluciones. Pero se puede objetar además
que lo que se afirma empíricamente ni siquiera equivale a una serie de
regularidades establecidas en los procesos sociales conducentes a las
revoluciones que pudieran constituir apropiados explananda sociológicos.
Porque, como Goldstone parece admitir, sus condiciones «coyunturales»
para la revolución no tienden de ningún modo a producirse juntas; el que lo
hagan o no en casos particulares debe considerarse bastante contingente. Y
él sí que reconoce explícitamente que su modelo «no dice nada» sobre las
causas de que las sociedades se muevan hacia una situación revolucionaria,
y sugiere que un tal conjunto fijo de causas no existe (Goldstone, 1995: 45).
Es difícil, por tanto, ver que se esté presentando aquí un argumento
convincente en favor de la viabilidad de una sociología de las revoluciones.
Si la inducción a partir de estudios de caso no conduce al establecimiento
de regularidades empíricas en las precondiciones de las revoluciones, en su
arranque, en su desarrollo, en los factores relacionados con su éxito o
fracaso, etc., sino que revela variaciones crecientemente mayores en los
diferentes casos, entonces la posibilidad de una explicación teórica de las
revoluciones en términos del funcionamiento de procesos sistemáticos
queda claramente debilitada 37 . Y se podría argüir que lo que a su vez se
está indicando es que se debe dar más peso a los factores que son
específicos de los casos individuales, incluyendo su interacción por medio
de la intervención del azar esencial. En otras palabras, lo que parece
apropiado no es una sociología de las revoluciones, sino, en el mejor de los
casos, una historia comparada que, siguiendo a Popper, tendría que
reconocerse como una empresa intelectual de un tipo muy diferente. Es
decir, de un tipo en el que se compararan las explicaciones de las diferentes
revoluciones, con la debida consideración a las concatenaciones particulares
de sucesos implicados, y con una preocupación tanto por la diversidad de
los posibles procesos revolucionarios como por los rasgos comunes 38 .
Es a este respecto interesante descubrir que entre los historiadores
profesionales que estudian las revoluciones se aprecia una tendencia
creciente a menospreciar las presuntas regularidades entre los casos y a
acentuar su particularidad individual. Por ejemplo, el autor del estudio más
completo hasta la fecha de la «Revolución Inglesa» del siglo XVII señala en
el último capítulo lo siguiente: «soy escéptico ante la búsqueda de una
morfología de la revolución en la que encajen las revueltas en Francia en
1789, Rusia en 1917, China bajo el presidente Mao y otras turbulencias
posteriores en otros lugares» (Woolrych, 2002: 792) 39 .
La postura que he adoptado podría considerarse excesivamente negativa
en la medida en que parece imponer límites innecesarios a la ambición
sociológica. Pero los que así piensan harían bien en reflexionar sobre el
hecho de que no hay razón alguna para suponer que el alcance de la
explicación sociológica es infinito —ninguna razón para suponer que puede
existir una sociología de cualquier cosa y de todo— y que, por lo tanto, es
importante tener una idea de dónde y con qué criterios se deben trazar las
fronteras de la explicación sociológica. Es además relevante señalar que la
ambición excesiva tiene sus costes. Así, tras los sucesos de 1989-1990, los
sociólogos tuvieron que encarar muchas críticas por no haber anticipado el
colapso de la Unión Soviética, unas críticas que se podrían haber evitado o,
al menos, haber rechazado eficazmente, si dentro de la disciplina hubiera
habido una clara conciencia y un reconocimiento más explícito de dónde se
requiere una explicación histórica en vez de sociológica. Si ese hubiera sido
el caso, como Hechter (1995: 1523) ha observado, los sociólogos no
hubieran tenido que «agachar la cabeza». En cuanto a la afirmación de
Goldstone (1995) de que, a la luz de su modelo, él habría sido de hecho
capaz de predecir las revoluciones asociadas al colapso de la Unión
Soviética, el comentario de Runciman (1998: 16) es brutal pero ajustado:
«Puede que hubieras podido predecirlas, Jack. Y si hubieras podido,
deberías haberlas predicho. Pero no lo hiciste» 40 .
A modo de conclusión a este capítulo haré algunas observaciones que
pueden ser pertinentes sobre la utilización de métodos lógicos en lugar de
estadísticos en el análisis sociológico, porque las dificultades que surgen
cuando se aplican métodos lógicos sirven para sacar a relucir de otra
manera los riesgos de intentar dar explicaciones sociológicas cuando en
realidad se requieren explicaciones históricas. Los métodos lógicos
cobraron relevancia en la sociología con el temprano estudio de las
revoluciones de Theda Skocpol (1979) —en concreto, con el uso que hace
del «método de la concordancia» y el «método de la diferencia» de John
Stuart Mill (1843/1973-1974). Y aunque parece que Goldstone aplica esos
métodos de modo informal, otros autores, que se sumarían a su compromiso
con el trabajo inductivo a partir de estudios de caso, han intentado ir más
allá de Mill. De forma señalada, Charles Ragin (1987) ha propuesto el uso
de la teoría de conjuntos y el álgebra booleana en lo que ha dado en
llamarse el «análisis cualitativo comparado» (ACC). Es en este método en
el que me centro ahora.
El ACC intenta mostrar las condiciones en las que un resultado
determinado ocurre o no ocurre, tratando las diversas condiciones
consideradas como binarias: de hecho, como presentes o ausentes. Sobre la
base de estudios de casos, se construye una «tabla de verdad» que muestra
qué conjuntos de condiciones se asocian con el resultado que ocurre o no
ocurre, y el álgebra booleana se usa para comprimir la tabla de verdad en
una fórmula mínima. En la versión fuerte del ACC, la ecuación booleana se
considera una «fórmula causal» que proporciona todas las combinaciones
de las condiciones que son necesarias y/o suficientes para que se produzca
el resultado en cuestión. En una versión más débil, que últimamente se
utiliza a menudo —aunque con una gran dosis de ambigüedad (véase, por
ejemplo, Rihoux y Marx, 2013: 168-169)— la ecuación booleana se
considera sólo como un medio para resumir resultados procedentes de
algunos estudios de caso de una forma que suscita o, como mucho, sugiere
explicaciones causales. En esta versión más débil, el ACC podría parecer
una manera posible de establecer regularidades empíricas relativas a
algunos fenómenos sociales que a su vez podrían constituir explananda de
un tipo legítimo.
Sin embargo, ya se considere el ACC como una fuente de fórmulas
causales o como un método esencialmente descriptivo, está expuesto a
serias objeciones por razones tan convincentes como las expuestas por
Lieberson (2004) y Lucas y Szatrowski (2014). Lo que a estos autores les
interesa señalar es que el ACC, como método de análisis lógico más que
estadístico, debe suponer un mundo social bastante determinista en vez de
probabilístico 41 . Es decir, no permite la operación del azar esencial en este
mundo, ni tampoco el azar como simple error en nuestro —supuesto—
conocimiento del mismo (véase Goldthorpe, 2007: vol. 1, cap. 3; Hug,
2013). A su vez, el ACC no es capaz de tener en cuenta el grado en que una
tabla de verdad derivada de los estudios de caso puede contener resultados
efectivamente aleatorios: es decir, como consecuencia de que el mundo
social no es, de hecho, determinista, o como consecuencia simplemente de
un error en los datos. Y por esta razón, las ecuaciones de síntesis booleanas
pueden conducir fácilmente, como Lieberson (2004) afirma, a una «enorme
sobreinterpretación» o, como Lucas y Szatrowski (2014) proclaman, a
explicaciones causales que son simplemente erróneas 42 . Otra manera de
decirlo sería afirmar que puede que el ACC sea a menudo incapaz de
distinguir la señal del ruido. Y Lieberson ha demostrado la posibilidad de
que el ACC pueda producir ecuaciones booleanas a partir de tablas de
verdad que son totalmente ruido: es decir, que se han generado mediante
procesos completamente aleatorios.
Como respuesta a esto, se ha afirmado (por ejemplo, Ragin y Rihoux,
2004) que tales tablas de verdad generadas aleatoriamente se mostrarían
enseguida como tales, en el sentido de que contendrían muchas
contradicciones —es decir, casos de conjuntos idénticos de condiciones
asociadas tanto al resultado de interés que ocurre como al que no ocurre— y
que una de las tareas estándar del ACC es resolver esas contradicciones,
normalmente introduciendo nuevas condiciones antes de seguir adelante.
Pero esta respuesta resulta inadecuada. Mediante simulaciones, Marx
(2010) ha mostrado que no necesariamente surgen contradicciones en las
tablas de verdad generadas aleatoriamente. Lo que resulta crucial es el
número de casos analizados y el número de condiciones implicado. En
concreto, los resultados de Marx (2010: 155) le llevan a sugerir que «las
aplicaciones [del ACC] con más de 7 condiciones (incluido el resultado) y
las aplicaciones en las que la proporción de condiciones sobre los casos es
mayor que 0,33, no son capaces de distinguir los datos reales de los datos
aleatorios». Y su revisión de los estudios que usan el ACC (Marx, 2010:
tabla 4) revela que una proporción considerable de ellos era, de hecho, de
este tipo tan cuestionable.
En la raíz del problema que surge aquí está el hecho de que el ACC,
como un método lógico que supone un mundo determinista, tiene que
intentar explicar satisfactoriamente todos los casos considerados. En
términos estadísticos, debe intentar dar cuenta del 100 % de la varianza en
el resultado de interés. Esto, como Seawright (2005: 16-18) ha señalado,
significa que el ACC tiene que incluir todas las condiciones causalmente
relevantes para el resultado de interés en la población de casos estudiada:
tiene que incluir no sólo las condiciones que operan con cierta regularidad
en los casos, sino también las condiciones bastante «idiosincrásicas» —y,
podría sospecharse, puramente azarosas— que pueden ser relevantes sólo
en uno u otro caso particular. Así, siempre cabe la posibilidad de que el
número de condiciones que se necesite considerar y su ratio con respecto al
número de casos se aproximen a los peligrosos niveles que Marx identifica
y que al parecer a menudo se superan en la práctica 43 .
El propio Marx (2010: 147) lo describe con acierto como un problema
de «lo único». Cuando el número de condiciones identificadas se aproxima
al número de casos analizados, se llega a un punto en el que cada caso debe
considerarse representativo de una configuración única de condiciones: es
decir, no hay regularidades. Llegados a este punto, la posibilidad de
contradicciones queda eliminada, pero la ecuación booleana producida
carece de sentido, pues podría aplicarse por igual a datos aleatorios o a
datos derivados de los casos estudiados. Una manera alternativa de explicar
esta cuestión, por volver al análisis anterior de este capítulo, sería la
siguiente. Cuando se da una situación de este tipo, lo que se está poniendo
de manifiesto es —como en el caso de la supuesta sociología de las
revoluciones— el intento de ofrecer una explicación sociológica para
sucesos que no se caracterizan por la suficiente regularidad como para dar
esa explicación sociológica, ni una explicación teórica de ningún tipo. O,
dicho de otro modo, en la medida en que puede plantearse el problema de
«lo único» en el caso de sucesos o de complejos de sucesos, lo que se
requiere es una explicación histórica en vez de sociológica.
En tanto en cuanto los defensores del ACC proponen una solución a este
problema, parece consistir en que los análisis explicativos se limiten a
poblaciones de casos que se consideran «comparables» en el sentido de que
son «causalmente homogéneos» o, en otras palabras, permiten obtener una
tabla de verdad carente de contradicciones con un número relativamente
pequeño de condiciones. Pero recurrir a poblaciones «construidas» (Ragin,
2013: 173; y véase Goertz y Mahoney, 2009) en vez de a poblaciones que
son definidas independientemente del modelo explicativo que se va a usar
—y, presumiblemente, a la luz de los intereses sustantivos previos del
analista— implica que las condiciones de alcance del modelo se establecen
de una forma bastante arbitraria. Se confunden la descripción de las
regularidades poblacionales y su explicación, y sólo se consideran los casos
que encajan en un modelo explicativo determinado. Si bien todas las teorías
en las ciencias sociales tienden a requerir condiciones de alcance de algún
tipo, el procedimiento apropiado (véase el capítulo 9) debe ser el desarrollo
de teorías para dar cuenta de los explananda establecidos bastante
independientemente, para luego descubrir, investigando más, cuán
adecuadas son esas teorías para las tareas asignadas y cuáles son sus
limitaciones, incluyendo sus condiciones de alcance. De otro modo, se
tiende desde el principio a modelos explicativos que, como un traje mal
cortado, simplemente se adaptan a lo que les toca.
Examinar las dificultades que afrontan los métodos lógicos de análisis,
basados en el supuesto de un mundo social determinista, contribuye a
resaltar los rasgos distintivos de la sociología entendida como una ciencia
de la población fundamentada en el supuesto de un mundo social
probabilista que requiere métodos estadísticos. En este último caso, se
admiten desde el principio dos condiciones que la limitan. Primera, por las
razones explicadas en este capítulo, se acepta que los explananda
apropiados para esta sociología serán sólo sucesos de un cierto tipo:
aquellos que puede mostrarse empíricamente que se expresan en
regularidades probabilísticas en el nivel agregado derivadas de los estados y
el comportamiento de los miembros individuales de las poblaciones. Y,
segunda, se acepta que, como veremos con más detalle en los próximos
capítulos, la varianza en los resultados de interés no se explicará en su
totalidad, sino sólo en la medida en que dicha varianza es resultado de
factores que se considera que operan de una manera sistemática en vez de
idiosincrásica o aleatoria (véase King, Keohane y Verba, 1994: cap. 2
especialmente).
34 Elster también pone ejemplos que, si bien se refieren a sucesos singulares, deben entenderse al
parecer como casos particulares de regularidades. Por ejemplo, «¿por qué ninguno de los treinta y
ocho viandantes llamó a la policía cuando Kitty Genovese fue golpeada hasta morir?» (Kitty
Genovese era la encargada de un bar de Nueva York que fue asesinada cuando volvía a su casa a
primeras horas de la mañana de un día de 1964). Lo que se supone que le interesa a Elster es el
llamado «efecto del espectador», muy estudiado en la literatura de la psicología social, que en
términos generales se podría formular así: «la probabilidad de que los individuos ayuden o
emprendan alguna acción en situaciones de aparente emergencia varía inversamente con la cantidad
de personas que están presentes». En realidad, el caso Genovese no es un ejemplo bien documentado
de este efecto (Manning, Levine y Collins, 2007).
35 Como era biólogo, la preocupación principal de Monod era establecer los elementos
esencialmente azarosos en la evolución. Intentaba mostrar que los procesos por los que se producían
las mutaciones en las secuencias del ADN no tenían ninguna relación con —eran bastante
independientes de— los efectos derivados de la proteína modificada, las interacciones que asegura,
las reacciones que cataliza, etc. En los años sesenta, en King’s College, Cambridge, me beneficié
mucho de mis conversaciones con Jacques Monod sobre «el azar y la necesidad» en la biología y la
vida social.
36 En su libro sobre la decisión de lanzar el Challenger, Vaughan (1996: xiii) dice proporcionar una
«explicación sociológica» de esta decisión, pero también afirma, en la misma página, que
proporciona una «etnografía histórica» de la secuencia de sucesos que condujeron al desastre. Esta
segunda afirmación es más convincente que la primera. El relato detallado de Vaughan de esta
secuencia de sucesos (véase, sobre todo, el cap. 8) sirve de hecho para mostrar cómo el azar esencial
entra en juego de forma crucial en una serie de momentos diferentes.
37 Como indicaré más adelante en este capítulo, debo mencionar aquí que, aunque tengo serias
dudas sobre la metodología que defiende Goldstone —basada en inducciones a partir de «conjuntos
finitos» de casos—, no creo que esa metodología sea en sí misma la fuente de la incapacidad para
establecer regularidades empíricas relacionadas con las revoluciones. Estoy totalmente de acuerdo
con Goldstone (2003: 43) en que los estudios sobre las revoluciones con un N grande basados en
muestras «no han sido tremendamente fructíferos» y de hecho no han supuesto ninguna mejora a este
respecto.
38 En algunas ocasiones, Goldstone y otros que intentan crear una sociología de las revoluciones sí
que han descrito de forma alternativa su objetivo como el de ofrecer un «análisis histórico
comparado» de las revoluciones, pero sin reconocer de forma manifiesta las diferencias que surgen.
40 Los economistas también han sido criticados por no predecir la crisis financiera de 2008. Es de
señalar que al menos algunos de ellos han adoptado la postura de que esa predicción está más allá del
alcance de la economía como ciencia social, en particular debido al papel que tienden a representar
las especificidades históricas en los sucesos de este tipo.
41 En una obra posterior, Ragin (2000) ha ido más allá de su formulación original del ACC para
proponer el uso de los conjuntos «difusos» en lugar de los conjuntos «clásicos» que implican
categorizaciones estrictamente binarias. Este nuevo enfoque se aleja de forma significativa del
análisis lógico para acercarse al estadístico en el sentido de que implica una medición —aunque
bastante rudimentaria y a menudo arbitraria— del grado de pertenencia de los casos a conjuntos
particulares; y también sirve para hacer posible una comprensión de la causación que es
probabilística en lugar de determinista, aunque a costa de incurrir en oxímoron tales como «casi
necesario» y «casi suficiente». Por lo tanto, no considero el ACC de conjuntos difusos en el examen
presente de las dificultades relacionadas con el análisis puramente lógico. Sin embargo, como
muestran Krogslund, Choi y Poertner (2015), los resultados del ACC con conjuntos difusos son muy
sensibles a cambios bastante pequeños de los parámetros empleados para «calibrar» la pertenencia al
conjunto y aplicar luego la minimización booleana. Se plantea entonces la pregunta de qué es lo que
se puede hacer con el ACC con conjuntos difusos que no se puede hacer con menos dificultad y más
fiabilidad mediante los métodos estadísticos existentes como, por ejemplo, la modelación loglineal o
el análisis de clases latentes (que veremos en el capítulo 7). Como Achen (2005: 29) ha comentado,
el repetido aserto de Ragin de que los métodos cuantitativos de análisis de datos en las ciencias
sociales se limitan a los análisis de regresión que estiman efectos netos, independientes del contexto,
es una «afirmación sin duda desconcertante».
42 Curiosamente, Lucas y Szatrowski (2014) intentan ilustrar su caso mostrando que un análisis
ACC de la causa —inmediata— del desastre del Challenger, examinado antes en este capítulo, ofrece
una explicación que es contradictoria con la aceptada generalmente por los ingenieros y la Comisión
Presidencial de Investigación: es decir, que el desastre se produjo simplemente por el fallo de las
juntas del motor de aceleración a temperaturas bajas. El análisis ACC implicaría que una interacción
con otros factores fue necesaria para que ocurriese el desastre, a pesar de que no existe evidencia
independiente al respecto.
43 Incluso cuando el ACC se aplica a bases de datos con una N bastante grande (por ejemplo, véase
Cooper, 2005), sigue planteándose el problema de la sobreinterpretación en el sentido de que las
ecuaciones booleanas que se pueden formular implican complejos efectos de interacción que, si se
incorporan en, por ejemplo, un modelo loglineal, se demostrarían estadísticamente no significativas
o, dicho de otro modo, podrían reflejar fácilmente aspectos azarosos de los datos (véase Krogslund,
Choi y Poertner, 2015: 50-51).
5. La estadística, los conceptos y
los objetos de estudio sociológico
44 Stigler recalca que la introducción de los experimentos aleatorizados se suele asociar a Fisher,
pero añade que al menos Peirce «aclaró qué estaba haciendo y por qué, y sus ‘qué y por qué’ eran los
mismos que los de Fisher» (Stigler, 1999: 193-194).
47 Fedro 265d-6a. Platón compara la tarea de definir las cualidades naturales y morales con la de un
carnicero cortando carne. La mejor manera de cortarla es siguiendo las articulaciones que ya están
ahí presentes.
48 Parece que muchos sociólogos atraídos por las ideas de los constructivistas extremos, quizá
debido a su aparente «radicalismo», no se percatan de todas sus implicaciones (véase Hacking, 2000:
cap. 3). Lo que se deriva de esas ideas es que un cuerpo de conocimiento científico existente —por
ejemplo, la física contemporánea— debe considerarse de carácter bastante contingente, en vez de
estar de alguna manera determinado por el modo en que el mundo es realmente. Así, por ejemplo, en
circunstancias socioculturales diferentes a las prevalecientes en el pasado, podría haberse
desarrollado una física distinta, no necesariamente menos «exitosa», de la que tenemos hoy. La gran
dificultad que plantea esta posición es que hasta ahora nadie ha sido capaz de dar una idea de en qué
podría haber consistido esa física alternativa. A modo de divertida reductio ad absurdum del
constructivismo extremo —se presume que no intencionada— se puede señalar el cuestionamiento de
Latour (2000) de la conclusión a la que llegaron los arqueólogos que examinaban la momia de
Ramsés II, quien murió de tuberculosis c. 1213 a. C. Dado que el bacilo de la tuberculosis fue
descubierto —es decir, construido— por Robert Koch en 1882, Latour se pregunta si esa conclusión
no es tan «anacrónica» como proclamar que la muerte de Ramsés se debió a una revuelta marxista, al
disparo de una bala o al crack de Wall Street.
49 Otra forma de validez —normalmente llamada validez de «criterio»— hace referencia al grado en
que, cuando un instrumento convierte un concepto en una variable, esta variable correlaciona con
otras variables con las que, en teoría, se espera que correlacione. Por desgracia, no parece haber una
terminología uniforme, y, de hecho, algunos autores aplican los términos validez de «constructo» y
de «criterio» al revés de como yo los uso. Debe señalarse también que el grado de atención que
prestan a la validez de los conceptos las ciencias humanas y sociales parece variar bastante. Quizás
está más elaborada en psicología; pero en economía, donde los conceptos tienden a derivarse bastante
estrictamente de la teoría, apenas se ha tratado la cuestión de cuán válidamente se han hecho
operativos para la investigación, ni siquiera en el caso de conceptos básicos tales como «empleo» y
«desempleo», «renta permanente», «cualificación» y «capital humano». A la sociología se le podría
conceder una posición intermedia, pero es indudable que se beneficiaría mucho si se acercara a la
psicología.
50 Los biólogos, quizá más versados que los sociólogos en historia de la filosofía, tienden a discutir
los problemas fundamentales de la conceptualización más en términos de realismo y nominalismo
que en términos de «construcción social», pero se trata esencialmente de los mismos problemas
(Hacking, 2000: cap. 3).
52 Se señaló que cuando las «autoridades locales» guiaban la selección de los casos era de esperar
que eligieran familias que apoyaban el statu quo en vez de familias que eran de uno u otro modo
disidentes; y las sospechas de sesgo conservador se hicieron aún mayores cuando se supuso que la
atipicidad implicaba no sólo desviación estadística sino también social. Varios reestudios realizados
sobre las localidades que estudió Le Play han defendido que existía menos armonía en las relaciones
comunitarias y laborales y una menor satisfacción con el orden prevaleciente de lo que Le Play había
indicado (véanse Lazarsfeld, 1961; Silver, 1982: 54-75).
53 Un poderoso eco de este argumento es el estudio sobre los presupuestos familiares de la clase
trabajadora realizado por Halbwachs (1912), quien critica a Le Play por concentrarse en casos
supuestamente típicos desatendiendo todo el rango de variación existente que es posible mostrar.
54 Esta última puntualización la hizo von Bortkiewicz en una reunión del Instituto Internacional de
Estadística en 1901 (Kruskal y Mosteller, 1980), y más tarde la volvió a hacer en una crítica a la
investigación de Max Weber sobre los trabajadores industriales de Alemania (Verein für
Sozialpolitik, 1912). Este estudio de Weber (1908) y otro que hizo antes sobre los trabajadores
agrícolas del este del Elba (Weber, 1892), podrían considerarse, junto al estudio de Charles Booth
(1889-1903) sobre la pobreza en Londres, como estudios que intentaban acortar la distancia entre los
censos y las monografías, pero sin exponer la lógica subyacente para ir de la parte al todo —o, al
menos, ninguna que pudiera aplicarse de forma general.
55 Intuitivamente podría parecer que en los debates de los años de entreguerras hablaba contra el
muestreo probabilístico su aparente desatención a todo conocimiento previo de la población. Más
tarde, Neyman (1952: 122) revelaría que él mismo se había preguntado «cómo funcionaba en la
práctica ese muestreo probabilístico». Quedó tranquilo cuando se realizó un ensayo dirigido por él en
un estudio sobre la estructura de la clase trabajadora polaca emprendido por Jan Pieckalkiewicz
(1934). La obra Lectures and Conferences on Mathematical Statistics and Probability de Neyman
(1952) está dedicada a la memoria de Pieckalkiewicz, asesinado por la Gestapo en 1943, y a otros
antiguos colegas de Neyman de Varsovia que murieron en la Segunda Guerra Mundial.
56 Con las muestras por cuotas el primer problema que se plantea es en qué medida la configuración
de la muestra —las «cuotas»— se corresponde con la de la población en las variables de control
seleccionadas. Pero un problema ulterior es hasta qué punto la práctica de tomar sustitutos de los
individuos que se niegan a ser entrevistados —que a menudo asciende a la mitad prevista— para
respetar las cuotas no crea un «sesgo de disponibilidad». Este sesgo parece que fue un factor
importante del fracaso de las encuestas de las elecciones generales británicas de 1992. Debe añadirse
que en algunos casos la naturaleza misma del problema de investigación abordado puede implicar
que el muestreo probabilístico de la población investigada no sea práctico y que sea necesario usar
otros métodos: el muestreo por «bola de nieve» de poblaciones que están «ocultas» debido, por
ejemplo, a las actividades subversivas o desviadas de sus miembros (Salganik y Heckathorn, 2004), o
el muestreo requerido en la investigación de redes sociales cuyo objetivo es ir más allá de las redes
«centradas en ego» hacia las «completas». Pero lo importante es que en esos casos se realice el
intento de evaluar la muestra obtenida frente al «patrón oro» que proporciona el muestreo
probabilístico.
58 Al criticar abiertamente la investigación por encuesta, Savage y Burrow hacen sólo una
puntualización pertinente: que esta investigación afronta actualmente el problema de unas tasas de
respuesta decrecientes y posiblemente cada vez más sesgadas. Sin embargo, luego no dicen nada de
los importantes avances que se han hecho recientemente para abordar este problema con métodos
para la ponderación de la no respuesta o para la imputación múltiple de los datos perdidos.
59 De hecho, es en esta línea en la que se han expresado críticas convincentes (Mills, 2014) contra
los esfuerzos de Savage (Savage et al., 2013) por construir un «nuevo mapa de las clases sociales» de
Gran Bretaña basándose en grandes datos muy sesgados procedentes de individuos autoseleccionados
que respondieron a una encuesta de internet —complementados con datos añadidos procedentes de
una encuesta a muestras por cuotas cuyo grado de representatividad no es posible estimar
fiablemente.
60 Para una revisión de estas críticas, y una poderosa respuesta a ellas, escrita en el momento álgido
de «la reacción contra el positivismo», véase el valiente libro de Cathie Marsh (1982), cuya trágica
muerte a edad temprana privó a la investigación por encuesta de Gran Bretaña de una de sus grandes
promesas.
64 Recuerdo haber oído una vez a Bill Sewell una advertencia muy parecida pero expresada de
forma más pintoresca: «antes de empezar a explicar de algún modo inteligente cómo ha subido el
cerdo al árbol, asegúrate de que es un cerdo lo que hay en el árbol».
65 Lazarsfeld (véase esp. Lazarsfeld y Henry, 1968) también fue precursor de otra técnica
descriptiva valiosa para los sociólogos llamada el análisis de clases latentes —el equivalente
categorial del análisis factorial para las variables continuas—, que también se puede considerar
relacionado estrechamente con la modelación loglineal (McCutcheon y Mills, 1998). A la vista de las
críticas previas al pensamiento tipológico en la sociología, hay que añadir aquí que, cuando las
tipologías se construyen sobre la base de un análisis de clases latentes —o de las técnicas de
emparejamiento óptimo, como se verá más adelante en este capítulo— pueden considerarse, en
contraste con los tipos «ideales» o a priori, simplemente como hallazgos empíricos: es decir, en sí
mismos como una forma de regularidad poblacional revelada. Porque un rasgo importante de estas
técnicas en cuestión es que, cuando se usan apropiadamente, pueden conducir a una conclusión
negativa: pueden indicar que no hay ninguna regularidad en forma de una tipología manejable.
66 Por supuesto, esto no equivale a decir que no existieron esas anteojeras —sino que, si de hecho
existieron, apenas fueron relevantes para explicar la brecha de género existente en el comportamiento
de voto.
67 Dada la obra pionera de Duncan sobre el análisis de «caminos causales» en la sociología y sus
trabajos posteriores sobre los modelos de ecuaciones estructurales (Duncan, 1975), podría parecer
extraño considerar que su posición se opone a la de Blalock. Sin embargo, como Xie (2007)
documenta, Duncan siempre subrayó las limitaciones de esas técnicas, especialmente al respecto de
la demostración de la causación. Xie también señala que Duncan le informó de las dificultades que
tuvo en su correspondencia con Blalock para que entendiera sus ideas sobre la sociología como una
ciencia de la población (Xie, 2007: 146). La correspondencia de Duncan —en este caso con David
Freedman— es interesante además como una fuente muy patente de la distinción entre las
concepciones de la regresión gaussiana y galtoniana (Xie, 2007: 145, 147). La cambiante influencia
del trabajo metodológico de Lazarsfeld, Duncan y Goodman en la sociología estadounidense se capta
jocosamente en el «documento anónimo» reimpreso en Goodman (2007b: 137), que debería ser una
lectura introductoria para todos los estudiantes de sociología que asisten a cursos de análisis de datos.
68 Por «razonable» debe entenderse aquí un modelo que no incluya una variable independiente tan
«próxima» a la variable dependiente que el análisis deje de contener información. Por ejemplo, en un
modelo de regresión con la posición de clase social de los individuos en un periodo de tiempo t como
variable dependiente, podría desde luego lograrse un R 2 alto incluyendo como variable
independiente la posición de clase en t -1 semana.
8. Los límites de la estadística: la
explicación causal
69 A este respecto puede producir mucha confusión o equívocos el hecho de que el lenguaje de la
regresión esté lleno de términos con implicaciones aparentemente causales: «efectos»,
«determinantes», «dependencia», etc. A estas alturas sería complicado introducir una terminología
alternativa, pero serviría de mucho que más sociólogos se sumaran a seguir la práctica de aclarar los
casos en los que usan ese lenguaje aparentemente causal simplemente como una façon de parler. El
término «efectos estadísticos» se usa a veces para indicar que no son «efectos causales».
70 Algunos economistas parecen creer que, por lo que concierne a los rendimientos económicos de
la educación, la teoría del capital humano es suficiente. Sin embargo, en qué medida el logro
educativo está relacionado con el concepto de capital humano y qué variables de control —como, por
ejemplo, la capacidad cognitiva o distintos atributos no cognitivos— es apropiado introducir no está
nada claro. De acuerdo con la evaluación de la teoría del capital humano de Blaug (1992: 218), esta
permite «el recurso persistente a supuestos auxiliares ad hoc para dar cuenta de cualquier resultado
perverso».
71 La crítica que hizo Freedman (1992) al análisis de caminos causales implementado por Hope
(1984) quizá marca un punto de inflexión, aunque, como por lo general se ha reconocido (véase
Duncan, 1992), es simplemente una reformulación de una crítica anterior a esa metodología hecha
por Blau y Duncan (1967) que había circulado ampliamente como documento de trabajo.
75 Mahoney y Goertz (2006: 230-231) afirman que la orientación de «las causas de los efectos» es
un rasgo distintivo de la sociología cualitativa, mientras la de «los efectos de las causas» prevalece en
la sociología cuantitativa. Esta es, sin embargo, una suposición bastante infundada, y una vez más
ilustra la concepción de la sociología cuantitativa (y la ciencia política) —como excesivamente
limitada y autosuficiente— que los defensores de los métodos lógicos de análisis adoptan de forma
característica (véase el comentario de Achen sobre Ragin en el capítulo 4, nota 8). Se puede añadir
aquí que el intento de establecer las causas de los efectos a partir de las condiciones INUS (Mackie,
1974) que defienden Mahoney y Goertz se tropieza exactamente con los mismos problemas para
moverse de la asociación a la causación que se dan en el caso de la regresión. Como Cartwright
(2007: 34-35) señala, «las condiciones INUS no son causas. La fórmula INUS representa una
asociación de rasgos, una correlación, y sabemos que las correlaciones bien pueden ser espurias».
Para los que no estén familiarizados con la obra de Mackie, una condición INUS es una parte
insuficiente pero necesaria de una condición innecesaria [unnecesary, en inglés] pero suficiente para
que se dé un resultado. Sin duda, si el mundo social, o al menos nuestro conocimiento de él, ha de
considerarse probabilístico, no existen las causas suficientes y necesarias.
76 Se han expresado argumentos en la misma línea del de Deaton en el campo médico que
cuestionan si los ensayos clínicos —que suelen considerarse como ejemplos principales del enfoque
de los resultados potenciales— deben considerarse el patrón oro para la medicina basada en la
evidencia (véanse, por ejemplo, Worrall, 2007; Steel, 2008; Thompson, 2011). Sin embargo, los
ensayos clínicos tienden a estar más informados por la teoría que los EAC realizados en el campo
social y, como David Cox me ha comunicado, podrían considerarse en general como intentos de
probar ideas sobre los mecanismos (véase el capítulo 9) que ya disfrutan de apoyo empírico
procedente, por ejemplo, del laboratorio. Más apropiado sería extender el argumento de Deaton a las
predicciones basadas en grandes datos mediante análisis correlacionales completamente inductivos,
donde la preocupación es única y bastante explícitamente el qué y no el por qué (Mayer-Schönberger
y Cukier, 2013: 4). Por supuesto, estas predicciones dependen muchísimo de que el futuro sea como
el presente en los procesos causales subyacentes.
9. La explicación causal mediante
mecanismos sociales
77 Por ejemplo, quienes mantienen desde dentro de la sociología que esta no puede convertirse en
ciencia suelen atribuir mucha importancia a su fracaso para producir leyes generales. Esto implica
una comprensión limitada tanto de los desarrollos en la filosofía de la ciencia como de la práctica real
en las ciencias —o, en todo caso, una preocupación indebida por la física clásica. Sobre el modo en
que las ciencias biológicas ofrecen patrones mucho más instructivos para la sociología que atañen a
modelos de explicación y otras generalidades, véase Lieberson y Lynn (2002).
78 En el caso de los efectos primarios es evidente que los mecanismos causales que operan no son
sólo los de interés sociológico que se pueden expresar en términos de, por ejemplo, las acciones de
los padres relacionadas con las oportunidades de éxito educativo de sus hijos, en tanto están
condicionadas por las diferentes formas y niveles de recursos de los que disponen, sino también los
mecanismos que caen en el dominio de la epigenética, la neurociencia y la psicología del desarrollo.
79 En Goldthorpe (2007: vol. 2, cap. 4), analizo los resultados de seis comprobaciones distintas, y
podría haber incluido más: Holm y Jaeger (2008) refieren otras cuatro comprobaciones antes de
proceder a la suya (véase más adelante en el texto), y puedo constatar que hay otras más recientes
aún. Previamente, yo concluí que, aunque han surgido algunos problemas con la teoría de la ARR y
se ha indicado la necesidad de refinarla y elaborarla más, sigue estando esencialmente «viva». Y esta
es la posición que yo defiendo. Breen y Yaish (2006) y Breen, van de Werfhorst y Jaeger (2014) han
realizado intentos interesantes de ampliar la teoría. Yo mismo (Goldthorpe, 2007: vol. 2, cap. 7)
intenté ampliarla a la movilidad intergeneracional de clase y espero continuar este trabajo en el
contexto de la investigación empírica sobre movilidad social a la que me dedico actualmente.
80 La teoría podría considerarse como un caso especial de la más general «teoría de las
perspectivas» propuesta por Kahneman y Tversky (1979), según la cual la pendiente de las curvas de
utilidad de los individuos es mayor en el dominio de las pérdidas que en el dominio de las ganancias.
Sin embargo, no deseo seguir a Kahneman (2011: 286) en su suposición de que «la teoría de la
perspectiva»—o, por ende, la teoría de la ARR— incorpora un «fallo de racionalidad» simplemente
porque viola la lógica de la elección inherente a la teoría de la utilidad esperada (véase la nota 7 del
cap. 3).
81 Se puede entender esta estrategia en tanto en cuanto implica el célebre método «hipotético-
deductivo» de Popper (1959). Pero, al mismo tiempo, depende de otras regularidades que se derivan
de la teoría que se está examinando —lo que, a su vez, da fuerza a lo que ha venido a conocerse
como «máxima de Fisher». Cochran (1965) señala que cuando le preguntaron a R. A. Fisher cuál era
la mejor manera de hacer estudios observacionales para producir conclusiones causales, éste
respondió: «Que tus teorías funcionen», es decir, que tus teorías sean potencialmente susceptibles de
comprobación en el mayor número de casos diferentes posibles.
83 Hay otra estrategia posible conocida como modelo computacional basado en agentes (CBA). En
este caso (véase Epstein, 2006: cap. 1), la idea básica es preguntarse cómo una regularidad
poblacional dada se genera por medio de las acciones e interacciones de agentes autónomos y
heterogéneos, y luego intentar construir un modelo que sea capaz, mediante una simulación
computacional, de «desarrollar» la regularidad en cuestión. Esta estrategia puede proporcionar una
comprobación fuerte de la adecuación causal —lo que los modeladores de CBA llaman «suficiencia
generativa»— de un mecanismo propuesto, y actualmente están surgiendo aplicaciones interesantes y
teoréticamente sugerentes tanto en sociología como en demografía (véase, por ejemplo, Todd, Billari
y Simao, 2005, para un modelo capaz de reproducir las regularidades observadas en la edad al primer
matrimonio, basándose en una heurística «rápida y frugal»). Sin embargo, por repetir lo que se ha
señalado en el texto, mostrar la suficiencia generativa de un mecanismo no equivale a mostrar que es
de hecho ese mecanismo el que está operando en un caso dado.
84 Quiero expresar mi agradecimiento a Jan Vandenbroucke por llamar mi atención sobre la obra de
Haack y también (junto a David Cox) sobre un artículo clásico en epidemiología que constituye una
ilustración excelente de la aplicación del modelo de crucigrama: el metaanálisis de la evidencia del
tabaco como causa del cáncer de pulmón realizado por Cornfield et al. (1959).
85 Watts ha argüido que de las explicaciones de los fenómenos sociales basadas en lo que para él es
una «acción racionalizable» «no se espera en general que satisfagan los estándares de la explicación
causal», aunque sean atractivas en la medida en que proporcionan «comprensión» (Watts, 2014: 314-
315). Sin embargo, los estándares que Watts supone son los del enfoque de los resultados potenciales,
que, como se dijo en el capítulo anterior, se pueden cuestionar al menos en relación con su
aplicabilidad en sociología; además, a medida que avanza su artículo, parece abogar por comprobar
los modelos explicativos que invocan la «acción racionalizable» fuera de la muestra —es decir, con
datos y análisis diferentes de los que condujeron a su formulación inicial— lo que, sin lugar a dudas,
está perfectamente en línea con el argumento de este capítulo. Obviamente se pueden formular otras
preguntas sobre los fines hacia los que la acción racional se orienta. Sin embargo, como se vio en el
capítulo 2, sigue siendo una cuestión muy dudosa en qué medida la elección de los fines de los
individuos está abierta a cualquier tipo de explicación sistemática.
Conclusión
86 Podría pensarse, sin embargo, que la situación en Europa tiene más potencial de desarrollo que la
de Estados Unidos en la medida en que las diferencias en las concepciones de la sociología y su
práctica contemporánea están estructurándose cada vez más entre departamentos universitarios,
centros de investigación, asociaciones profesionales e incluso países. Así, parece que hay
posibilidades de al menos cierta reorganización de facto que facilite el camino a los que quieran
practicar la sociología como una ciencia social. En cambio, en Estados Unidos el pluralismo —o,
podríamos decir, la fragmentación— parece estar más profundamente incrustado dentro de las
universidades y las asociaciones. Concretamente, la American Sociological Association parece, vista
desde fuera, un sepulcro blanqueado con toda la parafernalia de una asociación profesional al
servicio de una disciplina académica mientras manifiesta una seria falta de consenso interno sobre
cuál es la naturaleza esencial de la disciplina. A modo de ilustración, véase el debate sobre la
«sociología pública» tal y como se desarrolla en, por ejemplo, Clawson et al. (2007), que retomo más
tarde en el texto.
87 En otra publicación (Goldthorpe, 2007, vol. 1) también intento exponer las diferencias
metodológicas básicas entre la historia y la sociología respecto de los tipos de datos en los que se
basan y menciono algunas implicaciones de estas diferencias.
88 Esta relación estrecha se manifestó especialmente en Gran Bretaña. En algunos de los seminarios
y conferencias más impresionantes a las que asistí siendo un joven sociólogo, epidemiólogos de la
talla de Jerry Morris y Abe Adelstein aparecían junto a sociólogos médicos como Raymond Illsley y
otros estudiosos de su centro Medical Research Council en Aberdeen y a especialistas en políticas
sociales, como Richard Titmuss y Brian Abel-Smith.
89 A este respecto, los dos centros más importantes son el Institute for New Economic Thinking de
Nueva York y el Institute for New Economic Thinking de la Martin School en la Universidad de
Oxford.
90 En un cierto momento Burawoy afirma que «la sociología pública carece de valencia normativa
intrínseca» (Burawoy, 2005: 8). Pero también señala que como la sociología debe su existencia a la
«sociedad civil», los sociólogos tienen la obligación de comprometerse con los valores de la sociedad
civil (Burawoy, 2004). El problema es que estos valores se describen de forma tal que o bien son tan
generales que eluden todas las preguntas cruciales o bien algunos sociólogos estarían razonablemente
dispuestos a discutirlos. Nótense las pertinentes observaciones de Nielsen (2004) sobre el «nosotros
ausente» de la sociología pública de Burawoy.
91 De forma bastante remarcable, Burawoy (2005: 23) parece aceptar que la sociología no puede
competir con la economía en «el mundo de las políticas» —en parte debido a la mayor coherencia
intelectual de la economía— y que de hecho no debe intentarlo. En mi opinión, esta idea es muy
desacertada y tristemente derrotista. La sociología debe siempre estar dispuesta a competir con la
economía e intentar ejercer influencia en las cuestiones políticas y, en caso necesario, con actitud
combativa.
92 La crítica de Weber se dirigió igualmente a profesores que eran fervientes nacionalistas alemanes,
como Treitschke y sus seguidores, y a Schmoller y otros Kathedersozialisten —aunque Weber
siempre fue nacionalista y nunca socialista, sentía simpatía por algunas posiciones y políticas de la
social-democracia. Hay que añadir que, debido a sus propias experiencias, era muy consciente de las
dificultades y conflictos internos que tienden a derivarse de la posición de principio que defendía
cuando la misma persona quiere ser ambas cosas, científico y actor político (véase, por ejemplo,
Mommsen, 1984: caps. 7 y 8 especialmente).
Referencias
Está prohibida la reproducción total o parcial de este libro electrónico, su transmisión, su descarga, su
descompilación, su tratamiento informático, su almacenamiento o introducción en cualquier sistema
de repositorio y recuperación, en cualquier forma o por cualquier medio, ya sea electrónico,
mecánico, conocido o por inventar, sin el permiso expreso escrito de los titulares del Copyright.
Conversión a formato digital: REGA
www.alianzaeditorial.es