Está en la página 1de 171

John H.

Goldthorpe

La sociología como ciencia de la


población
Traducción de M.ª Teresa Casado Rodríguez
Índice

Reconocimientos
Introducción
1. La sociología como una ciencia de la población: la idea central
2. La variabilidad individual en la vida social del hombre
3. El paradigma individualista
4. Las regularidades de la población como explananda básicos
5. La estadística, los conceptos y los objetos de estudio sociológico
6. Estadística y métodos de recogida de datos
7. Estadística y métodos de análisis de datos
8. Los límites de la estadística: la explicación causal
9. La explicación causal mediante mecanismos sociales
Conclusión
Referencias
Créditos
Para Raffi, que llegó tarde al anterior
Reconocimientos

Este libro empezó su andadura siendo un borrador para un artículo de


revista que, como Topsy, «simplemente creció». Al final alcanzó una
extensión mucho mayor de lo que sería aceptable para cualquier revista, por
lo que tuve que decidir si recortarlo o ampliarlo con la idea de convertirlo
en un libro. Otra opción que en los momentos malos parecía atractiva era
simplemente meter en un cajón todo lo que había escrito y olvidarme de
ello. El hecho de que esta obra vea finalmente la luz se debe en buena parte
al apoyo que recibí de mis colegas, de los que tres merecen una mención
especial.
En un momento crítico Francesco Billari leyó mi primer borrador, me
hizo algunos comentarios útiles y se pronunció con vehemencia a favor de
que lo convirtiera en un libro. Aunque sin saberlo, él también me dio
todavía más aliento porque creó un contexto donde mi esfuerzo parecía
merecer la pena: con su revitalización de la sociología en Oxford desde que
llegó en 2012.
Durante mucho más tiempo me he beneficiado enormemente de los
conocimientos y el sabio asesoramiento de David Cox. Él también leyó mi
primer borrador, además de la primera versión del presente texto, y me hizo
sugerencias muy valiosas, en especial, aunque no únicamente, respecto de
las cuestiones estadísticas. Los conocimientos sobre esta materia los he ido
aprendiendo en mis conversaciones con David, pero me apresuro a añadir
que él no es en absoluto responsable de mis posibles deficiencias, que quizá
se manifiesten en las páginas que siguen. De forma más indirecta, pero no
menos importante, David ha sido una fuente de apoyo constante desde que
fuera nombrado decano de Nuffield College en 1988 en virtud del modelo
que ha sido de actitud y vida científicas.
Durante los años de gestación de este libro he colaborado con Erzsébet
Bukodi en una serie de proyectos de investigación, y nuestras muchas
discusiones —que a menudo eran de naturaleza «vivaz»— sobre la
dirección y la estrategia de nuestra investigación y sobre la interpretación
de nuestros hallazgos han influido de muchas formas en el contenido del
libro. Más valiosos aún han sido el incansable aliento y la constante ayuda
que Erzsébet me proporcionó no dejándome que cejara en mi empeño e
infundiéndome optimismo cuando más lo necesitaba. Me resulta en verdad
difícil pensar cómo podría haber escrito este libro si ella no hubiese estado
ahí.
Estoy en deuda con otros colegas que leyeron y comentaron el contenido
de la primera versión del libro, en su totalidad o en parte. Entre ellos
figuran Michael Biggs, Ferdinand Eibl, Robert Erikson, Duncan Gallie,
Michelle Jackson y Jouni Kuha, con mis sentidas disculpas a quienquiera
que se me haya pasado por alto. Además, Tak Wing Chan, John Darwin,
Nan Dirk De Graaf, Geoff Evans, David Hand, Colin Mills, Christiaan
Monden, Reinhard Pollak, David Rose, Antonio Schizzerotto, Jan
Vandenbroucke y Yu Xie, proporcionaron consejos e información útiles.
Quiero expresar mi agradecimiento al decano y a los miembros de
Nuffield por su generosidad para con los eméritos al ofrecernos las
instalaciones y servicios del Colegio Universitario, de los que merecen
especial mención los del personal de la biblioteca y la secretaría y los del
personal de apoyo de las tecnologías de la información.
Por último, tengo que agradecer a mi mujer y a otros miembros de mi
familia su tolerancia con mi no jubilación del trabajo académico y con las
ausencias mentales, que no físicas, que este trabajo implica a menudo.
Introducción

Este libro se deriva y en algunos puntos aprovecha mi anterior obra On


Sociology [De la sociología] (2.ª edición, 2007). Tiene, sin embargo, un
carácter significativamente diferente. De la sociología era una colección de
ensayos bastante variados que se dividieron en dos partes bajo las rúbricas
«Crítica y programa» (Parte I) e «Ilustración y retrospectiva» (Parte II).
Estos ensayos se escribieron a finales del siglo pasado, un momento de
intenso debate sobre cómo debía verse la sociología como empresa
intelectual y académica y de gran incertidumbre ante el curso futuro de su
desarrollo. En los años transcurridos desde entonces me he percatado de
que la situación estaba cambiando de forma significativa. Al menos algunos
de los tipos de sociología que critiqué en su día —por ejemplo, la «gran»
sociología histórica y la etnografía «posmodernista»— parecen estar en
declive; y, lo que tiene aún más trascendencia, la versión de la sociología
que yo defendí en términos programáticos e intenté ilustrar ha florecido, al
menos en ciertos aspectos, en un grado sorprendente —aunque, desde
luego, también agradable— para mí. Naturalmente, me encantaría encontrar
aquí evidencia de la influencia de De la sociología, pero, como buen
popperiano que soy, debo asignar una importancia crucial a la «lógica de la
situación». Se reconoce cada vez más que la investigación que aborda
problemas sociológicos bien definidos y que se basa en el análisis
cuantitativo de grandes bases de datos de alta calidad —incluso si no está
respaldada por avances teóricos en la medida en que yo desearía— tiene
resultados excepcionales, tanto en sus aspectos «puros» como «aplicados»,
y es cada día más atractiva tanto para los sociólogos en ejercicio como para
las entidades de financiación 1 .
Por consiguiente es de suponer que las intervenciones críticas o
programáticas son menos necesarias hoy que antes. Sin embargo, a mí me
gustaría hacer hincapié en el siguiente punto respecto del presente trabajo.
Al tratar de defender que la sociología se entienda como una ciencia de la
población, mi preocupación fundamental no es sugerir a los sociólogos
cómo deben concebir y practicar su trabajo. Se trata más bien de sugerir una
razón de ser más completa y explícita de la que hasta ahora ha estado
disponible para lo que una cantidad considerable y creciente de sociólogos
está haciendo ya —aunque quizá sin reflexionar demasiado sobre el asunto.
Si se me preguntara cuál es el propósito de elaborar esta razón de ser, mi
respuesta sería doble. Primero, creo que una mayor conciencia de estos
sociólogos sobre lo que están haciendo les capacitará para proceder con más
sistematicidad y eficacia en su trabajo cotidiano. Y segunda, creo que,
además de contribuir a potenciar esa conciencia, comprender la sociología
como una ciencia de la población proporcionará la mejor base para que esos
sociólogos articulen y persigan una meta que, según creo, comparten
mayoritariamente: la meta de hacer de la sociología una ciencia en el
sentido de que permita un grado significativo de continuidad con las
ciencias naturales, preservando, al mismo tiempo, su singularidad.
Es muy posible que algunos de los sociólogos que tengo en mente no
estén dispuestos a aceptar mi interpretación de que la sociología que
practican constituye o se mueve en la dirección de una ciencia de la
población, ni tampoco mi idea de que esa es la orientación más prometedora
para una sociología científica. Considero las reacciones a mi libro en esa
línea muy bienvenidas —siempre que vengan en compañía de
interpretaciones alternativas de cómo la sociología está desarrollándose
como ciencia y de alguna indicación de cómo promover ese desarrollo. La
discusión que es probable que surja en torno a estas cuestiones podría ser de
gran valor en el momento actual.
Desde luego, debo admitir que hay también muchos otros sociólogos que
disienten de mí de una forma más fundamental: es decir, que dudan de que
la sociología pueda reivindicar un estatus científico y que incluso creen que
ni siquiera es deseable que lo intente. Para mí estos sociólogos
minusvaloran la sociología —porque impiden que desarrolle todo su
potencial— y no puedo tener casi nada en común con ellos. Además,
apenas veo la necesidad de seguir implicándome en los ya prolongados
debates sobre esta cuestión. El futuro dirá.
Para escribir este libro me he propuesto claridad y brevedad. En aras de
la claridad, el libro se estructura en torno a nueve propuestas. Cada capítulo
empieza con una propuesta y se ocupa de desarrollar y apoyar esa
propuesta. Los lectores que quieran hacerse una idea inicial del argumento
del libro pueden sencillamente leer las propuestas. Para promover la
defensa de la sociología como una ciencia de la población he creído
necesario cubrir un terreno muy extenso y referir la literatura de una serie
de campos muy diferentes de la sociología. No obstante, en aras de la
brevedad por lo general sólo he indicado lo imprescindible y relevante para
las posiciones que defiendo. Dejo a los lectores que consulten la
bibliografía reseñada para que, si lo desean, comprueben que el uso que
hago de esas fuentes es el apropiado. Nótese que, para ser un libro corto, la
lista de referencias bibliográficas es bastante larga.
En cierto sentido le he dado más importancia a la claridad que a la
brevedad. Cuando los argumentos que presento son de carácter general y
abstracto, he intentado clarificar las ideas principales que pretenden
expresar proporcionando ilustraciones particulares y concretas. En el caso
de los argumentos específicamente sociológicos, puede tal vez pensarse que
estas ilustraciones se han tomado demasiado a menudo de mi propio campo
de interés investigador, en particular de la estratificación y la movilidad
sociales. Pero, en la medida en la que mi conocimiento me lo ha permitido,
he entrado también en otros campos.
El libro se dirige principalmente a sociólogos profesionales y a
estudiantes avanzados. Así, he dado por supuesta una formación básica
fundamental, incluyendo algunos conocimientos técnicos elementales de los
métodos de recogida y análisis de datos. Sin embargo, he intentado que el
texto sea lo menos técnico posible: no contiene ni fórmulas ni ecuaciones.
Y al mismo tiempo he creído más ventajoso por razones expositivas adoptar
un enfoque histórico, en especial en los capítulos relativos a la recogida y el
análisis de datos. Robert Merton se lamentaba (1957: 4) de que en las
discusiones de teoría sociológica se prestaba demasiada atención a la
historia a expensas de lo que él llamaba «sistemática». Pero en lo que se
refiere al análisis de los métodos de investigación en sociología, se podría
decir lo contrario. Es decir, se presta demasiada poca atención a por qué los
métodos en uso son como son. ¿Por qué se utilizan esos métodos y no
otros? ¿Qué métodos los han precedido? ¿Cuáles eran los problemas para
los que proporcionaban las mejores soluciones y cómo? Responder a estas
preguntas a menudo me resulta muy esclarecedor.
Para dar por concluida esta introducción, hay dos ulteriores
observaciones de índole más personal que me gustaría hacer. La primera se
refiere al comentario que hice al principio de que en los últimos años he
llegado a percatarme de un cambio significativo en los estilos de
investigación en la sociología que están destacando —un cambio que
encuentro muy apreciable y que me ha llevado a pensar que escribir un libro
como este podía tener sentido. Me gustaría añadir aquí que el principal
contexto en el que este cambio ha tenido lugar ha sido la comunidad de
investigación sociológica europea: en particular, las conferencias y los
seminarios organizados por el European Consortium for Sociological
Research y bajo los auspicios de dos «redes de excelencia» en sociología
financiadas por la UE: CHANGEQUAL y su sucesor EQUALSOC 2 .
Pensando sobre todo en los lectores de los Estados Unidos, debo añadir
aquí que en la sociología estadounidense ha existido una cierta tendencia a
considerar que las contribuciones europeas más distintivas se elaboraban
mediante unos niveles de teoría bastante enrarecidos o en la intersección de
cuestiones filosóficas y metodológicas (con una concomitante exageración
de la importancia de algunos autores, principalmente franceses y alemanes).
Esta perspectiva siempre fue cuestionable, pero ahora está claro que ha
quedado obsoleta. En los últimos veinte años más o menos, la investigación
sociológica de índole primordialmente cuantitativa se ha expandido en casi
todos los grandes países europeos —una investigación con un nivel técnico
bastante comparable al de la investigación estadounidense y a menudo un
interés teórico al menos potencialmente superior debido a su perspectiva
comparada entre naciones o regiones 3 . A menudo acudo a este cuerpo de
investigación para mis propósitos ilustrativos. Además, habría que resaltar
que han sido los sociólogos europeos los más prominentes en el desarrollo
del enfoque «basado en los mecanismos» de la explicación causal, un
enfoque que, como veremos detenidamente en el capítulo 9, es para mí el
más apropiado para la sociología entendida como una ciencia de la
población.
La segunda observación, más personal, es la siguiente. He escrito este
libro hacia el final de una larga vida dedicada a la academia (una
circunstancia que por sí misma favorece la concisión), y es obvio que mis
ideas han estado en varios sentidos influidas por mis propias experiencias a
lo largo de esos años. He explicitado esto muy claramente en algunos casos,
y en especial cuando tengo que reconocer la influencia de un maestro o un
colega. Me gustaría pensar que de este modo el libro se beneficia también
de una perspectiva histórica —una perspectiva que es, yo sugeriría, muy
necesaria para compensar la manifiesta falta de memoria colectiva de la
sociología que conduce a un desgraciado olvido de los auténticos orígenes
de los problemas actuales y, a su vez, al redescubrimiento de la rueda. Pero
me doy cuenta de que también podría interpretarse que me remonto
indebidamente a cuestiones que llevan mucho tiempo olvidadas y por
buenas razones 4 . En todo caso, los ejemplos de lo que podría considerarse
mi anecdotario están principalmente en las notas.

1 Por desgracia, la principal excepción a esta tendencia general es mi propio país, Gran Bretaña,
donde especialmente en los departamentos universitarios —a diferencia de los centros de
investigación, que suelen ser interdisciplinares— persiste una fuerte hostilidad hacia la sociología
cuantitativa. Curiosamente, la versión original de mi libro anterior y sus versiones italiana, polaca y
española han sido reseñadas en muchas partes, pero no en Sociology, la revista oficial de la British
Sociological Association, ni en Sociological Review. Pero quizá incluso en Gran Bretaña «los
tiempos están cambiando». El objetivo del programa Q-Step, lanzado en 2013 con un presupuesto de
19,5 millones de libras esterlinas, es aumentar y revitalizar considerablemente la formación
cuantitativa de los estudiantes de grado en ciencias sociales. Espero que logre sus fines en el campo
de la sociología, a pesar de los esfuerzos que al parecer intentan subvertirlo. Últimamente se han
hecho algunas declaraciones notablemente mal informadas que mantienen que los métodos
cuantitativos calificados de «convencionales» están en general pasados de moda, son irrelevantes y
deben sustituirse por otros (por ej., Byrne, 2012; Castellani, 2014). Algunos de los métodos
alternativos que se proponen son objeto de análisis crítico en los siguientes capítulos.

2 Las entidades colaboradoras en la red CHANGEQUAL eran el Economic and Social Research
Institute, Dublín; el Centre National de la Recherche Scientifique EHSS LASMAS, París; el Swedish
Institute for Social Research, Universidad de Estocolmo; el Zentrum für Europäische
Sozialforschung, Universidad de Mannheim, y mi propia institución, Nuffield College, Oxford. En la
red EQUALSOC, la institución CNRS se convirtió en GENES/GRECSTA y se sumaron ocho
instituciones más: el Institute for Advanced Labour Studies, Universidad de Ámsterdam; el Centre
for Social Policy, Amberes; la Universita Degli Studi di Milano Bicocca; el Departamento de
Ciencias Políticas y Sociales, Universidad Pompeu Fabra, Barcelona; el Departamento de Sociología
y Política Social, Universidad de Tartu; el Departamento de Ciencias Sociales, Universidad de Turín;
el Departamento de Sociología e Investigación Social, Universidad de Trento; y la
Wissenschaftzentrum für Sozialforschung, Berlín.

3 Una vez más, hay que advertir la excepción británica. En las conferencias y seminarios referidos en
el texto, ha quedado tristemente de manifiesto la virtual ausencia de investigadores británicos
jóvenes.

4 El revisor de un artículo que un colega tan añoso como yo y yo mismo enviamos hace poco tiempo
a una revista puntera de sociología objetaba el hecho de que los artículos que se citaban se habían
publicado antes de que él o ella naciese. Claramente, nada importante podía haber sucedido antes de
esa fecha.
1. La sociología como una ciencia
de la población: la idea central

La sociología debe comprenderse como una ciencia de la población en el


sentido de Neyman (1975).

Con ocasión del quingentésimo aniversario del nacimiento de Nicolás


Copérnico (1473-1543), la Academia Nacional de Ciencias de Estados
Unidos patrocinó una colección de ensayos sobre las revoluciones
científicas «cuasicopernicanas». El volumen lo editó el estadístico de origen
polaco Jerzy Neyman, quien escribió breves introducciones a sus diferentes
partes. En una de estas introducciones a una serie de ensayos sobre «The
Study of Chance Mechanisms – A Quasi-Copernican Revolution in Science
and Mathematics» [El estudio de los mecanismos de azar: una revolución
cuasicopernicana en la ciencia y las matemáticas], Neyman (1975: 417)
hizo la siguiente observación:
Desde el siglo XIX y cada vez más a lo largo del XX, la ciencia ha producido objetos de
estudio «pluralistas», categorías de entidades que satisfacen determinadas definiciones pero
que varían en sus propiedades individuales. Técnicamente, tales categorías se llaman
«poblaciones».

Neyman subrayó que, en este sentido técnico, las poblaciones podían ser,
en lo sustantivo, de tipos bastante diferentes. Podían ser humanas u otras
poblaciones animales, pero también, por ejemplo, poblaciones de moléculas
o de galaxias. El rasgo común de estas poblaciones era que, aunque sus
elementos individuales estaban sujetos a una variabilidad considerable y
podían parecer, al menos en algunos aspectos, indeterminados en sus
estados y comportamientos, podían no obstante exhibir regularidades de
tipo probabilístico en el nivel agregado 5 .
La meta de una ciencia que trata de esos objetos plurales de estudio —o
de lo que podría llamarse una «ciencia de la población»— era por tanto
doble. La meta inicial era investigar y establecer las regularidades
probabilísticas que caracterizan a una población o a sus subpoblaciones
adecuadamente definidas. A este respecto, Neyman consideraba esencial el
uso de métodos estadísticos de recogida y análisis de datos. De hecho,
cincuenta años antes, R. A. Fisher (1925: 2) había definido ya la estadística
como «el estudio de poblaciones o de agregados de individuos», y había
presentado la estadística como una disciplina fundacional para todas las
ciencias que se ocupaban primordialmente de las propiedades de los
agregados más que de las de sus miembros individuales. Se puede asimismo
advertir, a la vista de lo que sigue, que Fisher añadió entonces la
observación de que «los métodos estadísticos son esenciales para los
estudios sociales, y es principalmente con la ayuda de esos métodos como
esos estudios pueden elevarse al rango de ciencia» 6 .
Sin embargo, Neyman aclaró también que una vez establecidas
empíricamente las regularidades de una población, la siguiente meta de una
ciencia de la población debía ser determinar los procesos o «mecanismos»
que operaban en el nivel individual para producir esas regularidades. Y
como las regularidades —los explananda de una ciencia de la población—
eran probabilísticas, los mecanismos en los que había que pensar serían
aquellos que, en lugar de regirse completamente por leyes deterministas,
incorporaban el azar. Todo esto implicaba una nueva forma de explicación
científica.
La afirmación de Neyman de que desde el siglo XIX y a lo largo del XX el
estudio creciente de entidades «plurales» basado en la estadística marcó una
revolución científica ha sido justificada plenamente por el trabajo posterior
de la historia de la ciencia. Lo que de hecho vino a llamarse la «revolución
probabilística» (Krüger, Daston y Heidelberger, 1987; Krüger, Gigerenzer y
Morgan, 1987) se reconoce hoy día ampliamente como uno de los
desarrollos intelectuales más trascendentales, si no el más trascendental, de
ese periodo en cuestión. «En 1800», por citar a Hacking (1987: 52),
«estamos en el mundo determinista que Laplace nos describe tan
acertadamente. En 1936 estamos firmemente anclados en un mundo que es
en última instancia indeterminado... El azar que, para Hume, no era ‘nada
real’ era, para von Neumann, tal vez la única realidad» 7 . Sin embargo,
como Hacking continúa subrayando (véase también Hacking, 1990), es
importante apreciar que «la erosión del determinismo» se complementó con
«la domesticación del azar», es decir, el proceso de hacer inteligibles y
manejables el azar y sus consecuencias sobre la doble base del ensamblaje
de datos numéricos y la aplicación de la teoría de la probabilidad.
De hecho, en las primeras fases de la revolución probabilística, las
ciencias sociales desempeñaron un papel importante. En particular, la
aplicación de Quetelet (1835/1842, 1846, 1869) de la «curva de error»
gaussiana —o distribución normal— para visualizar las regularidades en las
«estadísticas morales» del matrimonio, los nacimientos fuera del
matrimonio, el suicidio y la delincuencia representó un intento pionero de
mostrar cómo podría emerger un orden probabilístico de nivel superior a
partir de acciones individuales que por lo general se consideraban de índole
no determinista, es decir, un intento de expresar la voluntad y la elección
individuales (Porter, 1986: caps. 2 y 6 especialmente). Y lo notable de ese
desarrollo fue que la influencia de la obra de Quetelet se extendió desde las
ciencias sociales hasta las ciencias naturales —algo en cierto modo
paradójico, dada la gran ambición de Quetelet de crear una «física social».
Como Krüger (1987: 80) ha observado, en ese momento «la conocida
jerarquía de las disciplinas» se invirtió.
Más notable aún es que el uso que Quetelet hizo de la curva de error
proporcionó a James Clerk Maxwell un modelo para su desarrollo de la
teoría cinética de los gases (Gillispie, 1963; Porter, 1982). En un gas, los
procesos de nivel inferior de colisión de moléculas estaban, en principio,
sujetos a las leyes newtonianas deterministas; pero las grandes cantidades
de moléculas afectadas implicaban que, en la práctica, se necesitaba un
tratamiento probabilístico —«una física estadística». En los trabajos que
realizó a finales de la década de 1860, Maxwell utilizó una versión de la
curva de error para representar la distribución de las velocidades
moleculares en un gas ideal, de forma tal que, mientras no se podía decir
nada sobre las moléculas individuales, sí era posible calcular la proporción
de moléculas con velocidades dentro de unos determinados límites y a
cualquier temperatura dada. Maxwell fue generoso en su reconocimiento de
las ideas que tomó prestadas de Quetelet y sus seguidores. Dirigiéndose a la
British Association for the Advancement of Sciences (Asociación británica
para el avance de las ciencias), recomendó a los físicos que adoptaran un
método de análisis nuevo para ellos pero que «llevaban mucho tiempo
usando en la estadística» (citado en Gigerenzer et al., 1989: 62; véase
también Mahon, 2003: cap. 6) 8 .
Posteriormente, Fisher (1922), con la idea de integrar el mendelismo en
la teoría de la evolución de Darwin, adoptó un modelo análogo al que
Maxwell había tomado de Quetelet, con poblaciones biológicas en lugar de
poblaciones de moléculas. Bajo este modelo, la selección natural operaba
entre una multiplicidad de causas aleatorias —cualquiera de ellas podía
tener una influencia predominante en el nivel de un individuo particular—
mientras los procesos probabilísticos de la selección natural seguían siendo
los determinantes clave de la evolución de la población en su conjunto
(Morrison, 2002).
Junto a estos desarrollos, la biología evolutiva, como ha descrito Ernst
Mayr (2001; véase también 1982: cap. 2), pasó a ser el campo en el que se
produjo el desarrollo más explícito del «pensamiento poblacional». En un
mundo científico dominado por la física y la química había prevalecido lo
que Mayr denomina el «pensamiento tipológico», centrado en las
propiedades de entidades —y en las leyes deterministas aplicadas a ellas—
de un tipo supuestamente homogéneo más que «pluralista», tales como las
partículas nucleares o los elementos químicos. Pero la biología evolutiva
empezó a reconocer cada vez más la variación existente dentro de las
entidades estudiadas —es decir, la variación entre los individuos que
forman una población— y al mismo tiempo a centrar su interés en las
regularidades probabilísticas discernibles en medio de esa variación y en los
procesos o mecanismos que creaban esas regularidades 9 .
En cambio, las ciencias sociales, a pesar de su influyente papel en los
orígenes de la revolución probabilística, no consiguieron explotar las
posibilidades que esta ofrecía tanto para la investigación como para la
teoría. De la sociología al menos puede pensarse (véase Goldthorpe, 2007:
vol. 2, capítulos 8 y 9) que todavía no ha resuelto del todo su relación con
esa revolución y con las nuevas maneras de pensamiento científico que
promovió 10 . Pocos sociólogos hoy en día se creen en la obligación de
formular leyes deterministas como lo intentaron Comte, Spencer o Marx a
fin de proporcionar un entendimiento integral de la estructura, el
funcionamiento y el desarrollo de las sociedades humanas. Pero para los
que siguen manteniendo que la sociología es, al menos en potencia, una
ciencia de algún tipo, todavía existe el problema —que apenas ha sido
abordado— de decidir qué tipo de ciencia debe ser. Más concretamente, si
la búsqueda de leyes deterministas en sociología es un propósito
descabellado, entonces podemos preguntarnos: ¿cuáles son los objetivos
hacia los que debe orientarse la sociología y cómo hay que entender el
fundamento de las actividades de investigación que se realizan para
alcanzarlos? Como he mencionado en la Introducción, la propuesta de que
la sociología debe comprenderse como una ciencia de la población intenta
responder a estas preguntas y, al mismo tiempo, anclar firmemente la
sociología dentro de la revolución probabilística.
Lo que esto implica, en su sentido más amplio, es lo siguiente. La
sociología debe ocuparse de las poblaciones o subpoblaciones de Homo
sapiens (o quizá mejor —véase el capítulo 2— de las poblaciones o
subpoblaciones de Homo sapiens sapiens) ubicadas en el tiempo y el
espacio; y la meta de la investigación sociológica debe ser una comprensión
no de los estados y el comportamiento de los miembros individuales de esas
poblaciones en toda su variabilidad, sino de las regularidades que son
propiedades de esas mismas poblaciones, aunque sólo se puedan inferir a
partir del comportamiento o —más concretamente, como se argüirá más
adelante— de las acciones de sus miembros individuales.
Explicar mejor qué implica esta propuesta primordial será el objetivo de
los próximos capítulos, encabezados todos por su propia propuesta
subsidiaria. Para concluir este capítulo voy a añadir algunos comentarios
preliminares sobre las regularidades en las poblaciones humanas y su
determinación y explicación. Esto puede contribuir a proporcionar un
contexto a la línea del argumento subsiguiente y a señalar algunos
importantes problemas que van a surgir.
Las regularidades que se pueden identificar en las poblaciones humanas,
y más en concreto en la vida social humana, son diversas en su rango y
complejidad. Las regularidades en «las estadísticas morales» a las que
Quetelet prestó atención inicialmente eran regularidades relativamente
simples relacionadas con la estabilidad en el tiempo de las tasas de acciones
individuales de diferentes tipos y de sus productos en poblaciones
nacionales o regionales. Pero, al final, el propio Quetelet se vio obligado a
admitir no sólo diferencias de tasas entre unas y otras de esas poblaciones,
sino también diferencias significativas entre sus diversas subpoblaciones;
es decir, entre las diferentes agrupaciones de individuos definidos por su
edad, género, etnia, ocupación, etc. Y en relación con este último punto se
vio abocado a moverse desde los análisis esencialmente bivariados hacia lo
que puede reconocerse como los primeros intentos de análisis multivariados
de las regularidades sociales de un tipo que ha llegado a ser normal en la
investigación actual (véase especialmente Quetelet, 1835/1842: Parte 3
sobre las tasas de delincuencia).
En la sociología actual la complejidad de las regularidades en las que se
centra la atención ha aumentado sin duda de forma considerable. Por
ejemplo, el interés podría dirigirse no sólo a las regularidades expresadas en
la estabilidad de formas particulares de acción individual y sus productos en
las poblaciones o a las diferencias prevalecientes entre poblaciones o en sus
subpoblaciones, sino también a las regularidades en los cambios de estas
materias a lo largo del tiempo —donde el tiempo puede tratarse con
referencia a periodos históricos, a la sucesión de cohortes de nacimiento o
al curso de vida del individuo. O podría dirigirse a las regularidades que
hay entre las pautas de la acción individual y la ubicación de los individuos
en contextos sociales de nivel macro, meso o micro, como los que
representan, por ejemplo, los grupos primarios, las redes sociales, las
asociaciones y organizaciones o los cambiantes aspectos institucionales y
de otro tipo de la estructura social en general. Además, el interés podría
encaminarse a buscar regularidades exclusivamente en el nivel
supraindividual: por ejemplo, entre los rasgos estructurales de sociedades
«totales» —naciones o estados.
Sin embargo, hay otros dos aspectos de las regularidades de la vida
social humana que, en la medida en que están asociados a su grado de
complejidad, tienen a los presentes efectos una relevancia más directa: lo
que podría llamarse su visibilidad y su transparencia.
Consideremos el siguiente ejemplo. Hay una marcada regularidad en el
número de individuos que pasan en coche delante de mi casa los días
laborables entre las 7 y las 9 de la mañana, y una considerable y regular
disminución en la cantidad que pasa los sábados y los domingos. Estas
regularidades son evidentes en su forma general para cualquier observador
casual, y cualquier recuento estandarizado de tráfico serviría para
establecerlas con alguna precisión. Además, en este caso podríamos
construir de inmediato una explicación simple —que, como veremos más
adelante, podría sin embargo seguir considerándose paradigmática— de
cómo se producen esas regularidades. Es decir, una narrativa causal
formulada en términos de los fines del individuo —en los días laborales,
típicamente los de ir al trabajo o llevar los niños al colegio— y de los
cursos de acción por medio de los cuales pretenden lograr esos fines, dadas
las diversas constricciones y oportunidades que definen las condiciones de
su acción. En suma, las regularidades en cuestión podría considerarse que
son visibles y transparentes. Es relativamente fácil verlas y «ver a su
través», es decir, ver a través de ellas los procesos sociales mediante los que
se generan y mantienen.
Pero, en cambio, las regularidades que típicamente interesan más a la
sociología como una ciencia de la población son aquellas que no son ni
enseguida visibles, ni tampoco transparentes una vez que se hacen visibles.
De aquí se siguen implicaciones de gran alcance para la práctica de la
sociología entendida como esa ciencia. Así, cumplir el primer objetivo de
una ciencia de la población —es decir, establecer empíricamente las
regularidades de una población— por lo general exigirá, en el caso de las
sociedades humanas, un esfuerzo considerable de recogida y análisis de
datos. Lo que esto exige es el diseño y la aplicación de procedimientos de
investigación capaces de revelar regularidades en el nivel agregado que
quizá hayan sido ya percibidas sólo de una forma vaga, si es que no eran del
todo desconocidas, en las sociedades en las que se dan. Por ejemplo,
volviendo a las regularidades que preocupaban a Quetelet y sus seguidores
en las tasas de matrimonio, nacimientos fuera del matrimonio, suicidio y
delincuencia, la posibilidad de establecerlas de forma fiable no se presentó
hasta que los gobiernos nacionales empezaron a desarrollar lo que hoy
llamamos «estadísticas oficiales», incluyendo los censos de población y
diferentes sistemas de registro 11 .
Volviendo al presente, se podría decir que el principal logro científico de
la investigación sociológica basada en encuestas de población de diferentes
diseños y en el análisis de los datos producidos ha sido hasta ahora su
capacidad demostrada para revelar las regularidades de la población en las
formas más complejas antes mencionadas —regularidades que simplemente
no se podrían haber identificado sin la metodología en cuestión, reforzada
poderosamente por equipos informáticos cada vez más potentes para el
almacenaje y el análisis de los datos.
Para ilustrar este asunto pondré un ejemplo de mi propio campo de
investigación, aunque se podrían dar muchos otros. Se han realizado
muchos estudios sobre las pautas y tendencias de la movilidad social
intergeneracional que se caracterizan por una creciente sofisticación
conceptual. En particular, se ha hecho una distinción crucial entre las tasas
de movilidad absoluta y relativa, refiriéndose las primeras a la movilidad
real experimentada por los individuos y comparando las segundas las
oportunidades que tienen los individuos de diferentes orígenes sociales de
llegar a diferentes destinos de clase (véanse, por ejemplo, Grusky y Hauser,
1984; Goldthorpe, 1987; Erikson y Goldthorpe, 1992; Breen, 2004; Ishida,
2008). El extenso trabajo de recogida de datos y el desarrollo de modelos
estadísticos conceptualmente informados han revelado tanto regularidades
poblacionales como rasgos históricamente específicos de las sociedades
estudiadas de un tipo que no podría haberse observado de otra manera —
ciertamente no por los «miembros legos» de esas sociedades en el
transcurso de sus vidas cotidianas, a pesar de la estrecha conexión que de
hecho existe entre las regularidades y las especificidades en cuestión y sus
propias oportunidades y elecciones vitales 12 .
Sin embargo, regresando a mi anterior distinción, hacer visibles las
regularidades de la población no implica hacerlas transparentes; es decir, no
implica cumplir el segundo objetivo de una ciencia de la población: la de
determinar los procesos —podríamos llamarles mecanismos causales— por
los que las regularidades establecidas en el nivel agregado se producen en el
nivel individual. En el caso de la sociología esto implicará demostrar cómo
esas regularidades se derivan en última instancia de la acción y la
interacción individuales. Y debe reconocerse que, si la sociología puede
reivindicar por ahora algún éxito genuino como ciencia de la población en
lo que concierne a revelar regularidades poblacionales, sus logros hasta la
fecha en la tarea de hacer transparentes estas regularidades —es decir, de
dar cuenta de ellas de la forma indicada— han sido bastante menos
impresionantes. Las regularidades que se han descrito de una forma
bastante detallada a menudo siguen siendo más o menos opacas.
Desgraciadamente, la investigación sobre la movilidad social nos ofrece
una buena ilustración de esta opacidad 13 .
Distinguir entre las dos tareas de una ciencia de la población orientada a
hacer las regularidades poblacionales primero visibles y luego transparentes
—siendo la primera esencialmente una labor descriptiva y la segunda
explicativa— tiene una importancia clave. Esto se hará cada vez más
evidente a medida que el argumento se desarrolle en los siguientes
capítulos.

5 La primera vez que leí las observaciones de Neyman fue en una referencia a ellas que había en
Duncan (1984: 96). Como se pondrá de manifiesto más adelante, Dudley Duncan es un autor con el
que estoy en deuda en muchos otros sentidos. Se le puede considerar como uno de los grandes
pioneros en conceptualizar y practicar la sociología como una ciencia de la población. Otro autor que
ha contribuido de forma significativa, aunque menos explícita, ha sido mi antiguo maestro en la
London School of Economics, David Glass —ahora tristemente olvidado por la sociología británica
—, quien experimentó la influencia de su propio maestro, el extraordinario polímata Lancelot
Hogben (véase Hogben, 1938).

6 Neyman y Fisher fueron sin duda los adversarios principales en lo que ha venido a describirse
como «la mayor fractura en la estadística» en torno a la cuestión de la comprobación de hipótesis.
Pero, como Louça (2008: 4) ha observado, en relación con su idea de la estadística como lenguaje
para un nuevo tipo de ciencia, estaban, en realidad, «muy cerca».

7 Hacking se refiere aquí a la formulación matemática que von Neumann hizo de la teoría cuántica.
Esta perseguía excluir la posibilidad de «variables ocultas» que, si se pudieran identificar, permitirían
entender como determinísticos los fenómenos que en caso contrario aparecían como probabilísticos
—como si las partículas tuvieran una posición y velocidad definidas en todo momento. Para una
presentación accesible, véase Kumar (2008: cap. 14).
8 Ludwig Boltzmann, otro pionero de la física estadística, recibió la influencia de la obra de Quetelet
y sus seguidores e intérpretes (Porter, 1986: 125-128).

9 Estoy en deuda con Yu Xie por atraer mi atención sobre la remarcable obra de Mayr y sobre su
relevancia para los problemas actuales de la sociología, como veremos más adelante. Véase Xie
(2005).

10 Para una discusión interesante sobre la acomodación —final— de la economía a la revolución


probabilística, véanse las contribuciones en Krüger, Gigerenzer y Morgan (1987: parte III).

11 Se puede considerar que fue la falta de datos de este tipo lo que principalmente obstaculizó los
esfuerzos de los «aritméticos políticos» británicos del siglo XVII y principios del XVIII como John
Graunt, William Petty, Gregory King y Edmond Hally. En sus pioneros esfuerzos en el campo de la
demografía, concebida en sentido amplio, se vieron obligados a trabajar —a menudo con gran
capacidad e ingenio— con una miscelánea de datos limitados y con frecuencia imperfectos
procedentes de catastros, pago de impuestos, registros parroquiales de nacimientos y muertes,
boletines de defunción, etc. He aprendido mucho sobre estos primeros científicos de la población a
partir de la investigación de David Glass (1973) y después de la de Richard Stone (1997), habiendo
tenido el privilegio en la década de 1960 de formar parte del Department of Applied Economics
(Departamento de economía aplicada) de Cambridge, que fue creado principalmente por Stone.

12 Por supuesto, en el campo de la investigación sobre la movilidad social, como en otros, se da el


caso de que puede surgir cierto desacuerdo en lo relativo a cuáles son exactamente las regularidades
que se evidencian: por ejemplo, sobre si se puede observar una tendencia en el largo plazo hacia la
igualación de las tasas de movilidad relativa o si fluctúan sin una tendencia definida. Pero si bien
estos desacuerdos pueden ocupar una posición destacada en la literatura actual de la investigación, no
hay que permitir que le resten valor al importante grado de consenso que se ha establecido respecto
de otros aspectos: por ejemplo, en el caso de la investigación sobre la movilidad, sobre el hecho de
que el cambio en las tasas absolutas se debe principalmente a efectos estructurales más que al cambio
en las tasas relativas; o sobre el hecho de que cuando se producen cambios en las tasas relativas, sean
direccionales o de otro tipo, suelen ser muy lentos, en el sentido de que tienden a ser más un
resultado de los efectos de sustitución de las cohortes que de los efectos de periodo.

13 Se puede encontrar mi esfuerzo inicial por remediar esta situación, sobre el que espero avanzar en
el transcurso de la investigación a la que ahora estoy dedicado, en Goldthorpe, 2007: vol. 2, cap. 7.
2. La variabilidad individual en la
vida social del hombre

La sociología debe concebirse como una ciencia de la población debido


principalmente al evidente grado de variabilidad que se da en la vida
social del hombre en el nivel de las entidades socioculturales, pero
también, y de forma crucial, en el nivel individual. El paradigma
«holístico» de investigación, que lleva mucho tiempo prevaleciendo en la
sociología pero que se cuestiona cada vez más, no trata de forma adecuada
esta última variabilidad.

La vida social del hombre se caracteriza por una gran variabilidad en el


espacio y en el tiempo. Esto se puede comprender como la consecuencia de
las diferentes capacidades del Homo sapiens sapiens —los humanos
modernos— para la cultura y la sociabilidad. Lo que sigue se admite, creo
yo, ampliamente.
Aunque la capacidad para la cultura no es única de los seres humanos, en
el caso de estos últimos ha evolucionado hasta un grado excepcional y
principalmente por medio de su dominio del lenguaje o, en términos más
generales, de la comunicación simbólica (véanse, por ejemplo, Barrett,
Dunbar y Lycett, 2002: caps. 2, 3; Jablonska y Lamb, 2005: cap. 6). En un
alcance muy distintivo, los humanos son capaces de adquirir, almacenar y
transmitir lo que en un sentido amplio entendemos por información. Es
decir, información sobre el mundo material y social donde viven, en la
forma de conocimiento y su conversión en habilidades y tecnologías; y
también información sobre sus propias respuestas a este mundo, en la forma
de creencias y valores expresados en mitos, religiones, rituales, costumbres
y convenciones, códigos morales y legales, filosofías e ideologías, formas
de arte, etc. Pero mientras la capacidad para la cultura es genérica, las
culturas son, en sí mismas, específicas. Y a lo largo y ancho de muchas
poblaciones humanas separadas en el espacio y el tiempo, el contenido real
de las culturas y de las subculturas que las componen se ha demostrado que
es extraordinariamente diverso. Los humanos son mucho más variables que
los miembros de otras especies de animales: no tanto debido a la gran
variación en sus genes o en las condiciones ecológicas en las que viven,
sino más bien debido al conocimiento, las creencias y los valores que
adquieren por medio de procesos de aprendizaje de otros de su especie
(Richerson y Boyd, 2005: 55-57; Plotkin, 2007).
De forma similar, la capacidad humana para la sociabilidad, aunque no
es exclusiva de los humanos, es excepcional en términos de grado, en
particular porque se extiende a quienes no son parientes. Parece que lo que
subyace a esta capacidad es una «teoría de la mente» altamente
evolucionada en los humanos (Baron-Cohen, 1991, 1995; Barrett, Dunbar y
Lycett, 2002: cap. 11; Dunbar, 2004: cap. 3, 2014: cap. 2), que les permite
no sólo ser conscientes de sus propios estados mentales, sino, además,
formarse ideas de los estados mentales de los demás, y en grados diferentes
(«Creo que él siente que ella quiere...» etc.) 14 . Una teoría de la mente de
este tipo ofrece la posibilidad de la intersubjetividad y, por lo tanto, de una
acción social diferenciada del comportamiento, o al menos de una forma
especial de comportamiento. Permite a los individuos empatizar con otros y
así anticipar, tener en cuenta e influir en lo que otros pueden hacer; y, a su
vez, aumenta enormemente la gama cualitativa de las relaciones sociales en
las que se ven involucrados. Subyace, por ejemplo, a todas las relaciones
que implican confianza o engaño, cooperación o defección, alianza u
oposición. Se puede considerar que, junto a la capacidad de los humanos
para la cultura, esta «ultrasociabilidad» es una fuente de enorme
variabilidad en las características institucionales y en otras características
sociales estructurales documentadas a lo largo y ancho de las sociedades
humanas y que, una vez creadas, proporcionan contextos
correspondientemente diversos que motivan y limitan las diferentes pautas
de la acción social.
Sin embargo, una pregunta crucial que surge en el análisis social es
cómo encaja este grado de variabilidad en la vida social del hombre.
Dentro del paradigma al que me voy a referir como «paradigma holístico»,
se trata la variabilidad como si se diera esencialmente entre entidades
culturales en cualquiera de los niveles, más micro o más macro, que se
diferencien —por ejemplo, tribus, comunidades locales, agrupaciones
étnicas, clases sociales o incluso sociedades totales como naciones o
Estados. Estas entidades se representan como «todos» más o menos
coherentes y diferenciados que se consideran las unidades clave de análisis.
Carrithers (1992: 17-19) ha descrito acertadamente esta perspectiva
mencionando la idea de la «caracola» para representar las culturas o las
sociedades: es decir, como especímenes-tipo que se pueden disponer, como
en un museo, para propósitos de comparación y clasificación. Y, en efecto,
dentro del paradigma holístico enseguida podemos reconocer el tipo de
pensamiento tipológico que, como mencioné en el capítulo 1, Mayr
consideraba prevaleciente en las ciencias sociales y naturales antes de
plantearse el desafío del pensamiento poblacional.
Dentro del paradigma holístico se han realizado muchos trabajos de tipo
manifiestamente ideográfico: es decir, centrados en culturas o sociedades
determinadas y en una descripción detallada de sus características. Pero
cuando se ha perseguido un objetivo de mayor alcance, este ha sido el de
obtener una comprensión de la variación que se manifiesta en el nivel de las
entidades socioculturales per se. Es decir, primero catalogando esta
variación de la manera más extensa posible y, segundo, buscando pautas de
asociación entre las características específicas que varían, con el objetivo
último de proporcionar una base teórica sistemática a la construcción de
tipologías y a la asignación de casos a esas tipologías.
La investigación y el análisis en esta línea han ocupado de hecho una
posición prominente en la sociología —igual que en la antropología social y
cultural— desde finales del siglo XIX y hasta mediados del XX. Entre los
primeros trabajos sobre las sociedades tribales y agrarias tempranas
destacan notablemente la vasta Descriptive Sociology de Spencer (1983-
1934), los esfuerzos de Tylor (1889) por demostrar las «afinidades» entre
diferentes formas de instituciones económicas y familiares, y el intento de
Hobhouse, Wheeler y Ginsberg de ampliar el alcance de los análisis de
Tylor abandonando, sin embargo, algunos de sus supuestos evolutivos más
controvertidos. Inmediatamente después de estos trabajos se sitúan el de
Murdock (1949) y otros sobre la estructura social comparada a partir de los
Archivos del Área de Relaciones Humanas de Yale, un desarrollo sobre el
que se admite la gran influencia de Spencer (Murdock, 1965: cap. 2). Y,
aunque no siempre se ha reconocido, podemos advertir una clara
continuidad (véase Ginsberg, 1965) entre estos primeros estudios y buena
parte de la extensa literatura que se produjo desde los años cincuenta a los
setenta sobre la transición de las formas de vida social «tradicionales» a las
«modernas» (por ejemplo, Hoselitz, 1952; Mead, 1953; Kerr et al., 1960;
Lerner, 1964), centrada en el cambio en las culturas y estructuras sociales
de las comunidades locales o de sociedades totales. A este último respecto,
lo que puede considerarse como la expresión definitiva del paradigma
holístico en su forma más ambiciosa apareció en dos libros que escribió
Talcott Parsons hacia el final de su notable carrera sociológica. En estos
libros, Societies: Evolutionary and Comparative Perspectives (Parsons,
1966) y The System of Modern Societies (Parsons, 1971), el propósito
explícito de Parsons era «poner algo de orden» en «la inmensa variedad de
tipos de sociedad» entendidos como «sistemas sociales» (1966: 1) 15 .
La «contención» holística del problema de la variabilidad tiene
atractivos evidentes, en particular para demarcar un dominio sociológico
bastante específico. Las entidades socioculturales se pueden describir como
realidades sui generis que deben estudiarse como tales más que de un modo
que implique su «reducción» al nivel individual. Se crea así la posibilidad
de sustanciar posiciones programáticas clásicas como las que representaba
el aserto de Durkheim (1895/1938: caps. I y V) de que los fenómenos
sociales deben tratarse como «cosas en sí» y los «hechos sociales» pueden
explicarse sólo en referencia a otros hechos sociales, o la insistencia de
Kroeber (1917) en que las culturas deben considerarse «superorganismos»
no reductibles y la máxima metodológica suya y de Robert Lowie de que
omnis cultura ex cultura.
Sin embargo, hay un importante problema que en el pasado reciente ha
dado lugar a una crítica creciente del paradigma holístico o, en todo caso, a
un menor compromiso de facto con él. Lo que está crucialmente en juego es
el grado de variabilidad que ocurre dentro y entre las entidades
socioculturales, ya sean sociedades totales o componentes de ellas: es decir,
la variabilidad en el nivel de los individuos. Por ejemplo, una pregunta que
surge inmediatamente con el paradigma holístico es qué implica
exactamente que una entidad sociocultural se caracterice por una forma
institucional determinada —como, por ejemplo, la del matrimonio o la
familia o la de la propiedad privada y la herencia. ¿Implica que esta forma
institucional opera con carácter universal dentro de la población o
subpoblación en cuestión, o en la mayoría de los casos con algunas
excepciones? ¿O tal vez representa sólo la forma modal con una cantidad
considerable de la correspondiente variación? En el trabajo sociológico del
estilo al que me he referido antes parece que este tipo de preguntas se evitan
de forma más o menos rutinaria en lugar de abordarse seriamente.
En efecto, el paradigma holístico descansa principalmente en el supuesto
de que las entidades que se toman como las unidades de análisis tienen un
grado elevado de homogeneidad interna, resultado del consenso de valores
y creencias y de la conformidad normativa. En la formulación específica de
Parsons (1952), las normas, derivadas de creencias y valores compartidos,
se «institucionalizan» en la estructura social, pero al mismo tiempo se
«internalizan» en el desarrollo de la personalidad individual por medio de
los procesos de aculturación y socialización. A su vez, a efectos
descriptivos, se supone al mismo tiempo que el conocimiento de las formas
institucionales puede proporcionar por sí mismo una sinopsis adecuada y
suficiente de las pautas prevalecientes de la acción social, necesitándose
sólo algún grado pequeño, bastante limitado, de variación individual que
podría tratarse como una «desviación» reconocida 16 .
Además, cuando se hacen intentos de dar cuenta de las características de
entidades socioculturales y de las variaciones que exhiben en el espacio y el
tiempo, se pueden adoptar teorías en las que la acción individual apenas
tiene importancia. En esas teorías, que casi invariablemente han demostrado
ser dependientes de alguna forma de lógica explicativa funcionalista, los
individuos sólo intervienen como agentes para la realización de los
«imperativos» o «exigencias» del sistema, y de una forma que hace que su
acción —o, a todos los efectos, su comportamiento socioculturalmente
programado— sea esencialmente epifenoménica.
El muy limitado éxito explicativo que estas teorías han logrado en la
práctica y las dificultades en principio inherentes a ellas —en particular su
falta de «micro-fundamentos» apropiados (véanse Elster, 1979: cap. 5,
1983: cap. 2; Boudon, 1990; Coleman, 1990: cap. 1)— son ciertamente
unos de los factores del decreciente atractivo del holismo 17 . Sin embargo,
se ha planteado una objeción aún más fundamental contra el paradigma
holista que tiene aquí más relevancia para nuestros propósitos; a saber: que
el grado en que desatiende la variación individual que ocurre dentro de las
entidades socioculturales —o, en otras palabras, la heterogeneidad de sus
poblaciones— es inaceptable, en primer lugar, por razones simplemente
empíricas y, en un nivel más básico, por la gravemente limitada concepción
del individuo humano que implica.
Volviendo a la discusión del capítulo 1 sobre la sociabilidad humana, se
puede decir que otro de sus rasgos distintivos es que aunque (o quizás
debido a que) se desarrolla en un grado excepcional, permite al mismo
tiempo un grado de individualidad mucho mayor que entre las demás
especies de animales «sociales». En particular, los individuos humanos,
incluso cuando se ven involucrados en formas muy complejas de relaciones
sociales, pueden seguir concibiendo intereses y fines como propios,
diferenciados y separados de los de las colectividades a las que pertenecen
(véase, por ejemplo, Boyd y Richerson, 1999) 18 . Así, en lugar de buscar la
aprobación de los demás mediante la conformidad sociocultural, pueden
perseguir sus propios fines de distintas maneras, ignorando o
contraviniendo conscientemente las creencias, valores y normas asociadas
que pueden considerarse establecidas, y de otras maneras que pueden ir más
allá de la desviación individual y apuntar, quizá en acción conjunta con
otros, a la modificación, la reinterpretación o incluso el cambio radical de
las normas.
Básicamente fue esta cuestión la que resaltaron algunos de los primeros
críticos del paradigma holístico en sociología al llamar la atención sobre la
concepción «super-socializada» del actor individual y sobre la teoría
extrema del «molde social» de la naturaleza humana que este paradigma
implica. Pensadores como Wrong (1961) y Homans (1964) observaron que,
mientras los procesos de la socialización son en efecto fundamentales para
hacer «humanos» a los individuos en el sentido de que los dotan de
atributos exclusivamente humanos, no por ello implican que en unas
culturas o subculturas determinadas o en sociedades o grupos particulares
los individuos se asemejen en las creencias, valores y normas que aceptan o
en los fines que persiguen (véase además Boudon, 2003a). Al contrario,
cabe esperar siempre un alto grado de variabilidad a este respecto. En
relación con esta cuestión, en un trabajo posterior Wrong (1999) acentuó la
importancia de la diversidad en los cursos de vida individuales.
Observamos que, al mismo tiempo que se ven involucrados en «redes
recurrentes» de relaciones sociales, los individuos —señala aquel— tienen,
incluso en lo que puede parecer que son contextos socioculturales muy
estables y homogéneos, historias personales muy distintas como
consecuencia de los muy diferentes factores que pueden afectar a sus vidas,
incluyendo fenómenos bastante azarosos (véase también el capítulo 4).
La investigación que se ha realizado en muchos campos diferentes de la
sociología puede ofrecer ya una amplia base para cuestionar el paradigma
holístico en la línea indicada. Consideremos, simplemente como un ejemplo
más, la investigación sobre las creencias y los valores políticos o religiosos
y su expresión en las formas de acción política o religiosa. Esta
investigación revela una enorme variación individual. Mientras los análisis
que incluyen una serie de indicadores sobre las afiliaciones del individuo a
grupos sociales o subculturas son efectivamente capaces de revelar aspectos
sistemáticos de esa variación —o, en otras palabras, regularidades
probabilísticas en el nivel de la población de gran interés sociológico
(véase, por ejemplo, Evans y De Graaf, 2013)—, se da el caso que de esta
forma se explica sólo una parte bastante modesta de la variación total; y,
es importante advertir, mucha menos de la que cabría esperar sobre la base
de supuestos holísticos (véase también el capítulo 7).
Otra manera en la que podría expresarse este problema central sería
indicando que dentro del paradigma holístico se ha hecho el intento —sin
éxito— de «endogenizar» los fines de la acción individual y las creencias y
valores de los que se derivan. Por lo general, en la corriente mayoritaria de
la economía se acepta la exogeneidad de los gustos o preferencias. Pero los
sociólogos se han mostrado reticentes a adoptar una posición análoga. Así,
incluso en la obra temprana de Parsons (1937: 58-65 esp.), el supuesto de
«la aleatoriedad de los fines» que identificó en los trabajos de los
utilitaristas y los economistas clásicos era, para él, un importante defecto;
un defecto que, si fuese correcto, haría la idea del orden social muy
problemática a su juicio. Porque para que una sociedad se cohesione, los
fines que sus miembros individuales persiguen no pueden ser aleatorios,
sino que tienen que estar integrados a través de la congruencia normativa en
los niveles institucional e individual. Sin embargo, los intentos de Parsons
en sus obras posteriores de endogeneizar los fines apenas fueron más allá de
la fase programática, y podemos apreciar la misma limitación en los
esfuerzos posteriores de otros autores (véase Goldthorpe, 2001: vol. 1, cap.
8). De hecho, parece que en realidad las sociedades humanas son capaces
de existir, y persistir, en condiciones mucho menos integradas de las que los
partidarios del paradigma holístico supusieron.
Así, lo que debe reconocerse, aunque sólo sea de forma programática, es
que aun en el caso de que la idea de la aleatoriedad de los fines individuales
sea una exageración en el sentido de que esos fines y los modos en los que
se forman y persiguen están socioculturalmente estructurados en alguna
medida, esta medida sigue siendo bastante limitada; y también que, como
Elster (1997: 753) ha observado, la pregunta de por qué la gente tiene los
fines particulares —metas, deseos, gustos o preferencias— que de hecho
tiene, quizá siga siendo «el problema no resuelto más importante de las
ciencias sociales». Y lo que deber reconocerse también es la posibilidad de
que se trate de un problema que no podrá resolverse nunca en la medida en
que la elección de los fines representa el indeterminismo último en la vida
social humana. En todo caso, es difícil vislumbrar, al menos por el
momento, otra alternativa para la sociología que no sea la de seguir a la
economía y considerar los fines del individuo como los «supuestos dados»
básicos del análisis 19 .
De lo anterior se deducen por tanto muchas implicaciones para la
investigación en sociología. Primero, como los estados y el comportamiento
de los individuos no se pueden colegir a partir del conocimiento de las
normas institucionales, es necesario estudiar de forma directa a los
individuos y sus acciones. Y, segundo, han de estudiarse con métodos
adecuados a dos propósitos diferentes. Por un lado, estos métodos tienen
que ser capaces de dar cabida y revelar, más que suprimir efectivamente,
todo el rango de variabilidad en el nivel individual que existe en las
entidades socioculturales; y, por otro, tienen que permitir hacer
demostraciones empíricas fiables de cualquier regularidad —probabilística
— que pueda surgir de esa variabilidad. En otras palabras, lo que se
requiere es un enfoque metodológico tanto para la recogida como para el
análisis de datos mediante el cual el pensamiento poblacional pueda
sustituir al pensamiento tipológico.
Con el fin de dar una expresión más específica a los problemas aquí
planteados, utilizaré un pasaje de la historia de la antropología social y
cultural —bastante poco analizado pero, en mi opinión, muy revelador—
que tiene sus orígenes en la obra de Bronislaw Malinowski. En su libro
Crime and Custom in Savage Society, Malinowski planteó un desafío
directo a la ortodoxia holística prevaleciente. En particular, cuestionó la
idea —asociada por él a Durkheim, Hobhouse, Lowie y otros— de que «en
las sociedades primitivas el individuo está completamente dominado por el
grupo», de que «obedece los mandatos de su comunidad, sus tradiciones, su
opinión pública, sus decretos con una obediencia esclava, fascinada,
pasiva», y que «está totalmente atenazado por las costumbres de su pueblo»
(Malinowski, 1926: 3-4, 10). Basándose en su trabajo de campo entre los
isleños trobiandeses, Malinowski intentó mostrar que esta idea era muy
exagerada. Aunque los trobiandeses eran muy conscientes de las
constricciones sociales, también tenían una comprensión clara de sus
propios intereses y de cómo estos podían entrar en conflicto con los de su
comunidad y con sus normas legales y consuetudinarias. Por consiguiente,
en especial las normas consuetudinarias estaban sujetas no sólo a una
amplia interpretación, sino también a una frecuente elusión bastante
sistemática porque los individuos perseguían abierta y conscientemente sus
propios fines. Con espléndida ironía, Malinowski formula la pregunta de si
la solidaridad tribal o de clan es «una fuerza universal tan avasalladora» o
«si el pagano puede ser tan egoísta e interesado como cualquier cristiano»
(1926: ix).
Además, Malinowski hizo una puntualización metodológica con
implicaciones de mayor alcance, si cabe. Alertó contra las deficiencias de la
etnografía de «veranda» o «de oídas», en la que se confiaba mucho en los
«informantes» en lugar de en la observación sistemática y directa de las
personas objeto de estudio —método del que él fue precursor. Los
informantes, sostenía Malinowski, tendían a decir a sus entrevistadores
mucho más sobre las normas prevalecientes que sobre lo que la gente
pensaba y hacía en realidad (1926: 120-121). El peligro estaba entonces —
sobre todo bajo los supuestos holísticos— en que las dos cosas no se
distinguiesen adecuadamente.
Posteriormente, una de las discípulas más leales y talentosas de
Malinowski, Audrey Richards (1957), desarrolló con perspicacia lo que
debía deducirse de sus argumentos sustantivos y metodológicos
considerados conjuntamente. Subrayó el modo en que en los informes sobre
su trabajo de campo Malinowski siempre presenta datos exhaustivos tanto
sobre los individuos como sobre los grupos, tanto sobre la variación en el
comportamiento individual como sobre la conformidad. Puede decirse con
seguridad que su posición contrastaba con el gran rival y contemporáneo de
Malinowski, A. R. Radcliffe-Brown, en cuyos análisis, como hizo notar
otro discípulo de Malinowski, «la gente... brillaba por su ausencia»
(Kaberry, 1957: 88) 20 . E interesa más para nuestros propósitos aquí que
Richards procedió luego a describir qué significaba esta obligación para la
práctica de la investigación que, manteniendo su lógica interna, quería ir
más allá de los avances en el trabajo de campo que el propio Malinowski
había hecho. Su conclusión fue que «una vez admitida la variación
individual en el comportamiento humano, y necesariamente ha de ser
admitida, los antropólogos... tienen que usar obligatoriamente datos
cuantitativos». Estos datos deben derivarse del apropiado muestreo de los
individuos de las poblaciones estudiadas, de forma que se pueda tratar
adecuadamente el grado de variabilidad, y deben analizarse mediante la
aplicación de varias técnicas estadísticas a fin de poder descubrir las
posibles regularidades dentro de esa variabilidad (Richards, 1957: 28-30).
Richards no fue la única que vio las implicaciones radicales de la obra
de Malinowski —las implicaciones de lo que Leach (1957: 119) describió
como la transformación de la etnografía «desde el estudio museístico de
ítems de costumbres hasta el estudio sociológico de los sistemas de acción».
Sin embargo, para los defensores del paradigma holístico —o, como
significativamente lo expresa Richards, de «las tipologías sociales»— estas
implicaciones parecían una seria amenaza. Lo que más preocupación
suscitó no fue el requisito del uso de los métodos cuantitativos en sí mismo,
porque esos métodos habían sido ampliamente aplicados —aunque no
siempre de forma muy convincente— dentro del paradigma holístico en los
intentos antes mencionados de construir tipologías 21 . Más inquietante aún
fue que el interés por la variabilidad individual pero al mismo tiempo por
las regularidades emergentes de la población, tal y como demostraban los
métodos cuantitativos, ponía en cuestión la práctica del pensamiento
tipológico y, de hecho, su propio sentido. El tipo de crítica que con más
frecuencia se hizo contra Malinowski equivalía efectivamente a la
acusación de que su investigación revelaba demasiadas cosas. Así, como
Richards (1957: 28) relata, Evans-Pritchard consideraba que los análisis de
Malinowski estaban «sobrecargados de realidad (cultural)», y Gluckman
calificó sus datos de «demasiado complejos para un trabajo comparado».
Pero, dado su compromiso con el pensamiento tipológico, lo que esas
críticas no podían —o no querían— reconocer era la posibilidad de que, con
el pensamiento poblacional y sus métodos asociados de recogida y análisis
de datos, la variabilidad individual y la regularidad sociocultural se pudiera
tratar simultáneamente.
A modo de conclusión a esta ilustración hay que señalar que ni la propia
obra de Malinowski ni el intento de Richards de resaltar la necesidad de los
métodos cuantitativos para dar cabida a la variedad individual tuvieron al
parecer como consecuencia inmediata un cuestionamiento del paradigma
holístico en la antropología 22 . Como su resistencia se ha debilitado
recientemente, podemos identificar una influencia probablemente más
poderosa: el estudio cada vez más histórico de unas sociedades que antes se
suponían «sin historia» (véase Carrithers, 1992: cap. 2 especialmente). Este
tipo de investigación ha demostrado, procediendo de otra forma, que
entender las sociedades campesinas o tribales como «objetos internamente
homogéneos y externamente distintivos y limitados» (Wolf, 1982: 6) no es
un enfoque viable, y que tiene que reconocerse que esas sociedades están
sometidas a la división, la inestabilidad y a menudo al cambio turbulento,
inducido tanto interna como externamente. A este respecto es quizá más
notable la obra de Jan Vansina sobre la historia de África Ecuatorial y su
crítica de la práctica de considerar las tribus como unidades de análisis
suponiendo que eran «perennes» y «de una edad casi indeterminada», y que
sus miembros tenían, tradicionalmente, «las mismas creencias y prácticas»
y que «cada tribu difería de sus tribus vecinas» (Vansina, 1990: 19-20).
Contra esto, Vansina subraya el «cambio incesante» entre las poblaciones
de la región —incluyendo el cambio en las identidades étnicas y tribales—
y propone que, en lugar de considerar que «tradición» implica falta de
cambio, se comprendan las tradiciones como «procesos» dependientes de la
autonomía individual que «necesitan cambiar continuamente para seguir
estando vivas» (1990: 257-260) 23 .
Se puede afirmar que también en la sociología la investigación histórica
—a menudo fundamentada en material archivístico cuantitativo— ha
proporcionado la base para una crítica eficaz del paradigma holístico y el
pensamiento tipológico, sobre todo al respecto de la idea de las subculturas
y las comunidades tradicionales. Por ejemplo, Thernstrom (1964) mostró
que Newburyport, la «ciudad yanqui» estudiada por Lloyd Warner y sus
socios en los años treinta, no era la comunidad estática relativamente
aislada y bien integrada que ellos habían sugerido (véase, especialmente,
Warner y Lunt, 1941, 1948), sino una comunidad que había experimentado
una inmigración y emigración considerables, un conflicto social recurrente
y niveles altos de movilidad social 24 . De forma similar, Baines y Johnson
(1999) han observado que la comunidad de clase trabajadora supuestamente
tradicional que Young y Willmott (1957) afirmaron haber encontrado en
Bethnal Green en los años cincuenta, debía ser, si de hecho había existido,
un producto relativamente reciente de la situación de posguerra, porque esa
zona del este de Londres en los años de entreguerras era bastante inestable y
se caracterizaba por altas tasas de movilidad, tanto residenciales como
ocupacionales.
Sin embargo, se puede afirmar que en la sociología en general el
paradigma holístico ha perdido su influencia debido principalmente a su
muy manifiesta inadecuación en el caso de las sociedades en las que el
grado de variabilidad individual y, por lo tanto, de heterogeneidad
poblacional, no se puede ignorar —en todo caso, no en el desarrollo real de
la investigación. Como se verá más adelante, en la transición —lenta y a
menudo más implícita que explícita— que hoy día se está produciendo
desde el pensamiento tipológico al poblacional, la ineludible necesidad de
los métodos cuantitativos de recogida y análisis de datos constituye una
fuerza motriz crucial para dar cabida y explotar de varias formas esta
variabilidad y heterogeneidad.

14 Se ha debatido mucho y se sigue debatiendo si hay otros animales —por ejemplo los chimpancés
— que operan en alguna medida con una teoría de la mente. Sabemos que en los humanos la teoría de
la mente se desarrolla rápidamente entre los primeros tres y cinco años de edad, pero es significativa
la dificultad de los niños autistas para desarrollarla (Baron-Cohen, 1995; Barrett, Dunbar y Lycett,
2002: 303-315).

15 A menudo se ha advertido la ironía de que la primera gran obra de Parsons (1937) —en la que él
se propuso desarrollar una «teoría voluntarista de la acción»— empiece con la pregunta retórica de
Crane Brinton: «¿Quién lee hoy a Spencer?». Admitiendo que Spencer ha «muerto», Parsons señala
que el problema clave que hay que abordar es «¿quién lo mató y cómo?». Pero de una forma que
ilustra las dificultades de los sociólogos para alejarse del paradigma holístico, Parsons regresó al final
a un estilo de pensamiento sociológico bastante próximo al de Spencer —primero adoptó una versión
de la teoría funcionalista en The Social System (Parsons, 1952) y luego la combinó con una
perspectiva evolutiva en las obras citadas en el texto.

16 A finales de los años cincuenta, cuando yo era estudiante de posgrado en el Departamento de


Sociología de la London School of Economics, Ginsberg seguía siendo una presencia influyente, y
algunos miembros del departamento aún definían la sociología como el estudio de las instituciones
sociales y consideraban que la investigación por encuesta realizada en el nivel del individuo tenía
poco interés sociológico.

17 Un problema básico y hasta ahora muy reconocido de las teorías funcionalistas en sociología es
que casi no explican por qué los individuos deben actuar —incluso en detrimento suyo— en
congruencia con los rasgos de los «sistemas sociales» que cumplen las funciones que se les
atribuyen. A falta de tal explicación, las explicaciones funcionalistas tienen que basarse en la
existencia de «entornos» muy selectivos tales que, si un sistema social no cumple los imperativos
funcionales que afronta, simplemente desaparecerá y no existirá por tanto como ejemplo contrario a
la teoría. Pero, aunque haya ejemplos de sociedades «extintas», hay pocas razones para pensar que en
general opere una selectividad lo suficientemente poderosa. Parece que pueden existir sociedades con
niveles muy diferentes de eficiencia o de éxito, cualesquiera que sean los criterios que se tengan en
cuenta a este respecto.

18 Esta cuestión se ha planteado muy amenamente en la película de animación Antz (Hormigaz). La


hormiga desviada —porque es antropomorfa—, Z-4195, se lamenta amargamente (con la voz de
Woody Allen): «Ese concepto entusiasta del superorganismo, no lo entiendo. Lo intento, pero no lo
capto. Bueno... ¿en qué consiste? Se supone que todo es por la colonia... ¿Y mis necesidades?». Es
importante advertir que, adoptando la terminología de Sen (1986: 7-8), «la elección de una meta
propia», como algo opuesto a «la elección de una meta de otro», no necesita ser egoísta en el sentido
de preocuparse sólo de los «fines del bienestar propio». Puede ser una elección altruista y al mismo
tiempo desviada normativamente como, digamos, la acción de Robin Hood, que robaba a los ricos
para dárselo a los pobres.

19 Sin embargo, es importante advertir que desde un punto de vista sociológico no hay razón alguna
para, como propusieron los economistas Stigler y Becker (1977), dar un paso adelante y tratar los
fines o «gustos» como estables en el tiempo y similares entre individuos, porque el propósito de tales
suposiciones —escasamente verosímiles— es simplemente permitir que todos los análisis
económicos se hagan por referencia a los cambios en los precios y rentas.

20 Malinowski y Radcliffe-Brown suelen ser considerados los dos pioneros del análisis funcionalista
en sociología. Pero sus funcionalismos eran de muy diferente tipo. A Malinowski le interesaban
sobre todo las funciones de las prácticas culturales y las instituciones sociales destinadas a satisfacer
las necesidades psicológicas y biológicas del individuo, más que a mantener las necesidades
societales de integración y estabilidad. Para una explicación de sus posiciones diferentes sobre esta y
otras cuestiones, véase Kuper (1973: caps. 1, 2).

21 Por ejemplo, Hobhouse, Wheeler y Ginsberg (1915) consideraban su trabajo «un ensayo de
correlación», aunque los métodos de correlación que aplicaban eran muy rudimentarios, incluso para
los estándares de la época. Murdock (1949) usó el coeficiente de asociación de Yule, Q, y los test de
significación. Habría que añadir, sin embargo, que una dificultad estadística básica que este tipo de
trabajo en cuestión planteaba era que los resultados de los análisis realizados se basaban ampliamente
en el supuesto de las observaciones independientes, mientras Galton (1889b) ya había señalado en un
comentario sobre Tylor que ese supuesto era muy cuestionable. Bien podría ser que las asociaciones
entre las características institucionales se derivaran no sólo de los requisitos funcionales internos,
sino también de los procesos de difusión entre culturas y sociedades. Parece que el «problema de
Galton» nunca se ha llegado a resolver totalmente en la investigación comparada dentro del
paradigma holístico.

22 En los años de la posguerra, la posición de Richards en la antropología social británica devino


extrañamente marginal —incluso en su propio departamento en Cambridge, donde la conocí en los
años sesenta. En la antropología se habían hecho pocos intentos de aplicar los métodos cuantitativos
para tratar la variabilidad en el nivel individual, siendo el más importante la investigación del
Instituto Rhodes-Livingstone, en Lusaka, sobre la posición de los trabajadores migrantes africanos en
los centros urbanos del Cinturón de Cobre. Véase, por ejemplo, la obra de Clyde Mitchell (1969), de
quien más tarde aprendí mucho cuando se incorporó al Nuffield College, Oxford. Curiosamente,
Kuper (1973: 188) comenta que esta investigación se vio acompañada de un movimiento hacia el
«individualismo metodológico» —la base del paradigma individualista frente al paradigma holístico
en sociología, como veremos en el capítulo 3.

23 Estoy en deuda con mi colega John Darwin por llamar mi atención sobre la notable obra de
Vansina.

24 Hay que señalar que Warner y muchos de sus colegas eran, de hecho, antropólogos formados bajo
la influencia principal de Radcliffe-Brown. Pero se comprometieron a llevar a la sociología los
métodos de investigación y las teorías de la antropología y por tanto optaron por trabajar sobre todo
en las sociedades modernas.
3. El paradigma individualista

En la sociología, comprendida como una ciencia de la población, en vez de


un paradigma holístico se requiere un paradigma «individualista» debido
al grado de variabilidad existente en el nivel individual y, además, a que a
la acción individual, aun sometida al condicionamiento y las constricciones
socioculturales, hay que concederle la primacía causal en la vida social del
hombre dado el grado de autonomía que retiene.

Boudon (1990; véase también 1987) ofrece un claro alegato en favor del
paradigma de investigación individualista frente al holístico en sociología
reconociendo sus orígenes en la obra de Max Weber (véase, especialmente,
1922/1968: cap. 1). Boudon hace hincapié en que el paradigma
individualista no implica «una perspectiva atomista de las sociedades» ni
una negación de la realidad sui generis de los fenómenos socioculturales y
de los modos en que estos pueden motivar, constreñir o pautar de algún
modo la acción individual (1990: 57). En otras palabras, no implica un
individualismo ontológico: es decir, no supone que sólo existen los
individuos (o, por citar a la sra. Thatcher, que «no existe tal cosa como la
sociedad»). Antes bien, el alegato es en pro del individualismo
metodológico (Popper, 1945: vol. 2, cap. 14; 1957: cap. iv): es decir, en
favor de la posición de que los fenómenos socioculturales deben explicarse,
en última instancia, en términos de la acción individual. Aunque para los
propósitos de muchas investigaciones sociológicas es totalmente razonable
dar por supuestos algunos de esos fenómenos en vez de considerarlos
explananda de interés inmediato, ocurre que si queremos explicarlos sólo
podremos hacerlo por referencia a la acción individual y sus consecuencias
presentes o pasadas, intencionadas o no intencionadas, directas o indirectas
(véanse Hedström y Sweldberg, 1998a; Elster, 2007: cap. 1) 25 .
El principio del individualismo metodológico bien podría considerarse
«trivialmente cierto» (Elster, 1989: 13). La dificultad para aceptarlo parece
en efecto surgir bien porque no se comprende que el individualismo
metodológico no implica individualismo ontológico, bien porque se insiste
en que la acción individual está siempre influida por las condiciones
sociales en las que ocurre, una afirmación que podría considerarse también
trivialmente cierta, pero en absoluto perjudicial para el individualismo
metodológico 26 . El aspecto crucial que hay que abordar es dónde podría
residir, en la vida social del hombre, más capacidad causal real que en la
acción de los individuos, bajo cualesquiera condiciones que se considere.
La forma principal, aunque no única, de teoría sociológica que ha intentado
ignorar esta capacidad es la del funcionalismo, siguiendo la lógica de la
explicación del capítulo 2, según la cual la acción individual se reduce
efectivamente a un comportamiento epifenoménico y socioculturalmente
programado. Pero, como vimos también en ese capítulo, mientras el
funcionalismo representa el principal recurso teórico del paradigma
holístico, sólo puede proclamar, en su aplicación real, un muy escaso éxito
explicativo.
Lo que se sigue de la aceptación del paradigma individualista es, por lo
tanto, que las normas y su plasmación en tradiciones culturales o
instituciones sociales no pueden servir de «línea de referencia» para las
explicaciones sociológicas (véase además Boudon, 2003a). Estas
explicaciones deben basarse en relatos de la acción individual, y cuando se
invoque la influencia de las normas sociales siempre han de formularse las
preguntas adicionales de por qué son esas normas las que operan y no otras
y por qué los individuos las cumplen —si es que lo hacen— en lugar de
desviarse de ellas o desafiarlas abiertamente. No se puede considerar
adecuada ninguna lógica explicativa en la que las acciones de los individuos
siguen, por así decir, un guion predeterminado 27 .
Sin embargo, para nuestros propósitos, lo que hay que resaltar con
claridad son las fuentes de autonomía de la acción humana que el
paradigma individualista requiere y suscribe. Como se ha señalado ya, la
capacidad evolucionada de los individuos humanos para concebir sus
propios fines, diferentes de los de la colectividad a la que pertenecen, es una
de esas fuentes. Pero hay que reconocer algo más respecto al vínculo entre
los fines y la acción: la capacidad aún más evolucionada de los seres
humanos para hacer lo que podemos llamar una elección informada. Esta
capacidad se deriva de la facultad mental distintiva de los seres humanos —
en la que al parecer el lenguaje tiene un papel crucial— para prefigurar las
acciones que pueden emprender para conseguir sus fines, dada la
información que tienen sobre las situaciones en las que se encuentran. Otros
animales, incluso los primates, parecen vivir en un presente eterno o ser
capaces de «planificar con antelación» de forma bastante limitada: los
chimpancés no pueden aprender a mantener el fuego. En cambio, los
humanos pueden pensar sin problemas en, digamos, futuro perfecto. Pueden
imaginar no sólo un curso de acción sino varios diferentes para una
situación determinada, y están en condiciones de valorar y evaluar por
adelantado las posibles consecuencias de actuar de una forma o de otra
(véanse, por ejemplo, Dennett, 1995: cap. 13; Dunbar, 2000, 2004: 64-69,
104-107; Gärdenfors, 2006: caps. 2-5). Y, por supuesto, la cuestión aquí es
poder sopesar, en relación con los fines dados, las ventajas y desventajas de
comprometerse con una forma de acción normativamente desviada o quizás
normativamente innovadora 28 .
Es posible considerar que esta capacidad para la elección informada
implica a su vez cierta forma de racionalidad en la acción: es decir, la que
opera cuando los individuos realmente hacen elecciones entre las
posibilidades que tienen. Como Runciman (1998: 15) señaló, «... hay
razones para suponer que la mente humana ha sido programada por la
selección natural para calcular cómo se relacionan los costes y los
beneficios de un curso de acción en lugar de otro» 29 . Y, como veremos más
adelante, el paradigma individualista se basa principalmente en una
apreciación de la «racionalidad de la vida cotidiana» para intentar dar
cuenta de la acción y la interacción individuales, interpretadas como si
fuesen —en el corto o el largo plazo, intencionada o no intencionadamente
— la fuerza generadora de los fenómenos socioculturales.
Cómo opera exactamente la racionalidad de la vida cotidiana es un tema
que actualmente se investiga y debate mucho. Sin embargo, se puede decir
que hay consenso sobre una importante cuestión. Se acepta en general, por
razones empíricas, que el tipo de racionalidad en cuestión es claramente
diferente al que se da típicamente por supuesto en la corriente principal de
la economía —la ciencia social en la que hasta ahora ha sido más
dominante el paradigma individualista. Es decir, no se trata de una
racionalidad «demoníaca» o una «hiper-racionalidad», que de hecho
requiere que los actores tengan información y capacidad de cálculo
ilimitadas 30 . Antes bien, es una racionalidad subjetiva o limitada que se
orienta hacia resultados suficientemente buenos o «satisfactorios» en vez de
óptimos (Simon, 1982, 1983) y que opera con una información y unos
cálculos bastante limitados y en condiciones que en todo caso se
caracterizan a menudo por un alto grado de incertidumbre.
Las versiones de esta racionalidad que han suscrito las perspectivas
psicológica (por ejemplo, Gigerenzer y Selten, 1999; Augier y March,
2004; Gigerenzer, 2008) y sociológica (por ejemplo, Boudon, 1996, 2003a;
Blossfeld y Prein, 1998; Goldthorpe, 2007: vol. 1, caps. 6-8) se pueden
considerar, en buena medida, complementarias. En el primer caso, el énfasis
se pone en los aspectos procedimentales de la racionalidad cotidiana que
están «bajo la superficie»: por ejemplo, en el uso que hacen los individuos
en los procesos de toma de decisiones de una heurística «rápida y frugal»
—que se puede aplicar rápidamente y con relativamente poca información y
produce resultados generalmente positivos en situaciones determinadas, es
decir, en los entornos en los que ha evolucionado 31 . En el segundo caso, el
énfasis se sitúa en los aspectos situacionales per se: es decir, en la manera
en que se concibe que los individuos actúan si no óptimamente desde un
punto de vista «demoníaco», sí en la forma adecuada para conseguir sus
fines —por «buenas razones» (Boudon, 2003a)— una vez se tienen en
cuenta las características de las condiciones en las que tienen que actuar,
tales como las constricciones de tiempo, información y recursos.
Hay que resaltar que en este trabajo se reconoce totalmente que la
elección informada, subjetivamente racional, puede por sí misma conducir a
menudo al cumplimiento de las normas y las prácticas establecidas. Por
ejemplo, en muchas situaciones, «hacer lo que hacen los demás» puede
servir efectivamente como una regla heurística buena, rápida y frugal
(Gigerenzer y Todd, 1999; véase también Richerson y Boyd, 2005: 119-
126), una regla que ahorra costes de experimentación y aprendizaje
individuales y que, en la medida en que ayuda a los individuos a perseguir
sus fines, puede adoptarse, en mayor o menor medida, como una cuestión
de hábito. Y se admite también que las normas, sean informales o
institucionalizadas, se pueden aceptar y seguir con bastante racionalidad:
por ejemplo, como medio para superar tanto problemas relativamente
simples de coordinación (en Gran Bretaña, conducir por la izquierda cuando
en casi todas partes se conduce por la derecha) como problemas complejos
de «bienes públicos», aun admitiendo cierta dosis de free-riding (véase
Ostrom, 1990, 2000). Sin embargo, lo que sí se cuestiona (por ejemplo,
Edgerton, 1992; Boyd y Richerson, 1999) es la suposición de que las
normas prevalecientes son siempre y necesariamente «adaptativas». Así,
cuando se trastocan las normas sociales establecidas o surgen nuevas
situaciones, el seguimiento incondicional e irreflexivo de las normas por
medio de la regla heurística de «hacer lo que hacen los demás» puede ser
cada vez menos eficaz para lograr fines (Laland, 1999). De la mayor
importancia entonces es que los individuos concernidos tengan recursos
cognitivos para reaccionar ideando cursos alternativos de acción, incluso
cursos que tal vez son de un tipo innovador o normativamente desviado, y
haciendo elecciones informadas entre ellos.
En suma, los intentos de proporcionar fundamentos al paradigma
individualista en sociología en el nivel de la acción implican un rechazo del
Homo economicus guiado por una racionalidad demoníaca en favor de una
concepción del actor basada más sólidamente en la naturaleza del Homo
sapiens sapiens guiado por lo que Gigerenzer (2008) ha llamado una
«racionalidad para los mortales». No obstante, estos intentos siguen
produciendo una comprensión del actor muy diferente, y más elaborada, de
la que ofrece el paradigma holístico. En vez de tratar los individuos como
criaturas producidas en gran medida por las entidades socioculturales en las
que nacen y viven —en su grado más extremo, como marionetas
socioculturales—, se resalta su capacidad para concebir sus propios fines y
elegir, en cierto sentido racionalmente, entre los diferentes medios posibles
para lograrlos. Son estas capacidades las que dotan a los individuos de un
grado significativo de autonomía respecto de su condicionamiento
sociocultural y hacen necesario y validan el paradigma individualista.
Es más, desde esta perspectiva se ve otra ventaja significativa del
paradigma individualista: permite, de forma tal vez un poco paradójica, una
mejor apreciación de la naturaleza de las constricciones sobre la acción
individual. En el paradigma holístico el énfasis se pone en las
constricciones normativas. Sin embargo, como se supone además que
mediante los procesos de aculturación y socialización las normas que se han
institucionalizado de varias maneras tienden también a internalizarse en la
personalidad individual, la distinción entre constricción y elección en la
acción individual se desdibuja, si es que no desaparece del todo. La acción
se reduce, efectivamente, al comportamiento social normativamente
moldeado. Fue de hecho esta reducción la que suscitó la vieja broma,
dirigida contra la obra de Parsons y normalmente atribuida al economista
James Duesenberry, de que mientras la economía trata de distintas formas
de elegir, la sociología trata de por qué no hay ninguna elección que hacer.
En cambio, la posibilidad de que las normas sociales se pueden
experimentar subjetivamente como constricciones encaja fácilmente en el
paradigma individualista: esto es, las normas imponen limitaciones externas
a la acción de los individuos que no se basan en las creencias y valores que
ellos mismos comparten. Y, además, es más fácil ver que centrar la atención
en las constricciones normativas de la acción es en todo caso muy
restrictivo. Existen otras constricciones, de al menos parecida importancia,
que son de tipo no-normativo: aquellas que David Lockwood calificó de
«fácticas» en una crítica suya temprana a Parsons (Lockwood, 1956; véase
también Lockwood, 1992: 93-97 esp.). Se trata de constricciones que no
dependen de creencias y valores compartidos en común, sino que expresan
simple y llanamente desigualdades entre los individuos y grupos en el
control de los recursos —económicos, políticos y otros— y, por lo tanto, en
su ventaja y poder social. De ese modo, las oportunidades de los individuos
para la acción o, digamos, la gama de elecciones que realistamente tienen
ante sí se diferencian de forma sistemática y, a menudo, extrema.
Desde este punto de vista apenas sorprende entonces que el tratamiento
de las desigualdades sociales estructuradas en relación a los recursos —o en
otras palabras, de la estratificación social— haya constituido siempre un
grave problema para el paradigma holístico: en concreto, el problema de
cómo reconciliar la estratificación social con los supuestos sobre la
homogeneidad interna de las entidades socioculturales consideradas como
las unidades de análisis y sobre su grado de integración 32 . Desde el punto
de vista del paradigma individualista, en cambio, la estratificación social y
la operación de las constricciones no-normativas derivadas de ella no
plantean ningún problema. Se las considera como importantes factores
adicionales que incrementan la heterogeneidad de las poblaciones humanas
y crean variabilidad en la vida social humana —en este caso, se podría decir
que una variabilidad en las oportunidades vitales que es previa a la
variabilidad en las elecciones vitales. Y de este modo, se vuelve a poner el
acento en la necesidad de que la sociología se base —volviendo a la
distinción de Mayr— en el pensamiento poblacional en vez de en el
pensamiento tipológico.
El argumento de este capítulo ha sido hasta ahora un tanto abstracto. Con
el fin de poner de manifiesto con más claridad lo que implica puede ser útil
proporcionar, para concluir, algunos ejemplos más concretos de sus puntos
centrales. Puede hacerse así por referencia a uno de los más notables
procesos de cambio social que se ha patentizado en el mundo occidental: la
rápida erosión desde los años sesenta en adelante de las creencias, los
valores y las normas sociales relacionadas que sancionan el matrimonio
como base de las relaciones sexuales y de la reproducción y crianza de los
hijos y el correspondiente incremento en la cantidad de individuos que
optan por la cohabitación y la formación de familias al margen del
matrimonio.
En primer lugar, se puede señalar que los análisis de este proceso (por
ejemplo, Nazio y Blossfeld, 2003; Nazio, 2008) muestran que se inicia con
un aumento relativamente pequeño de los que se desvían de las normas
prevalecientes —que, por utilizar la distinción que hace Merton (1957: cap.
IV), incluyen no sólo «innovadores» pragmáticos, sino también «rebeldes»;
es decir, individuos que se oponen a lo que para ellos son «convenciones
burguesas» y cuya entrada bastante abierta en la cohabitación parece haber
producido un significativo efecto de demostración.
La difusión de esta práctica empieza a cobrar ritmo a medida que los
miembros de las sucesivas cohortes no sólo ven ejemplos de cohabitación
entre sus coetáneos, sino que, además, son cada día más conscientes de las
ventajas en costes y beneficios que proporciona —incluso aunque en alguna
pero decreciente medida sigan considerándola desviada—, sobre todo en un
tiempo en el que las oportunidades y las constricciones económicas
cambiaban de forma sustancial. Las oportunidades del mercado de trabajo
para las mujeres estaban creciendo, pero muchos hombres y mujeres
experimentaban de igual forma una mayor incertidumbre en el inicio de su
vida laboral (Blossfeld y Hofmeister, 2006; Blossfeld, Mills y Bernhardi,
2006). En estas circunstancias, cohabitar se consideraba a menudo más
atractivo —se podría decir que como una cuestión de elección informada—
que la alternativa de casarse o seguir sin ataduras. Por medio de la
cohabitación el compromiso a largo plazo se puede posponer hasta
conseguir cierto grado de seguridad laboral sin incurrir en los costes del
aislamiento sexual o de la promiscuidad, al mismo tiempo que se puede
acceder a las ventajas de los recursos compartidos y las economías de
escala al vivir juntos (Oppenheimer, 1994, 1997; Mills, Blossfeld y
Klijzing, 2005; Bukodi, 2012).
Estos análisis sobre el declive del matrimonio y el aumento de la
cohabitación ilustran convenientemente la fuerza potencial de la autonomía
individual frente a las normas predominantes como respuesta a las
condiciones cambiantes de la acción. Pero además sirven también para
subrayar otro punto relevante que nos interesa aquí. Muestran que cuando la
elección informada de los individuos socava normas sociales sólidamente
establecidas no necesariamente se genera ni movimiento hacia un nuevo
consenso normativo ni desorden radical.
En muchas sociedades podría parecer que, al menos hasta ahora, el
aumento de la cohabitación está asociado simplemente a una mayor
diversidad normativa. Las normas antes prevalentes siguen conservando
cierto grado de influencia junto a las nuevas. Por ejemplo, los individuos
con afiliación religiosa tienden a casarse más sin cohabitación previa que
los que no la tienen; y tienden también más, si cohabitan, a comprometerse
en matrimonio llegado un determinado momento como, por ejemplo, tras la
concepción o el nacimiento de un hijo (Manting, 1996; Nazio, 2008). Así,
se podría decir que los hombres y las mujeres han creado grados de libertad
mayores que los de antes para realizar las diferentes ideas e ideales por los
que viven; o, como Thornton, Axin y Xie (2007: 73) han dicho
acertadamente, los individuos «han conseguido de la comunidad y del
sistema social en general el control sobre elementos cruciales de los
procesos de formación de la pareja». De hecho, Lesthaeghe (2010: 213-
216) ve en el aumento de la cohabitación uno entre varios de los aspectos
de una «segunda transición demográfica» que implica «un ajuste de la
estructura normativa» relativa no sólo al matrimonio y la unión, sino
también a las relaciones sexuales y la reproducción y crianza de los hijos; y
en la que las «elecciones individuales» autónomas y las evaluaciones de la
«utilidad» han prevalecido sobre la «adhesión al grupo social» 33 .
Sin embargo, no necesariamente hay que considerar que este tipo de
cambios implica una reducción del orden social o, en todo caso, no en el
sentido de que haya menos regularidad en la vida social. Los individuos
también pueden ser una fuente de regularidades en el nivel de la población
cuando persiguen sus propios fines mediante procesos de elección
informada: es decir, si los individuos hacen elecciones similares en
situaciones semejantes (véase Goldthorpe, 2007: vol. 1, cap. 6). Y también
a este respecto, los efectos de las constricciones, tanto de las no normativas
como de las normativas, a la hora de pautar la acción social pueden adquirir
mucha importancia. Así, en el caso de la cohabitación, una constricción no
normativa sobre su difusión es la impuesta por la mundana cuestión de los
costes. Por ejemplo, se ha mostrado (Nazio y Blossfeld, 2003; Nazio, 2008)
que en países como Italia y España, donde hay escasez de vivienda
económicamente accesible, muchas parejas jóvenes, sobre todo en los
estratos inferiores, a las que les gustaría cohabitar, no pueden permitírselo y
se ven obligadas a permanecer en casa de sus padres simplemente por
razones económicas.
Por lo tanto, los niveles altos de consenso en creencias y valores y de
conformidad con las normas no deben considerarse las únicas fuentes de
regularidad en la vida social. Pero, al mismo tiempo, del argumento general
de este capítulo y de la ilustración específica de él que se ha presentado se
puede extraer una ulterior conclusión que tiene implicaciones directas para
lo que sigue.
Cuando los individuos intentan de un modo informado alcanzar sus
propios fines en condiciones creadas por compromisos normativos
posiblemente muy diversos y también por constricciones no normativas que
limitan las elecciones posibles en grados muy diferentes, tienden a
generarse regularidades en la acción y en los resultados que emergen en el
nivel de la población de formas más complejas que las esperadas bajo los
supuestos holísticos. Y este hecho tiene consecuencias directas porque
implica dificultades, por volver al análisis del capítulo 1, para hacer esas
regularidades visibles y transparentes. Cuando el análisis sociológico parte
de la idea de poblaciones y subpoblaciones, en vez de entidades
socioculturales consideradas en niveles más micro o más macro, lo que
debe resultar es una concepción de la sociedad humana como si, por así
decir, fuese de una textura mucho más suelta que la que presenta el
paradigma holístico, pero, al mismo tiempo, con un tejido mucho más
intrincado. Y esta concepción refuerza a su vez lo que se dijo al final del
capítulo 2 sobre los requisitos que deben cumplir los métodos de recogida y
análisis de datos si se quieren establecer y describir adecuadamente las
regularidades poblacionales, y es, además, relevante para determinar la
forma apropiada de explicar esas regularidades.
Las cuestiones que se plantean aquí son centrales para los próximos
capítulos con la excepción del 4, que constituye un excurso necesario para
defender que son las regularidades probabilísticas de la población las que
constituyen los explananda apropiados de la sociología.

25 Una situación análoga que David Cox me mencionó es que en muchas investigaciones en física
no es necesario descender hasta el nivel de los quantum, aunque si se requiriese una explicación
«elemental» de todos los fenómenos implicados sí sería necesario hacerlo.

26 Es posible también criticar el individualismo metodológico por creer que implica cierto
compromiso con el individualismo como credo económico o político. Pero como Weber (1922/1968:
18) observó: «Es un enorme dislate el pensar que un método ‘individualista’ significa una valoración
individualista en cualquier sentido concebible».

27 A este respecto, Boudon (1990: 41) compara de forma esclarecedora su propia posición con la de
su compatriota, Pierre Bourdieu, quien cuando aplica —o, se podría sostener, cuando aplica mal— la
noción tomista de habitus supone en efecto una concepción supersocializada del actor individual
mucho más extrema que aquella contra la que objetaron, en un contexto principalmente
estadounidense, Wrong y Homans. Véase también Boudon (2003b: 140-148).

28 Las obras de psicología evolutiva y cognitiva referenciadas en las fuentes citadas contribuyen a
remediar una debilidad importante de las críticas a la concepción «supersocializada» del actor
humano desarrolladas por Wrong y Homans —a saber: que los fundamentos psicológicos de estas
críticas eran cuestionables y bastante contradictorios ya que Wrong recurrió a una teoría freudiana de
los instintos y Homans a un conductismo bastante rudimentario. Los sociólogos han solido
reaccionar de una forma muy negativa a las posiciones que adoptan los psicólogos evolutivos, por
ejemplo a la de Tooby y Cosmides (1992) en su ataque contra «el modelo estándar de ciencia social»
del individuo humano en la medida en que implica una «tabla rasa» (véase también Pinker, 2002). De
hecho, se puede entender que este ataque apunta específicamente a los supuestos psicológicos del
paradigma holístico y, si se entiende así, está bien concebido. Pero es un problema que los autores no
distingan entre el individualismo ontológico y el metodológico. Un compromiso con este último no
implica en absoluto suscribir la muy desafortunada afirmación de que «lo que queda en general en el
mundo humano, una vez que quitamos todo lo interno a los individuos, es el aire entre ellos» (Tooby
y Cosmides, 1992: 47; véase también Goldthorpe, 2007: vol. 1, 180-183).

29 Curiosamente, Dunbar (2004: 64-66) sugiere que la muy elaborada teoría de la mente que
subyace a la ultrasociabilidad humana puede ser una propiedad derivada de esta capacidad más
básica para la elección informada en el sentido de que el tipo de razonamiento que esta última
entraña podría proporcionar la base para la comprensión de otras mentes: «recurro a la experiencia de
mis propios procesos mentales para imaginar cómo funciona la mente de otras personas». Esta
sugerencia está en la línea de los conocidos argumentos, tanto de la filosofía como de la antropología,
de que es la idea de la racionalidad la que proporciona el passepartout básico para entrar en otras
mentes y a su vez en otras culturas (véase, por ejemplo, Hollis, 1987: cap. 1).

30 «Demoníaca» hace referencia aquí al demonio que concibió Laplace (1814/1951), cuya
inteligencia va más allá de toda limitación de cálculo y acopio de información y para quien nada es
incierto y el futuro está tan claro como el pasado. A veces los economistas proclaman que se ha
realizado mucho trabajo teórico sobre los costes de la información y los límites de los cálculos y sus
consecuencias. Pero es posible cuestionar en qué medida todo ese trabajo forma parte del análisis de
la toma de decisiones en la investigación de economía aplicada. Por ejemplo, consideremos la
siguiente afirmación en un trabajo sobre la toma de decisión de los padres de cara a la financiación de
la educación de los niños: «Con unos mercados de capital que funcionaran de forma fluida, los
padres igualarían el tipo de interés del mercado de préstamos con el valor presente del rendimiento
marginal de inversión en sus hijos» (Blanden et al., 2010: 30). ¿Seguro que lo hacen?

31 Es importante distinguir el cuerpo de investigación psicológica referenciado aquí del programa de


«heurística y sesgos» asociado a Kahneman y Tversky (véase, por ejemplo, Kahneman, 2011). Este
último pone el énfasis en cómo y por qué las elecciones y las acciones de los individuos suelen violar
los principios establecidos de la lógica y la probabilidad, dando por supuesta la superioridad
normativa de estos principios. En cambio, sobre todo en la obra de Gigerenzer y sus colegas, se
cuestiona la idea de las normas de la racionalidad «ciegas al contenido» y se pone énfasis en cómo
una heurística rápida y frugal puede, en las condiciones a las que está adaptada, equipararse o incluso
superar la racionalidad demoníaca a la hora de ayudar a los actores a conseguir lo que para ellos son
resultados positivos (véanse Gigerenzer, 2008: cap. 1; Berg y Gigerenzer, 2010).

32 La aproximación más común al problema, adoptada por Parsons (1940) entre otros (por ejemplo,
Davis y Moore, 1945), ha sido tratar la estratificación social como si, en sí misma, estuviera
normativamente sancionada y generalmente aceptada como una respuesta necesaria a exigencias
funcionales, a saber: las de asegurar la asignación de los individuos más capaces a los roles más
importantes para el «mantenimiento del sistema» y las de asegurar su motivación para desempeñar a
un alto nivel esos roles. Estas teorías de la estratificación social han estado sometidas, sin embargo, a
una serie considerable de críticas empíricas y conceptualmente fundadas (para un ejemplo temprano,
véase Tumin, 1953) y en la actualidad reciben poca aceptación. Un enfoque alternativo característico
del fonctionnalisme noir inspirado en Marx, diferenciado del fonctionnalisme rose de Parsons —por
mencionar la sutil distinción de Raymond Aron—, ha sido considerar la aceptación de la
estratificación social como indicativa de un sistema social cuya integración y mantenimiento se
deriva de la dominación ideológica, económica y política de las clases inferiores por las superiores.

33 Sin embargo, yo subrayaría que no hay que suponer, como Lesthaeghe parece inclinado a hacer,
que lo que está implicado aquí es un movimiento unilineal e irreversible —desde, digamos, la
«tradición» hasta la «modernidad». Es muy posible concebir que, de nuevo bajo condiciones
cambiantes, la acción individual pueda conducir al resurgir de una situación de más consenso
normativo y conformidad.
4. Las regularidades de la
población como explananda
básicos

Para la sociología entendida como una ciencia de la población, los


explananda básicos son las regularidades probabilísticas de la población
en vez de los sucesos singulares o los sucesos que se agrupan bajo una
misma rúbrica pero sin la adecuada demostración de las regularidades
subyacentes que garantizarían esa agrupación.

Elster (2007: 9) ha afirmado que «la tarea principal de las ciencias sociales
es explicar los fenómenos sociales» y que «el tipo básico de explanandum
es el suceso». Desde el punto de vista de la sociología como una ciencia de
la población, el argumento de Elster requiere una matización importante.
Los sucesos que preocupan a la sociología son de un tipo determinado; a
saber: son sucesos que se puede mostrar que ocurren en una población o
subpoblación dada con algún grado de regularidad.
Muchos de los explananda o «puzles» para la sociología que Elster
(2007: 1-5) sugiere al ilustrar su argumento están de hecho relacionados con
regularidades en los sucesos: por ejemplo, «¿por qué los pobres tienden a
emigrar menos?» y «¿por qué vota un individuo en las elecciones cuando su
voto no tiene virtualmente ningún efecto en el resultado?». Sin embargo,
otros casos que menciona hacen referencia a sucesos singulares; por
ejemplo: «¿por qué el presidente Chirac convocó elecciones anticipadas en
1997 y perdió la mayoría en el parlamento?» 34 . Y, lo que es más importante
aún para nuestros propósitos aquí, hay otros autores (por ejemplo, Brady,
Collier y Seawright, 2006; Mahoney y Goertz, 2006; Mahoney y Larkin
Terrie, 2008) que reconocen de forma más explícita que Elster la distinción
entre regularidades en los sucesos y sucesos singulares y que aun así
mantienen que las ciencias sociales deben preocuparse por explicar tanto
estos últimos como las primeras.
Para comprender por qué surgen dificultades cuando se consideran como
explananda sociológicos sucesos distintivos, singulares, en lugar de las
regularidades en los sucesos, es necesario considerar el papel del azar en la
vida social. A este respecto es útil la distinción que propuso el biólogo
Jacques Monod (1970) entre dos visiones, o usos, diferentes de «azar» en
un contexto científico; a saber: la distinción entre azar «operativo» y azar
«esencial».
Monod señala que se emplea el término «azar» en sentido operativo
cuando, para analizar ciertos fenómenos, un enfoque probabilístico es, en la
práctica, el único factible en términos metodológicos —aun en el caso de
que se pudiera utilizar, en principio, uno determinista. Así, el azar, en este
sentido operativo, es el concepto básico para la idea de una ciencia de la
población tal y como la entiende Neyman. Se acepta la no factibilidad de
intentar dar cuenta de forma determinista de los estados y el
comportamiento de todos los individuos que componen una población, bien
debido a que son intrínsecamente indeterminados o simplemente debido al
grado de complejidad implicado en esa determinación. Sin embargo, queda
la posibilidad de, por volver a la expresión de Hacking, «domesticar el
azar» y establecer regularidades de tipo probabilístico en el nivel agregado
de la población para luego buscar explicaciones de esas regularidades que
resultan de los procesos causales o mecanismos que operan en el nivel del
individuo e incorporan el azar.
En cambio, el azar en sentido esencial es, para Monod, una idea mucho
más radical que se emplea cuando un cierto resultado surge de la
intersección de dos o más series bastante independientes de sucesos (véase
Hacking, 1990: 12). En el ejemplo que ofrece Monod (1970: 127-131), el
doctor Dupont acude a una llamada de emergencia y, cuando pasa al lado de
un edificio que están arreglando, al operario Dubois se le cae el martillo
sobre la cabeza del doctor y lo mata. Incluso si las dos series de sucesos se
consideran en cierto modo determinadas, su independencia implica que el
resultado de las dos debe considerarse una «coïncidence absolue» 35 .
Puede parecer que en la vida social del hombre el azar esencial se da de
forma generalizada. Como el doctor Dupont, los individuos se encuentran a
menudo en el lugar equivocado y en el momento inoportuno o, felizmente,
en el lugar adecuado y en el momento oportuno. Sin embargo, el azar
esencial se da en un contexto en el que también están presentes las fuerzas
que producen la regularidad. Los individuos persiguen sus diferentes fines,
a menudo en situaciones de gran incertidumbre, pero de una manera
informada, guiados por una racionalidad común y bajo varias constricciones
normativas y no normativas que comparten parcialmente. Lo que a primera
vista podría parecer un azar esencial en funcionamiento, puede mostrarse
que suele ser un azar condicionado socialmente, al menos en cierta medida.
Por ejemplo, en su obra temprana, Jencks (1972) subraya el papel de la
«pura suerte» en el éxito o fracaso relativos en la actividad económica;
pero, como él mismo admitió más tarde (Jencks, 1979), la experiencia de
los individuos con la suerte, ya fuera buena o mala, podía estar influida de
forma significativa por su entorno social. Y como la obra de Granovetter ha
contribuido a mostrar, la ocurrencia de uno de los tipos de suerte que cita
Jencks —«las personas conocidas por casualidad que te llevan hacia una u
otra línea de trabajo»— es muy probable que esté condicionada por algunos
rasgos de las redes sociales de individuos, de tal forma que resulta posible
«emprender un análisis sistemático de esta variedad de ‘suerte’
enmarcándola en un contexto estructural social dado» (Granovetter, 1995:
xi).
Así, en los análisis realizados en el nivel de población —es decir, con
cantidades de individuos relativamente grandes— siguen surgiendo muchos
tipos de regularidades probabilísticas en la vida social a pesar del
funcionamiento generalizado del azar esencial; pero suelen ser
regularidades de un tipo complejo y no inmediatamente visible, no digamos
transparente. Y son entonces estas regularidades las que, bajo los auspicios
del azar operativo, se pueden considerar los explananda para los que hay
que construir las apropiadas explicaciones sociológicas.
En cambio, en el caso de los sucesos singulares y distintivos, el azar
esencial tiende a tener un papel mucho más dominante y a funcionar de una
forma que es mucho menos fácil de «domesticar». Aunque puedan
sugerirse, al menos después de producidos los hechos, ciertas regularidades
predominantes y tal vez los mecanismos causales subyacentes que puedan
haber conducido a esos sucesos, para su ocurrencia real tiende a invocarse,
y a menudo crucialmente, la —intrínsecamente improbable— intersección
de los sucesos precedentes. Es este hecho lo que al parecer pasan por alto
los que apremian a los sociólogos a que intenten explicar sucesos singulares
o complejos singulares de sucesos, como —por poner los ejemplos de
Mahoney y Goertz (2006: 230)— el estallido de las dos guerras mundiales
o el colapso de la Unión Soviética. Al argumentar de este modo, estos
autores afirman que los científicos naturales están muy dispuestos a aplicar
sus teorías para dar cuenta de «resultados particulares» y ponen de ejemplo
la explicación que dio el físico Richard Feyman del desastre del
transbordador espacial Challenger de la NASA en enero de 1986. Sin
embargo, este ejemplo sirve muy bien para ilustrar en realidad la debilidad
de la posición que adoptan Mahoney y Goertz.
La causa inmediata del desastre del lanzamiento del Challenger fue el
fallo de una junta de sus cohetes aceleradores sólidos debido a que perdió
resiliencia a bajas temperaturas. Y las razones físicas de este fallo las
demostró Feynman con mucha teatralidad. En una sesión de la Comisión
Presidencial de Investigación sobre el desastre, puso una muestra de la
goma usada para las juntas en remojo en un vaso de agua helada sobre la
mesa y luego la rompió. Pero el problema de la resiliencia de las juntas ya
se conocía, y lo crucial fue que durante una teleconferencia la noche
anterior al lanzamiento hubo cierta confusión sobre la relación entre la
temperatura del aire y la probabilidad de que las juntas perdieran su
eficacia. Los datos estadísticos que se consideraron apresuradamente
procedían sólo de lanzamientos previos en los que se había producido
realmente algún daño en las gomas, y los análisis de esos datos no
indicaban fehacientemente que, con la temperatura pronosticada, el
lanzamiento debiera posponerse —mientras que lo que se planteó
posteriormente es que si se hubieran examinado todos los datos de todos
los lanzamientos, los resultados habrían mostrado con mucha más claridad
que había un gran riesgo de catástrofe (Dalal, Fowlkes y Hoadley, 1989).
Tras muchas discusiones se permitió que el lanzamiento siguiera adelante, y
luego las juntas fallaron.
La cuestión clave que hay que resaltar aquí es que mientras la teoría
sociológica quizás podría, como señala Vaughan (1996), ser de ayuda para
explicar los rasgos contextuales predominantes que hacían más probable
que pudiera ocurrir algún tipo de desastre en el lanzamiento —por ejemplo,
la cultura organizacional de la NASA y su «normalización de la
desviación» respecto a las cuestiones de seguridad—, difícilmente podría
producir una explicación del hecho de que este desastre particular sí que
ocurrió. Como Popper (1957: 116-117, 143-147) ha sostenido, con el
debido reconocimiento a Max Weber (1906/1949), cuando para explicar
algún «suceso real, singular o específico» hay que invocar varios procesos
causales diferentes, con distintos fundamentos teóricos, la explicación que
resulta no será en sí misma una explicación teórica. Será una explicación
de un tipo bastante diferente; a saber: una explicación histórica, que implica
un relato del despliegue de todos los eventos relevantes previos, incluidas
sus intersecciones contingentes y sus consecuencias —el azar esencial en
funcionamiento— hasta el momento en que el suceso en cuestión se
produce. En suma, lo que está implicada aquí es una narrativa de un tipo
muy específico, ligada al espacio y al tiempo, y necesariamente
proporcionada ex post 36 .
Se puede decir que últimamente el propio Mahoney se ha acercado a la
idea de que las explicaciones históricas son en efecto distintivas porque se
ocupan de las causas de acontecimientos particulares del pasado, y que «la
cuestión de si la explicación podría generalizarse y cómo hacerlo es una
preocupación secundaria» (Mahoney, Kimball y Koivu, 2009: 116). Pero es
extraño encontrar esta afirmación en un trabajo dedicado a la lógica de la
explicación histórica en las ciencias sociales, donde, se supone, la principal
preocupación debe ser la búsqueda de explicaciones teóricamente
fundamentadas que se puedan aplicar más allá de los casos particulares.
Por suerte, pese a los descaminados empujes que ofrecen algunos, no
todos los científicos sociales intentan tan a menudo explicar sucesos
singulares, por lo que la importancia del argumento anterior se hace patente
en realidad en otro caso: cuando los sociólogos intentan explicar sucesos o
complejos de sucesos agrupados bajo una misma rúbrica como si se
caracterizaran por regularidades significativas, pero sin proporcionar
ninguna demostración convincente de esas regularidades. A modo de
ilustración de las dificultades que aquí surgen me referiré a lo que ha dado
en llamarse la sociología de las revoluciones, aunque también podría haber
elegido la supuesta sociología de las crisis económicas o de diversas
trayectorias históricas como, por ejemplo, las «rutas» hacia el autoritarismo
o la democracia o los «caminos» hacia la modernización.
En un artículo de revisión, Goldstone (2003: 50, véase también 1995)
mantiene que se ha logrado un «progreso continuo» en la sociología de las
revoluciones. Este progreso es resultado de la aplicación de procedimientos
esencialmente inductivos a estudios de caso detallados de «conjuntos
finitos» de revoluciones, en lugar del análisis de muestras de revoluciones
tomadas de un «universo predefinido». Goldstone señala que, con la
acumulación de estudios sobre revoluciones concretas, ha aumentado el
conocimiento de los diferentes procesos causales que pueden estar
implicados, lo que ha permitido hacer generalizaciones de mayor alcance y
solidez sobre la existencia de las revoluciones y la posibilidad de
predecirlas. El mismo Goldstone (1995: 45) ha intentado integrar este
trabajo en lo que ha denominado «un modelo de proceso coyuntural» de las
revoluciones. Este modelo propone que una sociedad «se escora [sic] hacia
la revolución» cuando se dan tres condiciones: (i) el Estado pierde eficacia
en su capacidad para controlar los recursos y la obediencia; (ii) las élites
están alienadas del Estado y en conflicto abierto sobre la distribución del
estatus y el poder; y (iii) es posible movilizar rápidamente a una proporción
grande o estratégica de población para que emprenda acciones de protesta.
Como ha observado Tilly (1995: 139-140), estas condiciones son en sí
mismas tan parecidas a las que definen una situación revolucionaria real que
hacen que el modelo de Goldstone tenga un potencial limitado a la hora de
explicar cómo se producen las revoluciones. Pero se puede objetar además
que lo que se afirma empíricamente ni siquiera equivale a una serie de
regularidades establecidas en los procesos sociales conducentes a las
revoluciones que pudieran constituir apropiados explananda sociológicos.
Porque, como Goldstone parece admitir, sus condiciones «coyunturales»
para la revolución no tienden de ningún modo a producirse juntas; el que lo
hagan o no en casos particulares debe considerarse bastante contingente. Y
él sí que reconoce explícitamente que su modelo «no dice nada» sobre las
causas de que las sociedades se muevan hacia una situación revolucionaria,
y sugiere que un tal conjunto fijo de causas no existe (Goldstone, 1995: 45).
Es difícil, por tanto, ver que se esté presentando aquí un argumento
convincente en favor de la viabilidad de una sociología de las revoluciones.
Si la inducción a partir de estudios de caso no conduce al establecimiento
de regularidades empíricas en las precondiciones de las revoluciones, en su
arranque, en su desarrollo, en los factores relacionados con su éxito o
fracaso, etc., sino que revela variaciones crecientemente mayores en los
diferentes casos, entonces la posibilidad de una explicación teórica de las
revoluciones en términos del funcionamiento de procesos sistemáticos
queda claramente debilitada 37 . Y se podría argüir que lo que a su vez se
está indicando es que se debe dar más peso a los factores que son
específicos de los casos individuales, incluyendo su interacción por medio
de la intervención del azar esencial. En otras palabras, lo que parece
apropiado no es una sociología de las revoluciones, sino, en el mejor de los
casos, una historia comparada que, siguiendo a Popper, tendría que
reconocerse como una empresa intelectual de un tipo muy diferente. Es
decir, de un tipo en el que se compararan las explicaciones de las diferentes
revoluciones, con la debida consideración a las concatenaciones particulares
de sucesos implicados, y con una preocupación tanto por la diversidad de
los posibles procesos revolucionarios como por los rasgos comunes 38 .
Es a este respecto interesante descubrir que entre los historiadores
profesionales que estudian las revoluciones se aprecia una tendencia
creciente a menospreciar las presuntas regularidades entre los casos y a
acentuar su particularidad individual. Por ejemplo, el autor del estudio más
completo hasta la fecha de la «Revolución Inglesa» del siglo XVII señala en
el último capítulo lo siguiente: «soy escéptico ante la búsqueda de una
morfología de la revolución en la que encajen las revueltas en Francia en
1789, Rusia en 1917, China bajo el presidente Mao y otras turbulencias
posteriores en otros lugares» (Woolrych, 2002: 792) 39 .
La postura que he adoptado podría considerarse excesivamente negativa
en la medida en que parece imponer límites innecesarios a la ambición
sociológica. Pero los que así piensan harían bien en reflexionar sobre el
hecho de que no hay razón alguna para suponer que el alcance de la
explicación sociológica es infinito —ninguna razón para suponer que puede
existir una sociología de cualquier cosa y de todo— y que, por lo tanto, es
importante tener una idea de dónde y con qué criterios se deben trazar las
fronteras de la explicación sociológica. Es además relevante señalar que la
ambición excesiva tiene sus costes. Así, tras los sucesos de 1989-1990, los
sociólogos tuvieron que encarar muchas críticas por no haber anticipado el
colapso de la Unión Soviética, unas críticas que se podrían haber evitado o,
al menos, haber rechazado eficazmente, si dentro de la disciplina hubiera
habido una clara conciencia y un reconocimiento más explícito de dónde se
requiere una explicación histórica en vez de sociológica. Si ese hubiera sido
el caso, como Hechter (1995: 1523) ha observado, los sociólogos no
hubieran tenido que «agachar la cabeza». En cuanto a la afirmación de
Goldstone (1995) de que, a la luz de su modelo, él habría sido de hecho
capaz de predecir las revoluciones asociadas al colapso de la Unión
Soviética, el comentario de Runciman (1998: 16) es brutal pero ajustado:
«Puede que hubieras podido predecirlas, Jack. Y si hubieras podido,
deberías haberlas predicho. Pero no lo hiciste» 40 .
A modo de conclusión a este capítulo haré algunas observaciones que
pueden ser pertinentes sobre la utilización de métodos lógicos en lugar de
estadísticos en el análisis sociológico, porque las dificultades que surgen
cuando se aplican métodos lógicos sirven para sacar a relucir de otra
manera los riesgos de intentar dar explicaciones sociológicas cuando en
realidad se requieren explicaciones históricas. Los métodos lógicos
cobraron relevancia en la sociología con el temprano estudio de las
revoluciones de Theda Skocpol (1979) —en concreto, con el uso que hace
del «método de la concordancia» y el «método de la diferencia» de John
Stuart Mill (1843/1973-1974). Y aunque parece que Goldstone aplica esos
métodos de modo informal, otros autores, que se sumarían a su compromiso
con el trabajo inductivo a partir de estudios de caso, han intentado ir más
allá de Mill. De forma señalada, Charles Ragin (1987) ha propuesto el uso
de la teoría de conjuntos y el álgebra booleana en lo que ha dado en
llamarse el «análisis cualitativo comparado» (ACC). Es en este método en
el que me centro ahora.
El ACC intenta mostrar las condiciones en las que un resultado
determinado ocurre o no ocurre, tratando las diversas condiciones
consideradas como binarias: de hecho, como presentes o ausentes. Sobre la
base de estudios de casos, se construye una «tabla de verdad» que muestra
qué conjuntos de condiciones se asocian con el resultado que ocurre o no
ocurre, y el álgebra booleana se usa para comprimir la tabla de verdad en
una fórmula mínima. En la versión fuerte del ACC, la ecuación booleana se
considera una «fórmula causal» que proporciona todas las combinaciones
de las condiciones que son necesarias y/o suficientes para que se produzca
el resultado en cuestión. En una versión más débil, que últimamente se
utiliza a menudo —aunque con una gran dosis de ambigüedad (véase, por
ejemplo, Rihoux y Marx, 2013: 168-169)— la ecuación booleana se
considera sólo como un medio para resumir resultados procedentes de
algunos estudios de caso de una forma que suscita o, como mucho, sugiere
explicaciones causales. En esta versión más débil, el ACC podría parecer
una manera posible de establecer regularidades empíricas relativas a
algunos fenómenos sociales que a su vez podrían constituir explananda de
un tipo legítimo.
Sin embargo, ya se considere el ACC como una fuente de fórmulas
causales o como un método esencialmente descriptivo, está expuesto a
serias objeciones por razones tan convincentes como las expuestas por
Lieberson (2004) y Lucas y Szatrowski (2014). Lo que a estos autores les
interesa señalar es que el ACC, como método de análisis lógico más que
estadístico, debe suponer un mundo social bastante determinista en vez de
probabilístico 41 . Es decir, no permite la operación del azar esencial en este
mundo, ni tampoco el azar como simple error en nuestro —supuesto—
conocimiento del mismo (véase Goldthorpe, 2007: vol. 1, cap. 3; Hug,
2013). A su vez, el ACC no es capaz de tener en cuenta el grado en que una
tabla de verdad derivada de los estudios de caso puede contener resultados
efectivamente aleatorios: es decir, como consecuencia de que el mundo
social no es, de hecho, determinista, o como consecuencia simplemente de
un error en los datos. Y por esta razón, las ecuaciones de síntesis booleanas
pueden conducir fácilmente, como Lieberson (2004) afirma, a una «enorme
sobreinterpretación» o, como Lucas y Szatrowski (2014) proclaman, a
explicaciones causales que son simplemente erróneas 42 . Otra manera de
decirlo sería afirmar que puede que el ACC sea a menudo incapaz de
distinguir la señal del ruido. Y Lieberson ha demostrado la posibilidad de
que el ACC pueda producir ecuaciones booleanas a partir de tablas de
verdad que son totalmente ruido: es decir, que se han generado mediante
procesos completamente aleatorios.
Como respuesta a esto, se ha afirmado (por ejemplo, Ragin y Rihoux,
2004) que tales tablas de verdad generadas aleatoriamente se mostrarían
enseguida como tales, en el sentido de que contendrían muchas
contradicciones —es decir, casos de conjuntos idénticos de condiciones
asociadas tanto al resultado de interés que ocurre como al que no ocurre— y
que una de las tareas estándar del ACC es resolver esas contradicciones,
normalmente introduciendo nuevas condiciones antes de seguir adelante.
Pero esta respuesta resulta inadecuada. Mediante simulaciones, Marx
(2010) ha mostrado que no necesariamente surgen contradicciones en las
tablas de verdad generadas aleatoriamente. Lo que resulta crucial es el
número de casos analizados y el número de condiciones implicado. En
concreto, los resultados de Marx (2010: 155) le llevan a sugerir que «las
aplicaciones [del ACC] con más de 7 condiciones (incluido el resultado) y
las aplicaciones en las que la proporción de condiciones sobre los casos es
mayor que 0,33, no son capaces de distinguir los datos reales de los datos
aleatorios». Y su revisión de los estudios que usan el ACC (Marx, 2010:
tabla 4) revela que una proporción considerable de ellos era, de hecho, de
este tipo tan cuestionable.
En la raíz del problema que surge aquí está el hecho de que el ACC,
como un método lógico que supone un mundo determinista, tiene que
intentar explicar satisfactoriamente todos los casos considerados. En
términos estadísticos, debe intentar dar cuenta del 100 % de la varianza en
el resultado de interés. Esto, como Seawright (2005: 16-18) ha señalado,
significa que el ACC tiene que incluir todas las condiciones causalmente
relevantes para el resultado de interés en la población de casos estudiada:
tiene que incluir no sólo las condiciones que operan con cierta regularidad
en los casos, sino también las condiciones bastante «idiosincrásicas» —y,
podría sospecharse, puramente azarosas— que pueden ser relevantes sólo
en uno u otro caso particular. Así, siempre cabe la posibilidad de que el
número de condiciones que se necesite considerar y su ratio con respecto al
número de casos se aproximen a los peligrosos niveles que Marx identifica
y que al parecer a menudo se superan en la práctica 43 .
El propio Marx (2010: 147) lo describe con acierto como un problema
de «lo único». Cuando el número de condiciones identificadas se aproxima
al número de casos analizados, se llega a un punto en el que cada caso debe
considerarse representativo de una configuración única de condiciones: es
decir, no hay regularidades. Llegados a este punto, la posibilidad de
contradicciones queda eliminada, pero la ecuación booleana producida
carece de sentido, pues podría aplicarse por igual a datos aleatorios o a
datos derivados de los casos estudiados. Una manera alternativa de explicar
esta cuestión, por volver al análisis anterior de este capítulo, sería la
siguiente. Cuando se da una situación de este tipo, lo que se está poniendo
de manifiesto es —como en el caso de la supuesta sociología de las
revoluciones— el intento de ofrecer una explicación sociológica para
sucesos que no se caracterizan por la suficiente regularidad como para dar
esa explicación sociológica, ni una explicación teórica de ningún tipo. O,
dicho de otro modo, en la medida en que puede plantearse el problema de
«lo único» en el caso de sucesos o de complejos de sucesos, lo que se
requiere es una explicación histórica en vez de sociológica.
En tanto en cuanto los defensores del ACC proponen una solución a este
problema, parece consistir en que los análisis explicativos se limiten a
poblaciones de casos que se consideran «comparables» en el sentido de que
son «causalmente homogéneos» o, en otras palabras, permiten obtener una
tabla de verdad carente de contradicciones con un número relativamente
pequeño de condiciones. Pero recurrir a poblaciones «construidas» (Ragin,
2013: 173; y véase Goertz y Mahoney, 2009) en vez de a poblaciones que
son definidas independientemente del modelo explicativo que se va a usar
—y, presumiblemente, a la luz de los intereses sustantivos previos del
analista— implica que las condiciones de alcance del modelo se establecen
de una forma bastante arbitraria. Se confunden la descripción de las
regularidades poblacionales y su explicación, y sólo se consideran los casos
que encajan en un modelo explicativo determinado. Si bien todas las teorías
en las ciencias sociales tienden a requerir condiciones de alcance de algún
tipo, el procedimiento apropiado (véase el capítulo 9) debe ser el desarrollo
de teorías para dar cuenta de los explananda establecidos bastante
independientemente, para luego descubrir, investigando más, cuán
adecuadas son esas teorías para las tareas asignadas y cuáles son sus
limitaciones, incluyendo sus condiciones de alcance. De otro modo, se
tiende desde el principio a modelos explicativos que, como un traje mal
cortado, simplemente se adaptan a lo que les toca.
Examinar las dificultades que afrontan los métodos lógicos de análisis,
basados en el supuesto de un mundo social determinista, contribuye a
resaltar los rasgos distintivos de la sociología entendida como una ciencia
de la población fundamentada en el supuesto de un mundo social
probabilista que requiere métodos estadísticos. En este último caso, se
admiten desde el principio dos condiciones que la limitan. Primera, por las
razones explicadas en este capítulo, se acepta que los explananda
apropiados para esta sociología serán sólo sucesos de un cierto tipo:
aquellos que puede mostrarse empíricamente que se expresan en
regularidades probabilísticas en el nivel agregado derivadas de los estados y
el comportamiento de los miembros individuales de las poblaciones. Y,
segunda, se acepta que, como veremos con más detalle en los próximos
capítulos, la varianza en los resultados de interés no se explicará en su
totalidad, sino sólo en la medida en que dicha varianza es resultado de
factores que se considera que operan de una manera sistemática en vez de
idiosincrásica o aleatoria (véase King, Keohane y Verba, 1994: cap. 2
especialmente).

34 Elster también pone ejemplos que, si bien se refieren a sucesos singulares, deben entenderse al
parecer como casos particulares de regularidades. Por ejemplo, «¿por qué ninguno de los treinta y
ocho viandantes llamó a la policía cuando Kitty Genovese fue golpeada hasta morir?» (Kitty
Genovese era la encargada de un bar de Nueva York que fue asesinada cuando volvía a su casa a
primeras horas de la mañana de un día de 1964). Lo que se supone que le interesa a Elster es el
llamado «efecto del espectador», muy estudiado en la literatura de la psicología social, que en
términos generales se podría formular así: «la probabilidad de que los individuos ayuden o
emprendan alguna acción en situaciones de aparente emergencia varía inversamente con la cantidad
de personas que están presentes». En realidad, el caso Genovese no es un ejemplo bien documentado
de este efecto (Manning, Levine y Collins, 2007).

35 Como era biólogo, la preocupación principal de Monod era establecer los elementos
esencialmente azarosos en la evolución. Intentaba mostrar que los procesos por los que se producían
las mutaciones en las secuencias del ADN no tenían ninguna relación con —eran bastante
independientes de— los efectos derivados de la proteína modificada, las interacciones que asegura,
las reacciones que cataliza, etc. En los años sesenta, en King’s College, Cambridge, me beneficié
mucho de mis conversaciones con Jacques Monod sobre «el azar y la necesidad» en la biología y la
vida social.

36 En su libro sobre la decisión de lanzar el Challenger, Vaughan (1996: xiii) dice proporcionar una
«explicación sociológica» de esta decisión, pero también afirma, en la misma página, que
proporciona una «etnografía histórica» de la secuencia de sucesos que condujeron al desastre. Esta
segunda afirmación es más convincente que la primera. El relato detallado de Vaughan de esta
secuencia de sucesos (véase, sobre todo, el cap. 8) sirve de hecho para mostrar cómo el azar esencial
entra en juego de forma crucial en una serie de momentos diferentes.

37 Como indicaré más adelante en este capítulo, debo mencionar aquí que, aunque tengo serias
dudas sobre la metodología que defiende Goldstone —basada en inducciones a partir de «conjuntos
finitos» de casos—, no creo que esa metodología sea en sí misma la fuente de la incapacidad para
establecer regularidades empíricas relacionadas con las revoluciones. Estoy totalmente de acuerdo
con Goldstone (2003: 43) en que los estudios sobre las revoluciones con un N grande basados en
muestras «no han sido tremendamente fructíferos» y de hecho no han supuesto ninguna mejora a este
respecto.

38 En algunas ocasiones, Goldstone y otros que intentan crear una sociología de las revoluciones sí
que han descrito de forma alternativa su objetivo como el de ofrecer un «análisis histórico
comparado» de las revoluciones, pero sin reconocer de forma manifiesta las diferencias que surgen.

39 Véanse también las observaciones de un historiador, revisionista pionero, de la Revolución


Francesa, Alfred Cobban (1965: esp. caps. 1-3), a quien tuve la fortuna de tener de profesor. Su obra
en particular sirve para destacar que el escepticismo del tipo que expresa Woolrych no impide en
absoluto a los historiadores de las revoluciones hacer uso de conceptos sociológicos o de teorías
sociológicas que se han elaborado en otras áreas. Pero la distinción entre la explicación histórica y la
sociológica permanece. Quien lo dude y se incline a seguir a Mahoney y Goertz y creer en la
posibilidad de una explicación sociológica del estallido de la Primera Guerra Mundial, haría bien en
leer la soberbia explicación histórica de Clark (2013) o, al menos, las páginas 361-364 y la
Conclusión.

40 Los economistas también han sido criticados por no predecir la crisis financiera de 2008. Es de
señalar que al menos algunos de ellos han adoptado la postura de que esa predicción está más allá del
alcance de la economía como ciencia social, en particular debido al papel que tienden a representar
las especificidades históricas en los sucesos de este tipo.

41 En una obra posterior, Ragin (2000) ha ido más allá de su formulación original del ACC para
proponer el uso de los conjuntos «difusos» en lugar de los conjuntos «clásicos» que implican
categorizaciones estrictamente binarias. Este nuevo enfoque se aleja de forma significativa del
análisis lógico para acercarse al estadístico en el sentido de que implica una medición —aunque
bastante rudimentaria y a menudo arbitraria— del grado de pertenencia de los casos a conjuntos
particulares; y también sirve para hacer posible una comprensión de la causación que es
probabilística en lugar de determinista, aunque a costa de incurrir en oxímoron tales como «casi
necesario» y «casi suficiente». Por lo tanto, no considero el ACC de conjuntos difusos en el examen
presente de las dificultades relacionadas con el análisis puramente lógico. Sin embargo, como
muestran Krogslund, Choi y Poertner (2015), los resultados del ACC con conjuntos difusos son muy
sensibles a cambios bastante pequeños de los parámetros empleados para «calibrar» la pertenencia al
conjunto y aplicar luego la minimización booleana. Se plantea entonces la pregunta de qué es lo que
se puede hacer con el ACC con conjuntos difusos que no se puede hacer con menos dificultad y más
fiabilidad mediante los métodos estadísticos existentes como, por ejemplo, la modelación loglineal o
el análisis de clases latentes (que veremos en el capítulo 7). Como Achen (2005: 29) ha comentado,
el repetido aserto de Ragin de que los métodos cuantitativos de análisis de datos en las ciencias
sociales se limitan a los análisis de regresión que estiman efectos netos, independientes del contexto,
es una «afirmación sin duda desconcertante».

42 Curiosamente, Lucas y Szatrowski (2014) intentan ilustrar su caso mostrando que un análisis
ACC de la causa —inmediata— del desastre del Challenger, examinado antes en este capítulo, ofrece
una explicación que es contradictoria con la aceptada generalmente por los ingenieros y la Comisión
Presidencial de Investigación: es decir, que el desastre se produjo simplemente por el fallo de las
juntas del motor de aceleración a temperaturas bajas. El análisis ACC implicaría que una interacción
con otros factores fue necesaria para que ocurriese el desastre, a pesar de que no existe evidencia
independiente al respecto.

43 Incluso cuando el ACC se aplica a bases de datos con una N bastante grande (por ejemplo, véase
Cooper, 2005), sigue planteándose el problema de la sobreinterpretación en el sentido de que las
ecuaciones booleanas que se pueden formular implican complejos efectos de interacción que, si se
incorporan en, por ejemplo, un modelo loglineal, se demostrarían estadísticamente no significativas
o, dicho de otro modo, podrían reflejar fácilmente aspectos azarosos de los datos (véase Krogslund,
Choi y Poertner, 2015: 50-51).
5. La estadística, los conceptos y
los objetos de estudio sociológico

La estadística debe considerarse una disciplina fundacional para la


sociología como ciencia de la población en el sentido de que, como medio
para establecer regularidades poblacionales, conforma en realidad los
explananda u «objetos de estudio» de la sociología, aunque siempre en
conjunción con los conceptos que elaboran los sociólogos.

En una ciencia de la población, con independencia de cuáles sean sus


intereses sustantivos, se requieren métodos estadísticos para realizar la tarea
primordial de establecer el alcance y la forma de las regularidades
poblacionales. Como veremos con más detalle en los capítulos 6 y 7, la
estadística contribuye en efecto de forma crucial, tanto en la recogida como
en el análisis de datos, a la sociología entendida como una ciencia de la
población. Sin embargo, antes es importante considerar por qué, en otro
sentido más profundo, es fundamental para la sociología.
A este respecto, un trabajo realizado por un destacado historiador de la
estadística, Stephen Stigler (1999: cap. 10), nos ofrece pistas clave. Stigler
se propone poner de manifiesto las diferencias significativas entre el papel
que han llegado a representar los métodos estadísticos en las ciencias
sociales y los usos que previamente se han hecho de esos métodos en varias
ciencias naturales.
Stigler empieza por señalar que los métodos estadísticos se llevan
utilizado ampliamente en astronomía desde el siglo XVIII. Ahora bien, se
utilizaban para un propósito específico; a saber: el de controlar el error
observacional. Para estudiar las posiciones y los movimientos de los
cuerpos celestes, los astrónomos creían que disponían de una teoría correcta
que los guiaba —la teoría newtoniana—, y el propósito primordial de sus
observaciones era poder cuantificar dicha teoría en sus aplicaciones
concretas. Por ejemplo, dado que Júpiter se movía trazando una elipse
alrededor del Sol, lo que querían saber eran los coeficientes de la ecuación
de esa elipse. Pero al realizar ese tipo de tareas, los astrónomos se topaban
con la dificultad de que los diferentes observadores, o quizás el mismo
observador en diferentes momentos, producían diferentes resultados: es
decir, las observaciones astronómicas estaban sometidas a error. Entonces
se consideró que la solución eran los métodos estadísticos: un medio para
distinguir efectivamente la verdad del error. Ahí fuera había valores
verdaderos que esperaban ser identificados, y con dispositivos tales como la
«curva de error» —o distribución normal— gaussiana y el método de los
mínimos cuadrados, un precursor de la regresión, las observaciones que
tendían al error podían procesarse para obtener las mejores estimaciones
posibles de esos valores verdaderos: es decir, mediante la media de la
distribución o la línea de los mínimos cuadrados.
Stigler observa además que desde la mitad del siglo XIX los primeros
científicos del comportamiento, como Fechner, Ebbinghaus y Peirce,
también empezaron a aplicar métodos estadísticos, notablemente en
estudios «psicofísicos» de fenómenos tales como la sensibilidad, los
momentos de reacción y la memoria. En este caso, el propósito no era lidiar
directamente con los problemas del error observacional, sino intentar
protegerse contra las inferencias erróneas derivadas de observaciones
hechas con un diseño experimental adecuado. En particular, se usaron
técnicas de aleatorización para crear una «línea de referencia» con la que
poder valorar con fiabilidad los efectos experimentales obtenidos bajo
condiciones que variaban sistemáticamente 44 . Stigler (1999: 193) sugiere
que el diseño experimental estadísticamente informado proporcionó «un
novedoso sustituto del anclaje de la ley de Newton» de la que disfrutaban
los astrónomos. Y, una vez más, al igual que les ocurrió a los astrónomos, el
supuesto subyacente era que ahí fuera se estaba estudiando una realidad
bastante independiente, y que la estadística era simplemente el medio para
adquirir un mejor conocimiento de esa realidad.
Sin embargo, lo que le interesa mostrar a Stigler es que el creciente uso
desde finales del siglo XIX de los métodos estadísticos en las ciencias
sociales creó una nueva y más compleja situación. Para los científicos
sociales, que carecían de un equivalente a la teoría newtoniana o, en la
mayor parte de los casos, de oportunidades para la investigación
experimental, los métodos estadísticos adquirieron un papel
significativamente diferente y de hecho más importante. Servían no sólo
como un medio para obtener un conocimiento menos tendente al error y
más fiable de los objetos de estudio independientes, sino también como un
medio de crear por sí mismos esos objetos de estudio.
La obra de Quetelet (1835/1842, 1846, 1869) antes mencionada empezó
a marcar la diferencia. Mientras para los astrónomos la distribución normal
expresaba simplemente la distribución de los errores en torno a los valores
verdaderos que ellos intentaban encontrar, para Quetelet, y para aquellos de
sus seguidores que fundaron la sociología cuantitativa, la distribución
normal era de interés sustantivo. Si se podían establecer tasas de
matrimonio, nacimientos fuera de matrimonio, suicidio, delincuencia y
cuestiones de este tipo respecto de la población, podría considerarse que
definían, por medio de su centro, atributos probabilísticos de l’homme
moyen o, efectivamente, de l’homme type de la sociedad particular en
cuestión (véase también Goldthorpe, 2007: vol. 2, cap. 8) 45 . Como se vio
en el capítulo 1, Quetelet se alejó luego de ese pensamiento tipológico
simple para reconocer la realidad y la importancia de lo que podríamos
llamar variación subpoblacional. Sin embargo, sólo con la obra de Galton
(1889a) y sus sucesores la estadística de la variación desbancó
decisivamente a la de las medias, lo que condujo al desarrollo de los
métodos modernos de análisis multivariable de datos de nivel individual 46 .
Y fue al término de la transición desde el pensamiento tipológico al
pensamiento poblacional (véase Mayr, 1982: 47) cuando se puso
completamente de manifiesto que el papel representado por la estadística en
las ciencias sociales era «fundamentalmente diferente de su papel en buena
parte de la ciencia física» (Stigler, 1999: 199). Los resultados que se
obtenían ajustando un modelo estadístico a los datos observacionales —en
otras palabras, las regularidades probabilísticas así mostradas— constituían
en sí mismos lo que existía para ser luego analizado y explicado.
Si entonces se considera que las estadísticas son de ese modo
fundacionales para las ciencias sociales en un sentido más profundo del que
a menudo se percibe —es decir, en tanto crean sus objetos de estudio—,
probablemente surjan preguntas sobre lo que podríamos llamar el estatus
ontológico de estos objetos. ¿Qué «realidad» afirman expresar? Stigler
(1999: 199) los consideraría «no menos reales» que los objetos de estudio
de la ciencia física. Y esta posición encuentra apoyo en un lúcido trabajo de
Louçà (2008). En su defensa de la estadística como «motum de la
revolución moderna en la ciencia», Louçà observa que la estadística se
desarrolló históricamente bajo dos supuestos diferentes. Al principio, la
estadística supuso que el error era enteramente un atributo del observador;
pero más tarde, y con muchas más consecuencias, supuso que el «error» —
en el sentido de la variación con cierto grado de aleatoriedad— era en sí
mismo un atributo inherente de la realidad, social o natural. La estadística
proporciona entonces el acceso a esa realidad. Y Louçà llega a defender —
disintiendo un tanto de Stigler en esta cuestión— que en realidad fue una
ciencia natural, la biología evolutiva, la primera «en ser reconstruida sobre
fundamentos probabilísticos», aunque con modelos tomados de la física
estadística (véase la discusión en el capítulo1).
Sin embargo, aunque la discusión en esta línea es atractiva y obviamente
casa con mi afirmación de que son las regularidades probabilísticas
empíricamente establecidas los explananda adecuados de la sociología
entendida como una ciencia de la población, es necesario abordar otro
problema. Aunque para la sociología así entendida la estadística es
fundacional porque sirve para constituir sus objetos de estudio, hay que
admitir que los métodos estadísticos no pueden cumplir esa función sin
ayuda. Lo pueden hacer sólo y conjuntamente con los conceptos que los
sociólogos crean y hacen operativos en las variables que incluyen en los
análisis estadísticos. Y, por esta razón, cabe pensar que volverá a
cuestionarse el estatus ontológico de esas regularidades que pueden ser
demostradas mediante tales análisis.
En las ciencias naturales se ha supuesto —aunque con cierto desacuerdo
(véase más adelante en este capítulo y, para una revisión, Bird y Tobin,
2010)— que al menos ciertos esquemas conceptuales básicos pueden
tomarse como si se refirieran a «tipos naturales», o que se puede pensar que
distinguen entre entidades ya claramente separadas por su naturaleza. Las
clasificaciones de las partículas físicas fundamentales o de los elementos
químicos son ejemplos obvios. Pero, cualquiera que sea la fuerza del
argumento para creer que, conceptualmente, el mundo natural se puede
«separar por sus articulaciones» —por usar la expresión de Platón 47 —,
pocos lo considerarían posible en el caso del mundo social. Los conceptos
aplicados en las ciencias sociales, más que venir «dados» directamente por
el modo en que el mundo social es realmente, son aceptados generalmente
como productos de los esfuerzos humanos para comprender cognitivamente
ese mundo, por lo que es posible adoptar découpages conceptuels bastante
diferentes y quizás rivales y en conflicto.
A los efectos de lo que aquí nos ocupa, la pregunta crucial que se plantea
es la siguiente: ¿son las regularidades que la sociología como una ciencia de
la población intenta constituir como sus explananda básicos —resultantes
de análisis estadísticos informados por algún enfoque conceptual particular
— nada más que construcciones de tipo arbitrario? En otras palabras, ¿son
el simple resultado de aplicar uno entre una amplia variedad de otros
posibles enfoques conceptuales, que, además, bien podría ser
«inconmensurable» y, por lo tanto, no permitir una valoración de su
idoneidad para representar la realidad social? Los «constructivistas»
extremos, como los asociados a la llamada sociología de la ciencia
«posmertoniana», proclamarían que efectivamente ese es el caso.
Afirmarían que no hay entidades —ni siquiera en el mundo natural— que
se pueda suponer que existen con independencia del modo en que se forman
conceptualmente y que, por consiguiente, como Woolgar (1988: 73) ha
señalado, «no hay ningún objeto más allá del discurso». Sin embargo,
parece que apenas hay razones para aceptar esa posición —y mucho que
decir para rechazarla, tanto en lo que se refiere a las ciencias sociales como
a las naturales 48 .
Como Popper (1994: cap. 2 esp.) afirmó en su esfuerzo por desvelar «el
mito del marco», los diferentes enfoques conceptuales no necesariamente
han de ser inconmensurables; de hecho, a menudo y en cierta medida, sí se
pueden «traducir» uno a otro. Por ejemplo, Copérnico pudo mostrar cómo
todas las observaciones astronómicas que encajaban en un sistema
geocéntrico podían encajar, con un método simple de traslación, en un
sistema heliocéntrico. Es más, cuando la traducción entre los diferentes
enfoques no es posible, aún quedan procedimientos racionales para hacer
evaluaciones comparativas de ellos. En particular, se puede considerar,
primero, la medida en que los diferentes conceptos se pueden aplicar
efectivamente en la investigación y, segundo, la medida en que, cuando se
aplican, son reveladores para los fenómenos de interés sustantivo.
Por lo que se refiere a la aplicabilidad de los conceptos en la
investigación, la consideración clave es hasta qué punto se pueden expresar
mediante instrumentos de medida —clasificaciones, escalas, etc.— con un
grado adecuado de fiabilidad y validez (en referencia a las ciencias
humanas y sociales, véanse, por ejemplo, Carmines y Zeller, 1979;
Bohrnstedt, 2010). La «fiabilidad» hace referencia al grado en que se puede
aplicar de forma consistente un instrumento mediante el cual un concepto se
hace operativo como variable, de forma tal que, por ejemplo, ofrezca los
mismos resultados en las condiciones en las que de hecho debería hacerlo.
Existen varios test de fiabilidad bien establecidos. La «validez» es una idea
más compleja, de la que se pueden distinguir varias formas. Pero la más
importante —llamada normalmente validez de «constructo»— se refiere al
grado en que un instrumento demuestra empíricamente que capta lo que
supuestamente debe captar en términos conceptuales 49 . Por tanto, lo que
hay que resaltar aquí es que los argumentos sobre los méritos de un
concepto o un esquema conceptual frente a otro apenas pueden tener
sentido si no se basan en la evidencia sobre la posibilidad de que pueda ser
aplicado fiable y válidamente en procedimientos de investigación reales —
pero tal evidencia, una vez producida, puede entonces proporcionar razones
objetivas para las evaluaciones comparativas.
Dados unos conceptos que se han hecho operativos para la investigación
con un grado adecuado de fiabilidad y validez, se puede abordar
empíricamente la pregunta de hasta qué punto su aplicación se demuestra
reveladora. En la discusión sobre los conceptos en buena parte de lo que
pasa por teoría sociológica apenas se encuentra referencia a lo que se ha
logrado cuando se han aplicado en casos específicos. Pero un rasgo
frecuente, al menos de la investigación cuantitativa en sociología, es el
intento de mostrar que se han obtenido casi los mismos resultados a partir
de diferentes enfoques conceptuales en un área de interés dada (en otras
palabras, que esos enfoques son traducibles), o que los diferentes enfoques
tienen ventajas y desventajas en diferentes aspectos, o que un enfoque es en
general más revelador que otros.
Para ilustrar esta idea se podría tomar el caso de la conceptualización de
la estratificación social. Hasta mediados del siglo pasado, la mayor parte de
las discusiones se centraron en la utilidad del análisis de clase marxista en
el contexto del naciente «capitalismo gerencial» y el desarrollo de los
«estratos intermedios» —aunque esas discusiones se desarrollaron
manteniendo una conexión bastante vaga con los estudios empíricos (véase,
por ejemplo, Dahrendorf, 1959). Pero luego, especialmente en Estados
Unidos, se llevaron a cabo esfuerzos orientados a ofrecer procedimientos
para tratar la estratificación social de forma más sistemática, en particular
en la investigación por encuestas de relativa gran escala, mediante el uso de
escalas diseñadas para captar los conceptos del prestigio ocupacional o del
«estatus socioeconómico» ocupacional basados en los niveles de educación
e ingresos (Duncan, 1961; Treiman, 1977). Escalas de este tipo se siguen
produciendo y usando, pero ahora de forma menos amplia que antes; y
desde finales del siglo xx es posible identificar un movimiento de regreso al
uso de los conceptos de clase, aunque son de diferentes tipos: por ejemplo,
los inspirados en Weber, Durkheim y Marx (Wright, 2005). En tiempos aún
más cercanos se puede apreciar un giro hacia un enfoque multidimensional
que implica distinguir entre la clase y el estatus como formas
cualitativamente diferentes de estratificación, así como entre los aspectos
«relacionales» de la estratificación, por un lado, y los aspectos «atributivos»
como la renta y la riqueza o la educación, por otro (Chan y Goldthorpe,
2007; Goldthorpe, 2012).
En el transcurso de estos desarrollos ha surgido mucha discusión e
incluso una gran controversia entre los defensores de las diferentes
posiciones conceptuales. Aun así, es posible discernir algún progreso. Por
ejemplo, las escalas de prestigio ocupacional y de estatus socioeconómico
fomentaron avances con respecto a la fiabilidad, y aunque esas escalas han
demostrado ser vulnerables a las críticas sobre su validez (por ejemplo,
Hauser y Warren, 1997) —es decir, sobre qué pretenden medir exactamente
y cuán bien lo hacen— ha surgido una mayor conciencia de la importancia
de la validez. Esto se ha reflejado en los nuevos esquemas de clase que se
han elaborado. En especial, cuando un esquema se ha considerado o usado
realmente en las estadísticas oficiales, se han realizado comprobaciones
sistemáticas de su validez de constructo (por ejemplo, en el caso de la
Clasificación Socioeconómica de la British National Statistics Office y una
extensión propuesta de esta clasificación para Europa, Rose y Pevalin,
2003; Rose, Pevalin y O’Reilly, 2005; Rose y Harrison, 2010).
Además, el debate sobre los méritos de las diferentes aproximaciones
conceptuales a la estratificación social, mencionado en el párrafo anterior,
se ha desarrollado cada vez más no in abstracto, sino en términos de lo que
revelan o no revelan en sus aplicaciones particulares y de sus consiguientes
ventajas y desventajas para analizar, por ejemplo, la movilidad social
(Marshal et al., 1988: cap. 4; Jonsson et al., 2009; Erikson, Goldthorpe y
Hällsten, 2012) o las desigualdades sociales en áreas como la salud, el logro
educativo y la participación cultural (Jaeger, 2007; Torssander y Erikson,
2009, 2010; Chan, 2010; Buis, 2013; Bukodi y Goldthorpe, 2013; Bukodi,
Erikson y Goldthorpe, 2014). En otras palabras, la atención se ha centrado
en la relación entre los conceptos y la realidad social que pretenden
iluminar tal y como se puede demostrar por medio de la investigación
empírica. Y lo que se ha puesto de manifiesto es que esta relación no es
arbitraria, sino más bien de interdependencia. Mientras los sociólogos son
libres de elegir entre diferentes enfoques conceptuales, la realidad social
puede, por así decirlo, contraatacar, en el sentido de que las elecciones
particulares, una vez hechas, comportarán implicaciones empíricas que se
pueden comparar, para bien o para mal, con las que se derivan de otros
enfoques.
Por último, en relación con todo esto, se puede cuestionar hasta qué
punto surge de hecho una discontinuidad pronunciada entre las ciencias
sociales y las naturales en los procesos de formación de los conceptos y su
aplicación. Considérese, por ejemplo, el concepto de especie, que sin duda
es fundamental en biología. En la era linneana se suponía que las especies
en general hacían referencia a tipos naturales: es decir, a entidades que
existían con bastante independencia de la observación humana. Pero en la
era postdarwiniana, con el reconocimiento de la evolución, la idea de
especie como tipo natural empezó a ser cada vez más problemática, y a día
de hoy ha surgido toda una panoplia de «conceptos de especie». Estos no
sólo implican diferentes comprensiones del número de especies y de los
criterios apropiados para asignar especies a los organismos, sino también
divergencias más básicas —bastante comparables a las que surgen en los
debates sobre la conceptualización en sociología—respecto al sentido, si es
que existe, en que las especies tienen una realidad objetiva y no son
simplemente constructos de los investigadores (véase, por ejemplo,
Pavlinov, 2013).
Al mismo tiempo, sin embargo, cabe señalarse una similitud adicional. A
pesar de lo que ha llegado a conocerse como «el problema de las especies»,
parece que los biólogos siguen siendo capaces de hacer investigación
productiva, y lo hacen de un modo que en mi opinión podría considerarse
que representa la mejor práctica entre los sociólogos: es decir, evitando las
posiciones «realistas» extremas o «nominalistas» 50 extremas y
adhiriéndose, en todo caso de facto, a lo que podría denominarse un
pluralismo conceptual empíricamente disciplinado. Esto significa aceptar
que, en la formación de conceptos, los investigadores sí desempeñan un
papel cognitivo activo no limitándose sólo a reconocer una estructura
inherente de la realidad de la que se ocupan, y que los diferentes intereses u
orientaciones teóricas en la investigación conducen por lo tanto a la
adopción de diferentes posiciones conceptuales. Pero también implica
aceptar que sí existe una realidad independiente de los esfuerzos cognitivos
de los investigadores, que influirá en los resultados que ellos obtengan tras
aplicar los conceptos que defienden y que es por tanto en función de esos
resultados como habrá de juzgarse el valor de esos conceptos 51 .
En resumen, las regularidades probabilísticas que los métodos
estadísticos ayudan a establecer como objeto de estudio de la sociología
como una ciencia de la población —o, como a mí me gusta llamarlas, sus
explananda básicos— son construidas. Se puede decir, de hecho, que son
doblemente construidas: primero, por medio de los conceptos que los
sociólogos convierten en operativos como variables en los análisis
estadísticos; y, segundo, por medio de la forma que adoptan esos análisis.
Sin embargo, estas regularidades no son construcciones de tipo arbitrario
por estar desligadas de la realidad social. Esa realidad no sólo es supuesta,
sino que realmente se expresa —en realidad se hace sentir— por medio de
los resultados que se consiguen de los análisis emprendidos: es decir, si de
hecho se manifiestan o no algunas regularidades y, si se manifiestan, con
qué fuerza, de qué forma, en qué medida en el espacio y el tiempo, etc.
Diferentes versiones de esta realidad tienden a representarse con diferentes
enfoques conceptuales y distintos tipos de análisis estadísticos. Por ejemplo,
un estudio de movilidad social basado en escalas de estatus socioeconómico
y análisis de caminos causales producirá una explicación diferente para la
misma sociedad y el mismo momento que la elaborada por un estudio
basado en un esquema categorial de clases y un modelo loglineal. Pero,
como cabe esperar, cuando se obtienen diferentes explicaciones de distintas
construcciones conceptuales y estadísticas, tales explicaciones se pueden
comparar con el fin de ver qué revela u oculta cada una de ellas, en qué
medida son traducibles entre sí y, caso de que hayan dado resultados
aparentemente contradictorios, cómo ha surgido esa contradicción y cómo
podría resolverse. Y todo esto puede considerarse que forma parte de la
práctica y el progreso científicos normales.

44 Stigler recalca que la introducción de los experimentos aleatorizados se suele asociar a Fisher,
pero añade que al menos Peirce «aclaró qué estaba haciendo y por qué, y sus ‘qué y por qué’ eran los
mismos que los de Fisher» (Stigler, 1999: 193-194).

45 Edgeworth escribió un importante artículo en el que intentaba clarificar la situación distinguiendo


entre «observaciones», cuyas medias son reales, y «estadísticas», cuyas medias son ficticias, es decir,
un constructo del investigador. Así, «... las observaciones son copias del original; las estadísticas son
diferentes originales que ofrecen una ‘descripción genérica’» (Edgeworth, 1885: 139-140). Las
estadísticas a las que Edgeworth se refiere para ilustrar su argumento eran estadísticas económicas —
de precios, exportaciones e importaciones— así como «estadísticas morales» del tipo en el que se
centró Quetelet.

46 A menudo se ha considerado a Durkheim (1897/1952) el gran pionero del análisis multivariable


en sociología por su estudio sobre el suicidio. Sin embargo, mientras Durkheim fue más allá de
Quetelet en el rango de factores que consideró en relación con la varianza en las tasas de suicidio en
las poblaciones nacionales y sus subpoblaciones, y también en sus intentos de explicar esa varianza,
apenas comprendió las «nuevas estadísticas inglesas» que lideraba Galton. Sus análisis no eran de
índole probabilística, sino de tipo lógico y determinista, siguiendo el canon de Mill de la «variación
concomitante». Así, Durkheim no comprendió con claridad el concepto de correlación parcial frente
al de correlación perfecta (véase también Goldthorpe, 2007: vol. 2, 201-203).

47 Fedro 265d-6a. Platón compara la tarea de definir las cualidades naturales y morales con la de un
carnicero cortando carne. La mejor manera de cortarla es siguiendo las articulaciones que ya están
ahí presentes.

48 Parece que muchos sociólogos atraídos por las ideas de los constructivistas extremos, quizá
debido a su aparente «radicalismo», no se percatan de todas sus implicaciones (véase Hacking, 2000:
cap. 3). Lo que se deriva de esas ideas es que un cuerpo de conocimiento científico existente —por
ejemplo, la física contemporánea— debe considerarse de carácter bastante contingente, en vez de
estar de alguna manera determinado por el modo en que el mundo es realmente. Así, por ejemplo, en
circunstancias socioculturales diferentes a las prevalecientes en el pasado, podría haberse
desarrollado una física distinta, no necesariamente menos «exitosa», de la que tenemos hoy. La gran
dificultad que plantea esta posición es que hasta ahora nadie ha sido capaz de dar una idea de en qué
podría haber consistido esa física alternativa. A modo de divertida reductio ad absurdum del
constructivismo extremo —se presume que no intencionada— se puede señalar el cuestionamiento de
Latour (2000) de la conclusión a la que llegaron los arqueólogos que examinaban la momia de
Ramsés II, quien murió de tuberculosis c. 1213 a. C. Dado que el bacilo de la tuberculosis fue
descubierto —es decir, construido— por Robert Koch en 1882, Latour se pregunta si esa conclusión
no es tan «anacrónica» como proclamar que la muerte de Ramsés se debió a una revuelta marxista, al
disparo de una bala o al crack de Wall Street.

49 Otra forma de validez —normalmente llamada validez de «criterio»— hace referencia al grado en
que, cuando un instrumento convierte un concepto en una variable, esta variable correlaciona con
otras variables con las que, en teoría, se espera que correlacione. Por desgracia, no parece haber una
terminología uniforme, y, de hecho, algunos autores aplican los términos validez de «constructo» y
de «criterio» al revés de como yo los uso. Debe señalarse también que el grado de atención que
prestan a la validez de los conceptos las ciencias humanas y sociales parece variar bastante. Quizás
está más elaborada en psicología; pero en economía, donde los conceptos tienden a derivarse bastante
estrictamente de la teoría, apenas se ha tratado la cuestión de cuán válidamente se han hecho
operativos para la investigación, ni siquiera en el caso de conceptos básicos tales como «empleo» y
«desempleo», «renta permanente», «cualificación» y «capital humano». A la sociología se le podría
conceder una posición intermedia, pero es indudable que se beneficiaría mucho si se acercara a la
psicología.

50 Los biólogos, quizá más versados que los sociólogos en historia de la filosofía, tienden a discutir
los problemas fundamentales de la conceptualización más en términos de realismo y nominalismo
que en términos de «construcción social», pero se trata esencialmente de los mismos problemas
(Hacking, 2000: cap. 3).

51 Al respecto de la formación de conceptos en las ciencias sociales, se debe reconocer el problema


especial de la «doble hermenéutica» (Giddens, 1984) o, como lo expresa más llanamente Hacking
(2000, cap. 4), el problema de los «efectos bucle»: es decir, el problema que surge de la posibilidad
de que un concepto, una vez operativo, por ejemplo, en una clasificación, puede interactuar con la
realidad social, en el sentido de que los individuos responden de tal modo al hecho de ser clasificados
que cambian la realidad. Hacking analiza este problema en relación con la clasificación de los
desórdenes mentales y la desviación, pero en esos casos parece que los problemas que desde hace
mucho tiempo los sociólogos comprenden como efectos «de etiquetaje» se manejan sin grandes
dificultades. La afirmación de Hacking (2000: 108) de que en las ciencias sociales las clasificaciones
son «en su mayor parte interactivas» parece muy desatinada (Goldthorpe, 2007: vol. 1, 6-7).
6. Estadística y métodos de
recogida de datos

En la sociología como una ciencia de la población, el papel fundacional


que desempeña la estadística para establecer las regularidades
poblacionales nace, en primer lugar, de la necesidad de métodos de
recogida de datos capaces de dar cabida al grado de variabilidad
característico de la vida social humana, en particular a escala de los
individuos, y de proporcionar así una base adecuada para analizar las
regularidades que tienen lugar dentro de la variación existente.

Durante muchas décadas y hasta el día de hoy, el papel de la estadística en


la sociología ha tendido a crecer de forma constante. Pero al parecer esta
tendencia ha suscitado más críticas —por ejemplo, la de que expresa un
«positivismo» inaceptable— que intentos de explicación: es decir, una
explicación de por qué, a pesar de toda la oposición que han encontrado,
dos metodologías informadas estadísticamente —la investigación mediante
encuestas por muestreo y el análisis de datos multivariable— han terminado
siendo tan centrales para la sociología.
Por lo que concierne a la recogida de datos, que es el tema de este
capítulo, la siguiente observación puede considerarse un punto de partida.
Los editores de un destacado texto sobre la investigación social por
encuesta, Wright y Marsden (2010: 4), hacen la poco discutible afirmación
de que «la encuesta por muestreo se ha erigido como el medio principal de
obtener información sobre las poblaciones humanas modernas», pero dicen
poco, si es que dicen algo, sobre por qué esto debe ser así. Sin embargo, lo
que puede mostrarse y se debe resaltar en el presente contexto es que la
encuesta por muestreo no logró la prominencia de la que ahora disfruta de
una manera más o menos fortuita. La logró porque representaba la solución
definitiva a los dos problemas (estrechamente relacionados) que
persistieron en la investigación social desde mediados del siglo XIX hasta
mediados del XX.
El primer problema era que los datos sobre las poblaciones humanas
obtenidos de los censos y los procedimientos de registro que se
desarrollaron en las sociedades occidentales desde finales del siglo XVIII,
aunque eran inestimables para muchos propósitos, eran limitados en su
alcance de forma considerable, aunque sólo fuera debido al coste que
implicaban. Se requerían por tanto otros métodos de recogida de datos con
los que la limitada cobertura de la población quedara compensada por la
posibilidad de obtener información de un tipo más detallado y de mayor
alcance. Pero con ello surgió el segundo problema. Si la «enumeración
completa» iba a complementarse con estos «estudios parciales» —por usar
el lenguaje de hoy día— era necesario idear una metodología apropiada
para moverse «desde la parte al todo» de una forma fiable.
Un intento de abordar el primer problema fueron los enfoques
«monográficos» en la investigación social, como los que recomendaban y
practicaban Fréderic Le Play y sus seguidores. Le Play propuso, e intentó
llevar a la práctica, una metodología que implicaba un estudio de primera
mano y prolongado de los individuos en el contexto de sus familias y
comunidades —de hecho, una forma temprana de estudio etnográfico de
caso (Zonabend, 1992). Debía recogerse información sobre las condiciones
económicas en las que los individuos vivían, pero con mayor detalle que en
las estadísticas oficiales, e información sobre sus relaciones sociales
primarias, sus historias de vida, sus aspiraciones futuras y sus creencias y
valores morales. Los investigadores tenían que «hablar el mismo lenguaje»
que los hombres y mujeres estudiados y «entrar en sus mentes» (Silver,
1982: 41-75, 171-183).
Esta investigación se diseñó así con la idea de que —por usar la
terminología actual— tuviese un carácter más intensivo que extensivo,
poniendo el acento en las características cualitativas del material obtenido
en cada caso más que en el número de casos estudiado. Así, en la primera
edición de su obra principal, Le Play presentó monografías sobre treinta y
seis familias de clase trabajadora diseminadas por diferentes países
europeos; en la segunda edición, aumentó ese número a cincuenta y siete
(Le Play, 1877-1879). Otros seguidores suyos produjeron colecciones
similares, que trataban principalmente de las condiciones de vida y las
relaciones familiares de la clase trabajadora.
Sin embargo, mientras los seguidores de Le Play introdujeron un modo
de recoger datos sociales que podía ir más allá de lo que era posible con la
enumeración completa, y que de hecho había producido datos de un tipo
hasta entonces poco disponibles —en particular, sobre formas de familia y
presupuestos familiares—, su enfoque empezó a toparse con serias
dificultades para tratar el segundo problema antes mencionado: el de
moverse de la parte al todo. Está claro que los seguidores de Le Play
querían basarse en los hallazgos de sus monografías para avanzar
proposiciones generales sobre las clases trabajadoras europeas; y para
justificarse afirmaban que seleccionaban sus casos porque eran «típicos» —
al menos, decían ellos, de los trabajadores en determinadas ocupaciones,
industrias o regiones. Pero luego no dieron ninguna explicación sólida o
convincente de cómo habían logrado hacer realmente esa selección de la
tipicidad. El propio Le Play sostenía que la guía adecuada para este
propósito se podía obtener de «autoridades locales» como funcionarios,
clérigos o doctores, mientras algunos de sus seguidores proponían que se
eligieran casos que de acuerdo con las estadísticas oficiales fueran en varios
respectos «promedio», recurriendo así a la idea de Quetelet (véanse los
capítulos 1 y 5) de que el promedio representaría el tipo socialmente
significativo y la variación en torno al promedio debía considerarse
simplemente contingente y, por tanto, de escaso interés científico.
Tal vez no sea sorprendente que estos argumentos fueran recibidos en su
momento con una buena dosis de escepticismo —e incluso en algunos casos
con la acusación de que la selección de los casos estaba sesgada a fin de
apoyar las ideas socialmente conservadoras de Le Play 52 . Es decir, el
intento de Le Play de representar la familia extensa como predominante
tanto en la Europa preindustrial occidental como oriental (Laslett, 1972).
Y lo que es más importante todavía, además de las dudas planteadas
sobre la selección de los casos en las monografías, algunos estadísticos
hicieron una objeción aún más básica a su enfoque incluso reconociendo
también la necesidad de ir más allá de la enumeración completa en la
recogida de datos sociales. Una figura destacada a este respecto fue Anders
Kiaer, director general de la Oficina Noruega de Estadísticas desde 1877
hasta 1913. Lo que Kiaer (1895) y otros dijeron fue que la búsqueda de
tipicidad por parte de los monografistas en el diseño de estudios parciales,
aunque se pudiera realizar, era errónea por principio. Y lo era porque las
poblaciones humanas debían estudiarse no sólo en términos de tipos
sociales sino de tal forma que se pudiese considerar, como dijo Kiaer (1895-
1896: 181), «toda la variación de casos que uno encuentra en la vida». Así,
el objetivo de los estudios parciales no debe ser lograr la tipicidad, sino
moverse desde la parte al todo de una manera bastante diferente; a saber:
seleccionando una muestra representativa de la población investigada, una
muestra que sea una «verdadera miniatura de esa población» respecto del
grado total de variación existente entre sus miembros en todos los atributos
que interesan en la investigación 53 . En otras palabras, lo que Kiaer
recomendaba de hecho era un giro desde el pensamiento tipológico al
poblacional en la metodología de la recogida de datos paralelo al que se
estaba produciendo en la metodología del análisis de los datos con el
movimiento desde las estadísticas queteletianas del promedio a las
estadísticas galtonianas de la variación.
El propio Kiaer lideró el método de lo que ha dado en llamarse muestreo
«intencional» (o «discrecional» en algunas ocasiones). Con este tipo de
muestreo los censos y otras estadísticas agregadas se usaron inicialmente
para seleccionar —en terminología moderna— las unidades de muestreo
primarias y secundarias de forma que pudiesen proporcionar una
«correspondencia» general con la población objeto de estudio. Luego se
pidió a los trabajadores de campo que siguieran determinadas rutas dentro
de las unidades secundarias y seleccionaran para sus entrevistas no a
individuos que fueran «típicos» sino a los que, según su propio
conocimiento, representaran mejor el rango total de variación social
existente dentro de la unidad. Terminada la encuesta, su grado de éxito al
producir «una verdadera miniatura» se podría evaluar, según creía Kiaer
(19903), comparando las distribuciones de los entrevistados según distintas
«variables de control», como la edad, el estado civil y la ocupación, con las
distribuciones censales establecidas.
Sin embargo, mientras el muestreo poblacional desarrollado por Kiaer
supuso un claro avance en los estudios parciales, su enfoque no llegó a dar
una solución definitiva al problema de la generalización desde la parte al
todo: es decir, de la muestra a la población. Los estadísticos, más versados
que Kiaer en la naciente teoría de la probabilidad de la época, señalaron que
aquel no había considerado si las discrepancias que sus variables de control
revelaban eran mayores o no que las que cabía esperar por azar; y, además,
que incluso si tales controles parecían satisfactorios respecto de las
distribuciones univariables, ese resultado no necesariamente se extendía a
las distribuciones conjuntas (véanse también Kruskal y Mosteller, 1980;
Lie, 2002) 54 .
La solución al problema de la parte al todo en el contexto de las
encuestas por muestreo llegó únicamente con lo que podría considerarse
otro avance, todavía más significativo, del pensamiento poblacional. Se
trata del desarrollo del muestreo probabilístico o «aleatorio» para sustituir
al muestreo intencional. Con este enfoque, el requisito clave era que cada
uno de los individuos de la población investigada debía tener la misma
probabilidad de ser seleccionado para la muestra o —en formulaciones
posteriores más sofisticadas— una probabilidad calculable y distinta de
cero. Un destacado pionero del muestreo probabilístico fue A. L. Bowley
(1906; véase también Bowley y Burnett-Hurst, 1915), y fue principalmente
de su obra de donde surgió una nueva concepción de la representatividad de
una muestra. De acuerdo con esta nueva concepción, el objetivo del
muestreo no era producir directamente «una verdadera miniatura» de la
población examinada, como Kiaer intentaba hacer, sino producir más bien,
por medio de métodos probabilísticos, una muestra representativa o
«imparcial» en el sentido de que no estuviera sesgada, junto a cierta
estimación del error que probablemente se cometería al hacer inferencias
desde una muestra probabilística aun en ausencia de sesgo.
Durante algún tiempo después de la Primera Guerra Mundial los tipos de
muestreo nuevos y los antiguos coexistieron con alguna dificultad. Pero la
contribución decisiva la aportó nada menos que Neyman, con cuya cita
empieza este libro. En un artículo clásico, Neyman (1934) ofrece una
convincente demostración, basada en razones tanto teóricas como
empíricas, de los riesgos del muestreo intencional y de las ventajas del
muestreo probabilístico y el cálculo de «intervalos de confianza» cuando se
va de la muestra a la población. También fue importante la demostración de
Neyman de cómo el conocimiento previo de la población estudiada, que
representaba un papel importante en el muestreo intencional, podía
incorporarse apropiadamente al diseño de la muestra; a saber: estableciendo
no la selección de las unidades muestrales, sino la «estratificación» inicial
de la población estudiada en subpoblaciones de las que se cree difieren de
maneras relevantes para los propósitos de la encuesta, cada una de las
cuales se podría muestrear probabilísticamente y, si se deseaba, con
diferentes fracciones muestrales 55 .
Después de Neyman, la necesidad del muestreo probabilístico de las
poblaciones en la investigación social se ha ido aceptando cada vez más.
Los defensores de toda forma de muestreo no probabilístico se vieron en la
obligación de adoptar posiciones cada vez más defensivas (Smith, 1997).
Por ejemplo, las variantes del muestreo por cuotas, aunque han seguido
usándose en la investigación de mercado y en las encuestas políticas (a
pesar de conocidos desastres como las elecciones generales británicas de
1992 y posteriormente las de 2015), raramente se juzgan ahora apropiadas
para la investigación científico-social seria. La consideración básica es que
si una muestra no es seleccionada de forma probabilística, siempre existe
una posibilidad no desdeñable de que los procedimientos realmente usados
sean en sí mismos una fuente de sesgo: es decir, puesto que de algún modo
«accederán a» las regularidades sociales existentes en la población
estudiada, será más probable obtener información de los miembros de esta
población que poseen ciertas características que de otros 56 .
Desrosières (1991, 1993: cap. 7 especialmente), revisando esta misma
historia, ha caracterizado las monografías—o, en los términos modernos,
los estudios de caso— y las encuestas por muestreo como dos métodos
diferentes de recogida de datos sociales, cada uno con su propia «lógica»
intrínseca para ir de la parte al todo que refleja diferentes maneras de
concebir las sociedades humanas: de hecho, las expresadas en los
paradigmas holista e individualista, como se vio en los capítulos 2 y 3. La
creciente supremacía de la metodología por encuesta, sostiene Desrosières,
debe entenderse que refleja cambios sociales macro, como el surgimiento
de las democracias populares y el mercado de consumo de masas. Sin
embargo, esta explicación «externalista» de los desarrollos científicos en
cuestión, aparte de depender en gran medida de condiciones históricas
bastante conjeturales, es seriamente deficiente, porque desatiende lo que
sería el centro de una explicación «internalista»: es decir, los procesos por
lo que se identifican, abordan y superan los sucesivos problemas.
Enfrentadas dos «lógicas» diferentes para moverse de la parte al todo, una
de las dos —la derivada del paradigma individualista— se mostró, sobre la
base de la evidencia y el análisis, superior a la otra —la derivada del
paradigma holístico. Y, volviendo al punto de partida de este capítulo, esto
se podría considerar en sí mismo como una explicación suficiente de por
qué las encuestas con selección de muestra probabilística se han convertido
en «el principal medio de obtener información» sobre las poblaciones
humanas: y ello es así porque son la forma de realizar estudios parciales de
esas subpoblaciones, con toda su heterogeneidad, que pueden suministrar la
justificación más convincente para moverse de la parte al todo. Esta
comprensión internalista de la supremacía de la metodología por encuesta
en la investigación social tiene además otras implicaciones más generales
por lo que respecta al menos a dos cuestiones.
Primero, subraya el hecho de que la dificultad que experimentaron los
seguidores de Le Play para demostrar la tipicidad de las monografías o
estudios de caso como base para generalizar a partir de ellas nunca se
superó. Y es difícil, a su vez, no identificar este fracaso como el principal
factor de la decreciente popularidad de los estudios de caso en la sociología
actual, al menos como un medio para caracterizar las poblaciones en las que
se encuentran situados.
A modo de ilustración uno puede fijarse en la marcada caída del número
de «estudios de comunidad» emprendidos en la sociología británica —
también en Estados Unidos y en muchos otros países— tras un periodo,
entre los años treinta y los sesenta, en el que figuraron entre las formas de
investigación social más prominentes. Lo que podría considerarse un punto
de inflexión en Gran Bretaña fue el intento de Ronald Frankenberg, uno de
los discípulos de Gluckman (véase la página 36), de basarse en una
selección de estudios comunitarios para «generalizar a lo grande» sobre la
sociedad británica «en su conjunto» (Frankenberg, 1966: 11-12). La idea
integradora de Frankenberg era la de un continuum «morfológico» —de lo
rural a lo urbano— de tipos de comunidad que se relacionaba
fundamentalmente con el grado de diferenciación de roles entre sus
habitantes. Además de que su relevancia era cuestionable para muchas de
las comunidades a las que Frankenberg intentó aplicarla, está claro que esta
idea no proporcionaba una base convincente para ninguna síntesis general.
En una colección posterior de artículos sobre los estudios de comunidad,
que en parte cuestionaban su futuro (Bell y Newby, 1974), se hacía poca
referencia a la obra de Frankenberg, y cuando se hacía era con actitud
crítica. Se quería señalar así —haciéndose eco de las críticas que hizo Kiaer
a los autores de monografías— el error de suponer que el pensamiento
tipológico podía ser adecuado para captar el alcance real de la
heterogeneidad poblacional. Lo que menoscabó las ambiciones de
generalización de Frankenberg fue no sólo la creciente variación que
expresaba el constante surgimiento de nuevos tipos de comunidad en la
Gran Bretaña de la posguerra —por ejemplo, las ciudades «bimodales»
colonizadas en parte por quienes viajaban a diario para trabajar en la
ciudad, los centros de las grandes ciudades caracterizados por las divisiones
y los conflictos étnicos, y los antiguos barrios de clase trabajadora que se
estaban aburguesando. Mucho más grave fue su desatención a la variación
que había en la vida social de las grandes cantidades de individuos
residentes en áreas urbanas y suburbanas en las que la existencia misma de
comunidades del tipo espacialmente bien definido del que dependía la
tipología de Frankenberg se hubiera considerado muy problemática.
A este respecto, Yin, el autor del texto que es hoy quizá el más destacado
sobre la metodología de los estudios de caso, afirma explícitamente, y en
cierto modo en contra de las posiciones adoptadas por autores anteriores,
que los estudios de caso no deben considerarse generalizables en sentido
estadístico: es decir, no deben generalizarse a las poblaciones (Yin, 2003:
10). Y, en la misma línea, Morgan (2014: 298) admite que no hay reglas
sistemáticas disponibles, análogas a las que se utilizan en el trabajo
estadístico, «para inferir —o transportar— hallazgos más allá del caso
estudiado (o incluso más allá de dos o tres casos estudiados que sugieren los
mismos resultados)». Hay que añadir que más adelante Yin llega a afirmar
que los estudios de caso sí se pueden generalizar, si no a las poblaciones, a
las «proposiciones teóricas» (2003: 10). Lo que esto significa no está del
todo claro. Pero si lo que se está proclamando es que los estudios de caso
pueden tener más valor cuando sirven como medio para ilustrar o, mejor,
comprobar proposiciones teóricas en relación con las cuales se ha hecho
específicamente su selección —por ejemplo, como casos que son en algún
sentido «desviados» o «críticos»—, entonces está claro que el argumento
cobra fuerza. En todo caso, es con este propósito en mente como, en el
contexto de la sociología como una ciencia de la población, podría ser útil y
apropiado emprender estudios de caso (véase también el capítulo 9) 57 .
La segunda implicación de la comprensión internalista de por qué la
investigación por encuesta ha llegado a predominar en sociología es la
siguiente. Cualquier metodología que se demuestre capaz de desbancar, o
siquiera complementar, la investigación por encuesta debe incorporar las
ventajas demostradas de esta investigación para el estudio de las
poblaciones humanas. Esta cuestión es relevante por lo que respecta a los
argumentos que hoy día se exponen a veces —por lo general desde
posiciones externalistas—, sugiriendo que la era de las encuestas sociales
está tocando a su fin, en particular debido a las crecientes posibilidades que
ofrecen los «grandes datos» a la ciencia social.
Por ejemplo, Savage y Burrows (2007) han afirmado que con la
generación y la acumulación de vastas cantidades de datos «sobre
transacciones», especialmente en el sector privado empresarial, el rol
privilegiado de la encuesta por muestreo como medio de obtener
información sobre poblaciones humanas se pone en tela de juicio. En
comparación con la recogida de datos transaccionales, la encuesta por
muestreo es, desde su punto de vista, «un instrumento muy pobre» y es
poco probable que siga siendo «una herramienta de investigación
particularmente importante» (Savage y Burrows, 2007: 891-892) 58 .
Sin embargo, lo que se ha ignorado aquí de forma muy notable es la
magnitud de las deficiencias, evidentes desde el punto de vista de la ciencia
social, que tienen los datos sobre transacciones, como muchas otras formas
de grandes datos, resulten o no de la actividad empresarial u otra actividad
—por ejemplo, los medios de comunicación (Couper, 2013). Para empezar,
cabe esperar que, de los procedimientos mismos con los que se generan los
grandes datos, surjan problemas de sesgo en la selección de la muestra y
por lo tanto de representatividad muestral; y en los casos en los que se
aduce que no han surgido problemas de muestreo porque se han tratado
«todos» los casos, han aparecido otros problemas relacionados con ese
«todos». Es decir, la población de referencia carece de claridad o es de
dudosa relevancia para la ciencia social. Pero todavía es más grave el hecho
de que las grandes bases de datos suelen incluir una serie bastante limitada
de variables, que, además, están relacionadas con preocupaciones
subyacentes al proceso de creación de los datos y sólo por casualidad con
conceptos o teorías sociológicas. Y, a su vez, el objetivo del análisis de esos
datos es, típicamente, como acentúan los entusiastas de los grandes datos
(por ejemplo, véase Mayer-Schönberger y Cukier, 2013: caps. 1-4), hacer
predicciones sobre un resultado determinado a relativamente corto plazo,
buscando pautas de correlación completamente inductivas, sin considerar
apenas la necesidad de proceder desde unas regularidades establecidas
empíricamente hacia explicaciones causales. Los peligros de este enfoque,
incluso para los limitados propósitos que persigue, deberían ser por tanto
evidentes; y, en efecto, algunos «éxitos» que inicialmente se publicitaron
mucho, como el proyecto de Google Flu Trends, han resultado ser
gravemente defectuosos (Lazer et al., 2014).
Por tanto, cualquiera que sea el valor que puedan tener los grandes datos
para «conocer el capitalismo», su valor para la ciencia social, al menos por
ahora, sigue estando en entredicho. Desde luego que los sociólogos deben
estar dispuestos a usar datos al margen de su procedencia si son útiles para
sus propósitos. Algunas formas relativamente antiguas de grandes datos,
como los registros nacionales de los países nórdicos, que proporcionan
información detallada sobre la renta o la educación de los individuos, son
recursos sumamente valiosos que se han explotado ampliamente. Pero lo
que autores como Savage y Burrows no comprenden es que de poco valdrán
unos grandes datos que no cumplan los estándares que se han establecido
por buenas razones científicas. Los problemas de la calidad de los datos y
su idoneidad para el propósito elegido no se pueden ignorar. Como Cox y
Donnelly (2011: 3) han señalado acertadamente, «una gran cantidad de
datos no es sinónimo de una gran cantidad de información». Y, en efecto,
cuando se analizan grandes bases de datos de baja calidad, especialmente
con métodos inductivos de «dragado de datos», el riesgo de producir
resultados negativos es grande: es decir, que se confunda el ruido con la
señal (Silver, 2012) y se produzcan resultados esencialmente arbitrarios y,
por lo tanto, erróneos 59 .
Finalmente hay que señalar aquí que, lejos de haber indicios de que la
investigación por encuesta muestral está entrando en un periodo de declive,
sorprende la creciente cantidad de este tipo de investigación que se
emprende en nuestros días y el aumento de la sofisticación en el diseño y
ejecución de las encuestas. Es más, entre los avances más importantes
realizados están los que menoscaban las críticas al uso que se han hecho a
la investigación por encuesta, en especial las expresadas desde posiciones
holísticas que mantienen que la concepción de la sociedad que tal
investigación implica es indebidamente atemporal y atomista 60 .
Por una parte, el desarrollo en las últimas décadas de encuestas
transversales repetidas a la misma población y de encuestas longitudinales o
paneles a la misma muestra de individuos ha cobrado mucha importancia
para la comprensión de los procesos de cambio social. En particular, las
encuestas longitudinales son cruciales para la compleja tarea de separar la
influencia en los cursos de vida individuales que ejercen los efectos de
periodo, cohorte y edad o ciclo vital; o, en otras palabras, para cumplir el
requisito que propuso Wright Mills (1959) —que otrora fue un estridente
adversario de la investigación por encuesta— de que uno de los focos de la
investigación sociológica debería estar en la intersección de la historia y la
biografía. Y un rasgo general de los análisis basados en datos de encuesta
de este tipo es su demostración de cómo, por medio de esos diferentes
efectos, se crea una diversidad notable en los cursos de vida de los
individuos (véase, por ejemplo, Ferri, Bynner y Waldsworth, 2003) —
justificando plenamente el argumento de Wrong (véase la pág. 32) de que
esa diversidad siempre tenderá a representar una poderosa fuerza
compensadora contra las tendencias homogeneizadoras de la aculturación y
la socialización.
Por otra parte, los diseños de encuesta jerárquicos, en los que se
muestrean primero entidades supraindividuales y luego los individuos
dentro de esas entidades, permiten específicamente reconstruir el
funcionamiento de los efectos «de contexto» en los cursos y elecciones
vitales de los individuos: es decir, los efectos de la composición y la
estructura social de los grupos, redes, organizaciones, asociaciones,
comunidades y otras entidades a que pertenecen. Y, a su vez, tales diseños
hacen posible valorar la importancia de los efectos de contexto en
comparación con los de las características variables propias de los
individuos.
En los estudios de caso de inspiración holística, a menudo se supone
simplemente que los efectos de contexto son generalizados. Por ejemplo, en
los años cincuenta y sesenta esta suposición apuntaló buena parte del
trabajo del Instituto de Estudios Comunitarios de Londres. Como Platt
(1971: 75-77, 96-98 especialmente) ha observado, se consideraba que la
composición por clase social de las comunidades locales moldeaba la vida
de sus miembros —pero sin siquiera considerar la pregunta de si, y en qué
medida, podían demostrarse efectivamente esos efectos de contexto con
independencia de los efectos de las propias posiciones de clase de los
individuos 61 . Sin embargo, en la investigación basada en diseños
jerárquicos de encuesta, mientras los efectos de contexto suelen hasta cierto
punto relacionarse con los resultados de interés, muy frecuentemente se
considera que son claramente menos importantes que los efectos de las
variables de nivel individual —como, por ejemplo, en el caso de los efectos
de la escuela en el rendimiento académico de los niños. En otros casos, los
efectos de contexto resultan ser difíciles de separar de los efectos de
selección individuales —como, por ejemplo, los efectos del distrito
electoral o el vecindario en el comportamiento de voto. A este último
respecto, es también relevante señalar que en los últimos años el
tratamiento inadecuado de los efectos de selección ha pasado a ser el centro
de las críticas (véase, por ejemplo, Lyons, 2011) a las pretensiones
exageradas de algunos analistas de redes sociales según los cuales las redes
ejercen un «poder asombroso» en la vida de los individuos y operan como
«un tipo de superorganismo individual» (Christakis y Fowler, 2010: xii). La
pregunta crucial que se plantea aquí es en qué medida sus redes influyen en
los individuos o hasta qué punto son los individuos quienes eligen sus redes
y luego influyen en ellas 62 .
El objetivo principal de este capítulo ha sido mostrar que las encuestas
por muestreo probabilístico constituyen una metodología estadísticamente
informada que es fundacional para la sociología como una ciencia de la
población: es decir, que este tipo de encuestas constituye el mejor medio
hasta ahora ideado para moverse de la parte al todo cuando se relaciona el
grado de cobertura de la población con la información contenida en la
recogida de datos sobre las poblaciones humanas. A la luz de lo dicho se
puede afirmar también que el avance de la metodología de las encuestas ha
contribuido significativamente, por sí mismo, al desarrollo del pensamiento
poblacional frente al tipológico en sociología. En particular, ha aumentado
la conciencia del grado de variación individual, especialmente cuando se
adopta una perspectiva de curso de vida, y de los límites del grado en que
esta variación se ve modificada por la pertenencia de los individuos a
entidades supraindividuales. A este respecto interesa mencionar un
comentario del autor de un destacado texto sobre la modelación de datos
procedentes de diseños de encuesta más sofisticados. Hox (2010: 8) observa
que, mientras la sociología era para Durkheim una ciencia «que se centra
principalmente en las constricciones que la sociedad impone a sus
miembros», hay ahora buenas razones para invertir en cierto modo ese
enfoque: es decir, para centrarse en el grado en que los rasgos de las
entidades socioculturales están moldeados por las acciones de los
individuos que pueblan o poblaron esas entidades.

52 Se señaló que cuando las «autoridades locales» guiaban la selección de los casos era de esperar
que eligieran familias que apoyaban el statu quo en vez de familias que eran de uno u otro modo
disidentes; y las sospechas de sesgo conservador se hicieron aún mayores cuando se supuso que la
atipicidad implicaba no sólo desviación estadística sino también social. Varios reestudios realizados
sobre las localidades que estudió Le Play han defendido que existía menos armonía en las relaciones
comunitarias y laborales y una menor satisfacción con el orden prevaleciente de lo que Le Play había
indicado (véanse Lazarsfeld, 1961; Silver, 1982: 54-75).

53 Un poderoso eco de este argumento es el estudio sobre los presupuestos familiares de la clase
trabajadora realizado por Halbwachs (1912), quien critica a Le Play por concentrarse en casos
supuestamente típicos desatendiendo todo el rango de variación existente que es posible mostrar.

54 Esta última puntualización la hizo von Bortkiewicz en una reunión del Instituto Internacional de
Estadística en 1901 (Kruskal y Mosteller, 1980), y más tarde la volvió a hacer en una crítica a la
investigación de Max Weber sobre los trabajadores industriales de Alemania (Verein für
Sozialpolitik, 1912). Este estudio de Weber (1908) y otro que hizo antes sobre los trabajadores
agrícolas del este del Elba (Weber, 1892), podrían considerarse, junto al estudio de Charles Booth
(1889-1903) sobre la pobreza en Londres, como estudios que intentaban acortar la distancia entre los
censos y las monografías, pero sin exponer la lógica subyacente para ir de la parte al todo —o, al
menos, ninguna que pudiera aplicarse de forma general.

55 Intuitivamente podría parecer que en los debates de los años de entreguerras hablaba contra el
muestreo probabilístico su aparente desatención a todo conocimiento previo de la población. Más
tarde, Neyman (1952: 122) revelaría que él mismo se había preguntado «cómo funcionaba en la
práctica ese muestreo probabilístico». Quedó tranquilo cuando se realizó un ensayo dirigido por él en
un estudio sobre la estructura de la clase trabajadora polaca emprendido por Jan Pieckalkiewicz
(1934). La obra Lectures and Conferences on Mathematical Statistics and Probability de Neyman
(1952) está dedicada a la memoria de Pieckalkiewicz, asesinado por la Gestapo en 1943, y a otros
antiguos colegas de Neyman de Varsovia que murieron en la Segunda Guerra Mundial.

56 Con las muestras por cuotas el primer problema que se plantea es en qué medida la configuración
de la muestra —las «cuotas»— se corresponde con la de la población en las variables de control
seleccionadas. Pero un problema ulterior es hasta qué punto la práctica de tomar sustitutos de los
individuos que se niegan a ser entrevistados —que a menudo asciende a la mitad prevista— para
respetar las cuotas no crea un «sesgo de disponibilidad». Este sesgo parece que fue un factor
importante del fracaso de las encuestas de las elecciones generales británicas de 1992. Debe añadirse
que en algunos casos la naturaleza misma del problema de investigación abordado puede implicar
que el muestreo probabilístico de la población investigada no sea práctico y que sea necesario usar
otros métodos: el muestreo por «bola de nieve» de poblaciones que están «ocultas» debido, por
ejemplo, a las actividades subversivas o desviadas de sus miembros (Salganik y Heckathorn, 2004), o
el muestreo requerido en la investigación de redes sociales cuyo objetivo es ir más allá de las redes
«centradas en ego» hacia las «completas». Pero lo importante es que en esos casos se realice el
intento de evaluar la muestra obtenida frente al «patrón oro» que proporciona el muestreo
probabilístico.

57 Cuando era estudiante de posgrado en sociología, me pusieron el estudio de Lipset, Trow y


Coleman (1956) sobre la democracia en el Sindicato Tipográfico Internacional como mejor ejemplo
de análisis de caso desviado —es decir, en relación con «la ley de hierro de la oligarquía» de
Michels. Este trabajo influyó después en el diseño del estudio sobre el «trabajador próspero» en el
que participé y que tomaba a los obreros relativamente bien pagados de la rápidamente creciente
ciudad industrial de Lutton como un caso crítico para comprobar la hipótesis del progresivo
aburguesamiento de la clase obrera (Goldthorpe et al., 1969).

58 Al criticar abiertamente la investigación por encuesta, Savage y Burrow hacen sólo una
puntualización pertinente: que esta investigación afronta actualmente el problema de unas tasas de
respuesta decrecientes y posiblemente cada vez más sesgadas. Sin embargo, luego no dicen nada de
los importantes avances que se han hecho recientemente para abordar este problema con métodos
para la ponderación de la no respuesta o para la imputación múltiple de los datos perdidos.
59 De hecho, es en esta línea en la que se han expresado críticas convincentes (Mills, 2014) contra
los esfuerzos de Savage (Savage et al., 2013) por construir un «nuevo mapa de las clases sociales» de
Gran Bretaña basándose en grandes datos muy sesgados procedentes de individuos autoseleccionados
que respondieron a una encuesta de internet —complementados con datos añadidos procedentes de
una encuesta a muestras por cuotas cuyo grado de representatividad no es posible estimar
fiablemente.

60 Para una revisión de estas críticas, y una poderosa respuesta a ellas, escrita en el momento álgido
de «la reacción contra el positivismo», véase el valiente libro de Cathie Marsh (1982), cuya trágica
muerte a edad temprana privó a la investigación por encuesta de Gran Bretaña de una de sus grandes
promesas.

61 Más recientemente pueden encontrarse en la literatura supuestos no fundamentados que asocian el


riesgo individual de pobreza o de «exclusión social» a los efectos contextuales de vivir en distritos
marginados del centro de las grandes ciudades o en «infraviviendas».

62 La preocupación particular de Lyon es la afirmación de Christakis y Fowler de que la influencia


de pertenecer a una determinada red social aumenta el riesgo de obesidad. Un problema más general
de la existencia o la fuerza de los efectos de contexto respecto de la salud y el bienestar también se ha
planteado en los debates sobre la obra de Wilkinson y Pickett (2010): es decir, sobre su argumento de
que los efectos adversos de la desigualdad económica operan no sólo en el nivel individual sino
también, y de forma más importante aún, en el nivel societal. Las revisiones de la investigación que
indican que la evidencia de esos efectos de contexto es, en el mejor de los casos, fragmentada (por
ejemplo, Lynch et al., 2004; Leigh, Jenks y Smeeding, 2009) no han recibido ninguna respuesta seria
de Wilkinson y Pickett, y los diagramas de dispersión bivariables en los que sobre todo se basan
apenas apoyan su argumentación: se requieren análisis basados en diseños de encuesta jerárquicos y
modelos multinivel apropiados.
7. Estadística y métodos de
análisis de datos

En la sociología como una ciencia de la población el papel fundacional que


desempeña la estadística para establecer las regularidades poblacionales
nace, en segundo lugar, de la necesidad de métodos de análisis de datos
capaces de demostrar la presencia y la forma de las regularidades
poblacionales que surgen de la variabilidad de la vida social humana.

En este capítulo me muevo desde el papel que desempeña la estadística para


conformar los métodos de recogida de datos en la sociología como una
ciencia de la población —por medio de la investigación por encuesta a una
muestra— al que desempeña para conformar el análisis de los datos —por
medio de que lo que ha llegado a conocerse como «análisis multivariable».
De hecho, en las ciencias sociales, la investigación por encuesta a muestras
y el análisis multivariable de datos están muy relacionados; en muy buena
medida han evolucionado juntos.
Para que las encuestas puedan captar el grado de variabilidad en la vida
social del hombre o, en otras palabras, la heterogeneidad poblacional, debe
especificarse la naturaleza de esa heterogeneidad, o de la parte de ella que
interesa en la investigación: es decir, deben concebirse las variables. Esto
implica, por volver a lo dicho en el capítulo 5, la formación de conceptos
adecuados y el desarrollo de clasificaciones o escalas para poder hacer esos
conceptos operativos en variables con un grado apropiado de fiabilidad y
validez. A su vez, los datos procedentes de la investigación por encuesta
expresados en forma de variables se convierten en el material con el que
poder aplicar métodos de análisis multivariado a fin de revelar —de hacer
visibles— las relaciones, quizás bastante complejas, que existen entre las
variables. Y es con esta forma de modelado estadístico de datos sociales, a
la manera que sugiere Stigler, como se forman los objetos de estudio de la
sociología: las regularidades de la población que emergen de la variabilidad
individual y constituyen los explananda sociológicos apropiados.
El término «sociología de las variables» se ha usado a menudo
peyorativamente en los ataques contra la sociología cuantitativa desde
posiciones «antipositivistas» y desde otros frentes. Es, sin embargo,
importante señalar que los dos tipos de críticas que se plantean son muy
diferentes, aunque no es raro que se confundan.
Una objeción (véanse, por ejemplo, Abbott, 1992; Esser, 1996;
Sorensen, 1998) se refiere al modo en que, en el análisis sociológico
desarrollado en términos de relaciones entre variables, la acción y la
interacción individuales que subyacen a esas relaciones se pueden perder de
vista, lo que ocurre a menudo. Así, no sólo la descripción de las
regularidades sociales sino también su explicación se dan en el nivel de las
variables: la explicación consiste simplemente en mostrar hasta qué punto
las variables consideradas independientes pueden «dar cuenta»
estadísticamente de la variable dependiente de un análisis. En otras
palabras, son las variables en vez de los individuos las que «realizan la
acción». Con este argumento estoy sustancialmente de acuerdo, y a él
volveré en el capítulo 8.
Hay una segunda objeción de un tipo más radical, pero en mi opinión
mucho menos convincente. Esta objeción se remonta cuando menos a
Blumer (1956) y apunta a que pensar en términos de variables es
inadecuado porque mucho de lo que es importante en la vida social del
hombre no se puede «reducir» a una variable, ni siquiera con propósitos
descriptivos. En parte, esta crítica se basa simplemente en ejemplos de lo
que podría identificarse como malas prácticas de la sociología de las
variables: una conceptualización inadecuada, deficiencias en el modo en
que los conceptos se hacen operativos, etc. Pero en la medida en que, en
principio, deba considerarse una crítica, presenta una debilidad importante:
sus defensores han sido incapaces de ofrecer una alternativa al lenguaje de
las variables como medio para describir los rasgos de la vida social del
hombre. Efectivamente, es difícil encontrar una alternativa, algo
corroborado por el hecho de que tanto en el trabajo sociológico cualitativo
como en el cuantitativo se recurre de forma bastante rutinaria, aunque sólo
sea implícitamente, al lenguaje de las variables, además de que a menudo se
intenta el análisis multivariable, aunque sólo sea a nivel verbal 63 .
Así, la «sociología de las variables» debe considerarse el mejor medio, si
no el único, disponible para producir descripciones de regularidades
probabilísticas de la población; y su importancia trascendental se pone de
relieve en un artículo tardío de Robert Merton (1987: 2-6) bajo la rúbrica
«establecer los fenómenos». Lo que a Merton le preocupaba era la
necesidad de cumplir dos requisitos antes de proceder al análisis
sociológico.
El primero era que debía quedar claro que sí existían algunas
regularidades sociales —o, como Merton dijo, que hay sucesos de un tipo
determinado que tienen «suficiente regularidad como para requerir y
permitir una explicación» (1987: 2-6; cursivas nuestras). Las dos palabras
que he enfatizado con la cursiva son importantes. Recordando lo que señalé
en el capítulo 4, los sucesos que no muestran regularidad no deben recibir la
atención del sociólogo: no son explananda sociológicos apropiados, e
intentar explicarlos sociológicamente no merece la pena.
El segundo requisito es que se debe asegurar por todos los medios una
comprensión apropiada de la forma de la regularidad en cuestión. Lo que a
primera vista puede parecer una regularidad bastante simple podría resultar
ser mucho más compleja tras examinarla detenidamente.
Merton desarrolla su argumento poniendo varios ejemplos de supuestas
regularidades sociales que, a la luz de una investigación más a fondo,
resulta que no existen o han sido construidas erróneamente, y aprovecha la
ocasión para reafirmar una idea que ya había expresado hacía dos décadas:
que preocuparse por establecer los fenómenos no debía despreciarse como
«mero empiricismo» porque los «pseudohechos llegan a inducir
pseudoproblemas que no se pueden resolver, porque las cosas no son lo que
parecían ser» (Merton, 1959: xv) 64 .
De hecho, intentar cumplir los requisitos de Merton, por medio del
análisis de datos multivariable —usar este tipo de análisis para demostrar la
presencia de asociaciones o correlaciones entre las variables y expresar
estas relaciones de una forma válida y no «espuria»—, lleva siendo mucho
tiempo una preocupación central de la sociología cuantitativa. Después de
la Segunda Guerra Mundial, por ejemplo, esa preocupación figuró de forma
prominente en las obras del grupo formado en torno a Paul Lazarsfeld —un
íntimo colega de Merton— en la Oficina de Investigación Social Aplicada
de Columbia (véanse, por ejemplo, Kendall y Lazarsfeld, 1950; Lazarsfeld,
1955). Para analizar tablas de contingencia derivadas principalmente de
datos de encuesta, Lazarsfeld y sus colegas empezaban típicamente por las
relaciones bivariadas para luego intentar «elaborarlas» mediante la
inclusión de terceras variables, como variables antecedentes, mediadoras u
otras de control.
El propio Lazarsfeld creía que esa elaboración, en especial cuando se
vinculaba a la ordenación temporal de las variables, apuntaba directamente
a la demostración de la causación o, al menos, de la causación potencial.
Sin embargo, puede decirse que sus procedimientos tienen un valor
esencialmente descriptivo: como medio para establecer fiablemente los
explananda más que para proporcionar explicaciones en términos causales.
Y esto se hizo cada vez más evidente en los años setenta, cuando el análisis
lazarsfeldiano de las tablas de contingencia fue desarrollado y finalmente
desbancado por los modelos loglineales más formales y potentes y por otros
métodos relacionados, notablemente los basados en la obra de Leo
Goodman 65 . Estos modelos se proponen explícitamente revelar pautas de
asociación —incluyendo quizás interacciones bastante complejas— entre
las variables de las tablas de contingencia multidimensionales sin afirmar
ninguna implicación causal y, por lo tanto, sin necesitad de distinguir las
variables como dependientes o independientes. Como Goodman (2007a:
16) ha señalado en un trabajo retrospectivo, la contribución principal de
estos modelos es la posibilidad de revelar —hacer visibles— y luego
estudiar regularidades de un tipo hasta ese momento no reconocido:
regularidades que previamente estaban «ocultas, insertas en un bloque de
datos densos».
Para ilustrar específicamente este último punto, recurro a lo que durante
algún tiempo fue una cuestión controvertida en la sociología electoral
británica en la que yo mismo participé de pasada: la cuestión del papel que
representó el género en el apoyo a un partido político. Los datos sobre el
comportamiento de voto recogidos antes de las elecciones generales
británicas desde 1945 hasta al menos los años ochenta revelan de forma
sistemática que la diferencia en puntos porcentuales de apoyo a los
conservadores frente a los laboristas favorecía a los primeros en mucha
mayor medida entre las mujeres que entre los hombres. Los comentaristas,
especialmente los de izquierda —notablemente Hart (1989)—, llegaron a
afirmar que esta «brecha de género» revelaba que los laboristas no
mostraban preocupación por los intereses de las mujeres, que les
preocupaban las desigualdades y la explotación asociada con la clase social
más que con el género. Se afirmó que si los laboristas hubieran atraído a las
mujeres en la misma medida que a los hombres, el partido habría ganado
todas las elecciones de ese periodo en cuestión. En otras palabras, la brecha
de género se explicaba específicamente por un efecto de género provocado
por lo que Hart (1989) denominó las «anteojeras masculinistas» de los
políticos laboristas.
Sin embargo, si bien la brecha de género en el voto se podía observar de
forma regular, la naturaleza de esa regularidad no se comprendió bien hasta
que se dispuso de datos de encuesta más detallados que los proporcionados
por las agencias electorales. Así, la relación bivariada entre el género y el
voto se pudo «elaborar» mediante análisis multivariados que incorporaron
los factores de clase y edad. Y lo que estos análisis indicaron fue que la
brecha de género era una regularidad con una forma mucho más compleja
de lo que parecía inicialmente. Era principalmente un epifenómeno de otras
regularidades en las que el voto vinculado al género no estaba implicado.
En respuesta a otro trabajo de Hart (1994), investigué las pautas de
asociación en una tabla de contingencia de cuatro dimensiones, sexo x edad
x clase x voto, en las elecciones generales de 1964 aplicando una serie de
modelos loglineales (Goldthorpe, 1994). Pude así mostrar que esta tabla se
ajustaba bien a un modelo que proponía dos asociaciones de tres
dimensiones: es decir, de sexo, edad y clase, y de edad, clase y voto.
Cuando se añadió a este modelo una asociación adicional entre el sexo y el
voto, la mejora en el ajuste no fue significativa. En otras palabras, la brecha
de género podía considerarse, por un lado, el resultado de la tendencia de
las mujeres a vivir más que los hombres, y especialmente de las mujeres en
las clases más prósperas; y, por otro, el resultado de la tendencia de las
personas mayores, y especialmente las personas mayores en las clases más
acomodadas, a ser más propensas a votar a los conservadores que a los
laboristas. Centrarse en la asociación bivariada simple más evidente podía
ser, por lo tanto, un grave error. Aunque durante el periodo estudiado las
mujeres tendieron más que los hombres a apoyar a los conservadores, el
análisis multivariado reveló que intentar explicar esta regularidad en
términos de un efecto de género —resultado de las «anteojeras
masculinistas» de los laboristas— suponía abordar un «pseudoproblema»
mertoniano 66 .
Sin embargo, se puede añadir aquí que mi análisis y el de otros autores
sobre lo que implicaba exactamente la brecha de género en el
comportamiento de voto sirvió al mismo tiempo para revelar otro problema
bastante real: un problema que concierne al efecto de la edad en el voto y a
las implicaciones de este efecto en la brecha de género. Surgió entonces
claramente la cuestión de si el efecto de la edad debía comprenderse en
términos del ciclo de vida —la gente tiende a volverse más conservadora a
medida que envejece— o más bien en términos de la cohorte de nacimiento
o la «generación política». Las investigaciones posteriores basadas en
encuestas repetidas al electorado británico han dado un fuerte apoyo a esa
última interpretación. Y, de acuerdo con esta interpretación, a medida que
los individuos nacidos a principios del siglo xx iban muriendo, iba
desapareciendo también la brecha de género en el apoyo partidista que antes
existía —con otra brecha abriéndose, si acaso, en sentido contrario. Vuelve
desde luego a plantearse la pregunta de si esa inversión es un resultado
específico de un efecto de género o de otros factores. Pero la necesidad de ir
más allá de la asociación bivariada simple para establecer la forma precisa
del explanandum ha sido adecuadamente percibida por los investigadores
de este campo (véase, por ejemplo, Inglehart y Norris, 2003: cap. 4).
Así, a medida que el análisis de las tablas de contingencia ha
evolucionado, se ha reconocido cada día más su importancia capital en la
sociología como un medio de proporcionar, más que explicaciones,
descripciones —bastante sofisticadas— de las regularidades poblacionales.
Hoy los modelos loglineales y otros relacionados se aplican rutinariamente
en muchas áreas de investigación sociológica: por ejemplo, además de en la
sociología electoral, en el estudio de la movilidad social, de las
desigualdades de clase social, de género y étnicas en el logro educativo, y
de las pautas de homogamia y heterogamia.
Lo que se debe reconocer también es que, en el caso del análisis de
regresión —la forma de análisis multivariado más usada en la sociología—,
hay una reciente y cada vez más perceptible tendencia a considerarlo no
como un método de obtener explicaciones causales de los fenómenos
sociales sino, una vez más, como el mejor método para establecerlos y
describirlos. Así, en un texto actual sobre el análisis de regresión dirigido
principalmente a científicos sociales cabe comprobar en efecto cómo el
autor afirma explícitamente —en marcado contraste con lo que se podía
esperar en décadas anteriores— que la regresión debe comprenderse «como
una herramienta intrínsecamente descriptiva» (Berk, 2004: 206). Y lo que
resulta también de interés adicional en el presente contexto es que es
posible localizar una conexión razonada entre este desarrollo y la visión de
la sociología como una ciencia de la población.
Para los que primero propusieron el análisis de regresión en sociología,
como por ejemplo Blalock (1961), lo más atractivo era su aparente
potencial como medio de moverse «desde la asociación a la causación»
(véase Freedman, 1997) en áreas de investigación basadas principalmente
en datos observacionales más que experimentales. En el capítulo 8 me
ocuparé de mostrar cómo esta forma de comprender el uso de la regresión
recibió depués críticas crecientes de estadísticos y sociólogos por igual y
por el momento parece tener sólo unos pocos defensores explícitos. Pero
ahora me gustaría exponer un lado más positivo de la situación: el modo en
que ha surgido en la sociología una comprensión alternativa y mucho más
sostenible del papel de la regresión, y que hoy parece que es ampliamente
adoptada, en todo caso de facto, en la investigación.
La diferencia entre los dos enfoques del uso de la regresión aquí
mencionados la explica claramente Xie en uno de sus trabajos (2007). Xie
subraya que en los dos enfoques la regresión es la misma operación
estadística, pero que hay diferencias cruciales en el objetivo que se
persigue, en los supuestos subyacentes y en la interpretación de los
resultados obtenidos. Blalock y sus seguidores, afirma Xie, se adhirieron a
lo que puede denominarse una concepción «gaussiana» de la regresión. En
este caso, el objetivo es establecer una relación causal, como si fuera una
ley, entre lo que se consideran variables dependientes e independientes del
análisis, y la desviación de las observaciones individuales de esa relación
causal se trata entonces como un error de medición: es decir, simplemente
como ruido no deseado. Se puede así considerar a Blalock un analista
cuantitativo muy del estilo de Quetelet que, por así decirlo, sustituía la
media por la solución de los mínimos cuadrados de la ecuación de regresión
como foco de interés científico; o, en otras palabas, como Xie sugiere,
Blalock era esencialmente un «pensador tipológico» (Xie, 2007).
Xie identifica luego una concepción «galtoniana» de la regresión y la
asocia sobre todo a la obra de Dudley Duncan, que es, esencialmente, un
«pensador poblacional» (Xie, 2007). En este caso, el objetivo de la
regresión no es determinar relaciones causales, sino más bien proporcionar,
mediante los coeficientes de regresión, una descripción parsimoniosa de la
variabilidad de la población respecto del resultado que importa al análisis.
El foco aquí se sitúa en el componente sistemático de esta variabilidad: en
la variabilidad que ocurre entre los grupos de interés sociológico que son
definidos por las variables independientes del análisis. Pero al mismo
tiempo se entiende que el término de error en la ecuación reflejará una
variabilidad real dentro del grupo, además del error de medición stricto
sensu. Y aunque por supuesto siempre se puede —y se debe— intentar
elaborar más el modelo para así aumentar la parte de la variabilidad que
puede tratarse como socialmente sistemática, hay que aceptar que la
variabilidad dentro del grupo en el nivel individual siempre será
sustancial 67 .
Lo que puede señalarse aquí es la afinidad que existe, en relación con el
análisis de datos, entre la regresión en este sentido galtoniano y el
paradigma individualista de la sociología, una afinidad que va en paralelo a
la que se ha analizado previamente, en relación con la recogida de datos,
entre la investigación por encuesta muestral y ese paradigma. En ambos
casos por igual la fuente de la afinidad reside en la conciencia del alto grado
de variabilidad que existe en la vida social humana en el nivel individual —
es decir, de la heterogeneidad de la población— y en la necesidad de
métodos de investigación que pueden responder plenamente a esa
variabilidad y al mismo tiempo permitir demostrar las regularidades que
pueden existir dentro de ella.
Es desde esta perspectiva como a su vez debe comprenderse la repetida
puntualización de Duncan de que no hay que dar mucha importancia al
tamaño absoluto de las R 2 que producen los análisis de regresión en
sociología —que, con cualquier modelo razonable, raramente superan el
0,3 68 . Mientras que, como se ha señalado ya, con el paradigma holista
cabría esperar que se pudiera explicar sistemáticamente una varianza
poblacional mucho mayor que aquella, lo que quizás es más notable es que
con el paradigma individualista los análisis de regresión suelen ser capaces
de mostrar algunos efectos sistemáticos —a pesar del hecho de que los
datos que se están analizando se derivan, como Achen (1982: 13) ha
comentado, de un «revoltijo sin remedio de actores humanos», todos ellos
implicados en alguna medida en un «comportamiento idiosincrásico que es
función de los incontables rasgos distintivos de sus historias y
personalidades». Refiriéndose explícitamente al no cumplimiento de las
expectativas holistas, el propio Duncan señala que, puesto que los rasgos
institucionales y otros rasgos estructurales de una sociedad bien pueden
modificar la variabilidad de una serie de características individuales, esta no
seguirá «siendo ni de lejos tan grande como la magnitud en la que
realmente difieren los individuos» (Duncan, 1975: 166-167). Y luego se
pregunta enfáticamente —con un espíritu que podría considerarse
malinowskiano (véanse las págs. 34-35)— si a esos sociólogos que se
desesperan por sus R 2 bajos «les gustaría vivir en una sociedad tan
estructurada» que su colección particular de variables «explicara el 90% en
lugar del 32% de la varianza en Y» (Duncan, 1975: 167).
Pero entonces, si es el caso de que, en la sociología como una ciencia de
la población, el análisis de regresión sirve para establecer regularidades
probabilísticas poblacionales —del mismo modo que las técnicas
explícitamente descriptivas como los modelos loglineales y sus derivados
—, surge de inmediato otra pregunta que hay que abordar a modo de
conclusión: si, para su trabajo descriptivo, los sociólogos deberían utilizar,
más de lo que lo hacen en el presente, métodos estadísticos que en lugar de
apoyarse en algún modelo probabilístico explícito se basen en modelos
puramente algorítmicos —en el «aprendizaje automático» a partir de los
datos analizados aplicando diversas técnicas de búsqueda de pautas. Las
cuestiones sumamente controvertidas que se plantean aquí en un contexto
estadístico general se exponen con claridad en un artículo de Breiman
(2001) y en el consiguiente debate (véase especialmente Cox, 2001). Sin
embargo, hay que ser cauteloso a la hora de moverse desde este contexto
general hacia las posibilidades de los modelos algorítmicos en sociología.
Lo que es importante advertir es que los contextos de investigación
donde los modelos algorítmicos se han aplicado hasta ahora más
eficazmente a menudo difieren de forma muy significativa de los que suelen
conseguirse en sociología. Una de dos: o se trata de contextos en los que el
objetivo es proporcionar predicciones a corto plazo de importancia práctica
a partir de ciertas bases de grandes datos (véase el análisis del capítulo 6)
—como, por ejemplo, las relacionadas con los niveles de ozono diarios o
los riesgos de los atascos de tráfico— y en los que, por lo tanto, la precisión
predictiva tiene evidentemente prioridad sobre la interpretación de los
resultados obtenidos; o son contextos de investigación en los que se puede
proporcionar la guía de una teoría fuerte a la búsqueda algorítmica de
pautas —como, por ejemplo, en el análisis de secuenciación de ADN
mediante técnicas de emparejamiento óptimo (EO). En sociología, en
cambio, suele darse la posibilidad de diseñar la recogida de datos con unos
determinados problemas de investigación en mente mediante métodos de
encuesta, y el objetivo principal no es, en todo caso, predecir en el nivel
individual —es decir, unos R 2 altos— sino establecer la forma correcta de
las regularidades que pueden estar presentes en el nivel de la población.
Pero, al mismo tiempo, puede faltar una teoría fuerte con la que dar forma a
la búsqueda de pautas. Por lo tanto, mientras no hay razón alguna para que
los sociólogos rechacen los modelos algorítmicos sin pensarlo dos veces,
parecería sensato, al menos por ahora, recurrir a ellos sólo sobre la base de
una cuidadosa evaluación de sus posibles ventajas y desventajas en cada
caso.
Ilustra bien esta cuestión el uso que se hace del EO (cuyo precursor en
sociología ha sido Abbott: véase especialmente Abbott y Tsay, 2000), sobre
todo para investigar varios aspectos del curso de la vida (analizados con
perspicacia por Billari, 2005). Para tratar las regularidades de los sucesos en
el curso de la vida, como la formación y la disolución de parejas y familias
o la entrada y salida del empleo, y en particular para analizar los correlatos
de la ocurrencia y el calendario de esos sucesos, los modelos de regresión
de panel y de historia de acontecimientos han llegado a desempeñar un
papel central. Sin embargo, como Billari señala, con estos métodos es difícil
visualizar si los sucesos del curso de vida forman secuencias «totales» o
trayectorias en lugar de ser generados estocásticamente desde un punto en
el tiempo a otro. Y una secuenciación total bien podría ser deseable, en
particular en la medida en que los individuos pueden vislumbrar sus propios
cursos de vida de esta manera y perseguir estrategias vitales en el largo
plazo, si bien sujetas a varias constricciones y a la intervención del azar
esencial. A este respecto, el análisis secuencial mediante las técnicas del EO
tiene obviamente su interés. Las series de diferentes estados que forman
algún aspecto del curso vital se pueden «emparejar» sistemáticamente,
individuo por individuo, considerando la magnitud y el tipo de cambios
necesarios para hacer una secuencia de estados idéntica a otra y, sobre esta
base, poder generar algorítmicamente una matriz de distancias entre todos
los pares de secuencias. A su vez, esa matriz puede servir de input para
algún agrupamiento posterior o para un algoritmo de escalamiento
multidimensional que puede —o que en todo caso podría— producir un
conjunto empírico de secuencias manejable.
Sin embargo, como de hecho se reconoce ampliamente, el problema
principal que se plantea aquí y en casi todas las aplicaciones sociológicas
del EO es establecer los «costes» de transformar una secuencia de estados
durante el curso vital en otra: es decir, los costes que deben atribuirse a la
sustitución, inserción o eliminación de estados que se requieren. Como son
esos costes los que determinan, por medio de la aplicación del modelo
algorítmico, las distancias entre las secuencias, son fundamentales para todo
el análisis del EO; y a menos que se les pueda atribuir una razón de ser
convincente, la matriz resultante de las distancias y cualesquiera tipologías
de secuencias derivadas de ella son vulnerables a la acusación de que en
lugar de reflejar unas regularidades sociales reales y existentes, bien
pudieran ser artefactos (Levine, 2000; Wu, 2000). Se han propuesto varias
maneras de tratar este problema —este es, de hecho, el problema de la
validez de los análisis de EO— (para una útil revisión de este asunto, véase
Aisenbrey y Fasang, 2010), pero lo que tiene importancia clave es que el
tratamiento de los costes de transformación debe tener una base teórica tan
clara como sea posible. Así, entre los análisis de EO más convincentes
están los que se han hecho sobre la vida laboral de los individuos y, más
concretamente, las historias de clase social, en los que los costes de la
transformación se derivan de la teoría que fundamenta los esquemas de
clase adecuadamente validados, como los referidos en el capítulo 5 (por
ejemplo, Halpin y Chan, 1998). En estos casos puede que también sea
posible relacionar de una manera teóricamente coherente, por medio de,
digamos, el análisis de regresión, tipos emergentes de historias de clase con
variables antecedentes como los orígenes sociales, la capacidad cognitiva y
el logro educativo (por ejemplo, Bukodi et al., 2015). Sin embargo, hay que
admitir que en muchas aplicaciones del EO, incluyendo la investigación
sobre el curso vital, la elección de los costes de transformación sigue
pareciendo arbitraria en un grado bastante preocupante.
El EO, igual que otros métodos con modelos algorítmicos, tiene un valor
potencial para los sociólogos en sus esfuerzos por establecer las
regularidades poblacionales que forman sus objetos básicos de estudio —
pero son métodos que hay que usar muy selectivamente, y con una
completa conciencia de los escollos a los que pueden conducir. Debe
considerarse además que son métodos complementarios, o auxiliares, a los
modelos probabilísticos en lugar de representar una alternativa radical o
total. Hay que considerar como poco más que floritura retórica —
comparable a las señaladas previamente que proclamaban el fin de las
encuestas sociales en la era de los grandes datos— la pretensión de que los
modelos algorítmicos, y en particular el análisis secuencial, marcan el fin de
«la revolución de las variables» en la sociología empírica y el surgimiento
de un nuevo paradigma centrado en «los sucesos en su contexto» en lugar
de en «entidades con atributos variables» (Abbott, 1995: 93; Abbott y Tsay,
2000: 24; Aisenbrey y Fasang, 2010: 422). Tal vez la sociología
«computacional» guiada por los datos (véase Lazer et al., 2009) adquiera
más prominencia. Pero, lejos de ser desbancada, la sociología de las
variables, tal y como se concibe en este capítulo, y su expresión en modelos
estadísticos probabilísticos son, igual que la investigación social por
encuesta, rasgos de la sociología que permanecerán en el largo plazo.

63 En la medida en que en el trabajo cualitativo los conceptos no se traducen explícitamente en


variables con la debida fiabilidad y validez, como se requiere en el trabajo cuantitativo (véase el
capítulo 5), se pueden mencionar dos consecuencias. Primera, la ausencia de esta disciplina hace
mucho más fácil que ocurra un deslizamiento en los significados y los usos. Segunda, se hace difícil,
si no imposible, que los hallazgos empíricos se sitúen en el dominio público de forma que se permita
a los demás reanalizarlos —de la misma forma en que las bases de datos que resultan de la
investigación cuantitativa se incluyen hoy día en archivos de datos junto a su correspondiente
documentación.

64 Recuerdo haber oído una vez a Bill Sewell una advertencia muy parecida pero expresada de
forma más pintoresca: «antes de empezar a explicar de algún modo inteligente cómo ha subido el
cerdo al árbol, asegúrate de que es un cerdo lo que hay en el árbol».

65 Lazarsfeld (véase esp. Lazarsfeld y Henry, 1968) también fue precursor de otra técnica
descriptiva valiosa para los sociólogos llamada el análisis de clases latentes —el equivalente
categorial del análisis factorial para las variables continuas—, que también se puede considerar
relacionado estrechamente con la modelación loglineal (McCutcheon y Mills, 1998). A la vista de las
críticas previas al pensamiento tipológico en la sociología, hay que añadir aquí que, cuando las
tipologías se construyen sobre la base de un análisis de clases latentes —o de las técnicas de
emparejamiento óptimo, como se verá más adelante en este capítulo— pueden considerarse, en
contraste con los tipos «ideales» o a priori, simplemente como hallazgos empíricos: es decir, en sí
mismos como una forma de regularidad poblacional revelada. Porque un rasgo importante de estas
técnicas en cuestión es que, cuando se usan apropiadamente, pueden conducir a una conclusión
negativa: pueden indicar que no hay ninguna regularidad en forma de una tipología manejable.

66 Por supuesto, esto no equivale a decir que no existieron esas anteojeras —sino que, si de hecho
existieron, apenas fueron relevantes para explicar la brecha de género existente en el comportamiento
de voto.

67 Dada la obra pionera de Duncan sobre el análisis de «caminos causales» en la sociología y sus
trabajos posteriores sobre los modelos de ecuaciones estructurales (Duncan, 1975), podría parecer
extraño considerar que su posición se opone a la de Blalock. Sin embargo, como Xie (2007)
documenta, Duncan siempre subrayó las limitaciones de esas técnicas, especialmente al respecto de
la demostración de la causación. Xie también señala que Duncan le informó de las dificultades que
tuvo en su correspondencia con Blalock para que entendiera sus ideas sobre la sociología como una
ciencia de la población (Xie, 2007: 146). La correspondencia de Duncan —en este caso con David
Freedman— es interesante además como una fuente muy patente de la distinción entre las
concepciones de la regresión gaussiana y galtoniana (Xie, 2007: 145, 147). La cambiante influencia
del trabajo metodológico de Lazarsfeld, Duncan y Goodman en la sociología estadounidense se capta
jocosamente en el «documento anónimo» reimpreso en Goodman (2007b: 137), que debería ser una
lectura introductoria para todos los estudiantes de sociología que asisten a cursos de análisis de datos.
68 Por «razonable» debe entenderse aquí un modelo que no incluya una variable independiente tan
«próxima» a la variable dependiente que el análisis deje de contener información. Por ejemplo, en un
modelo de regresión con la posición de clase social de los individuos en un periodo de tiempo t como
variable dependiente, podría desde luego lograrse un R 2 alto incluyendo como variable
independiente la posición de clase en t -1 semana.
8. Los límites de la estadística: la
explicación causal

Si bien los métodos de recogida y análisis de datos informados por la


estadística son fundacionales para establecer las regularidades
probabilísticas de la población que constituyen los explananda
sociológicos, el análisis estadístico por sí solo no puede generar
explicaciones causales de esas regularidades.

En los capítulos anteriores se ha hecho hincapié en el papel crucial que


desempeñan los métodos de recogida y análisis de datos informados por la
estadística para moldear los objetos de estudio —los propios explananda—
de la sociología como una ciencia de la población: es decir, las
regularidades probabilísticas de la población. Tales métodos parecen
esenciales —hasta ahora no hay ninguna alternativa viable— como medio
para dar cabida a la variabilidad de la vida social humana, permitiendo al
mismo tiempo descubrir y describir las regularidades que contiene. Sin
embargo, el énfasis cambia en este capítulo. Se tratará ahora de lo que los
métodos estadísticos por sí solos no pueden lograr, ni debe esperarse que
logren, en sociología: proporcionar explicaciones causales de las
regularidades establecidas por estos métodos. Dudley Duncan (1992: 668)
habló una vez del «pacto faústico» de la sociología con la estadística. Se
considerarán aquí algunos aspectos del lado oscuro de este pacto.
Como se señaló en el capítulo 7, en las primeras aplicaciones del análisis
multivariado de datos en sociología se solía suponer que tales análisis no
sólo podían revelar varias regularidades en la asociación de datos sociales,
sino que también podían conducir a la demostración de relaciones causales.
En particular, las formas de análisis de regresión que culminan en el
modelado de caminos causales se consideraron la principal manera de
moverse desde la asociación hacia la causación. Sin embargo, en las últimas
décadas esta idea ha sido objeto de creciente cuestionamiento y crítica por
parte de la estadística y la sociología por igual, y parece que apenas recibe
apoyo manifiesto en la actualidad. Como mucho, podría afirmarse que los
análisis de regresión permiten una «interpretación causal» 69 .
Desde el lado de la estadística, las intervenciones quizá más
convincentes han sido las de David Freedman (1991, 1992, 1997, 2010).
Freedman rechaza explícitamente la idea de que se puedan producir
mecánicamente, en cualquier área de investigación, relaciones causales a
partir de datos sólo sobre la base de técnicas estadísticas. Así, en el caso de
la regresión, subraya que para especificar apropiadamente un modelo de
regresión a los efectos de una explicación causal, siempre se requerirá
esclarecer con carácter previo los procesos por los que se han generado los
datos analizados. Esto es necesario para determinar las variables que van a
ser incluidas en el análisis, su supuesto orden causal, la forma funcional de
las relaciones entre ellas, las propiedades de los términos de error, etc. Si el
modelo de regresión adoptado no es coherente con los procesos en cuestión
—si, por poner el ejemplo más obvio, se omite una variable relevante—,
entonces todas las inferencias causales derivadas del modelo estarán
viciadas. Freedman admite que el problema que aquí se plantea puede ser
menos trascendental si se considera la regresión simplemente como un
medio de descripción: como un medio de resumir las asociaciones que se
mantienen en los datos analizados entre las variables que de hecho se
reconocen. Pero si la inferencia causal es el objetivo del análisis, lo crucial
es si se puede considerar que los coeficientes de regresión tienen lo que
Freedman (1997: 117) ha llamado acertadamente «vida propia»: es decir,
más allá de los datos a partir de los cuales se han estimado en un caso
particular. Esto será así sólo si el modelo de regresión se ha especificado
correctamente, y sólo entonces tienen sentido los contrafácticos que
justificarían la causación. En otras palabras, sólo así será posible afirmar
que un cambio en una determinada variable independiente causará un
cambio correspondiente —de la magnitud indicada por el coeficiente para
esa variable— en la variable dependiente del análisis.
Freedman (2010: 11-15) ilustra este argumento con el ejemplo del
análisis de regresión en el caso de la Ley de Hooke. Esta ley establece la
naturaleza cualitativa de una relación: establece que, hasta un cierto límite,
el alargamiento lineal de un muelle es directamente proporcional a la carga
que se le aplica. Así, usar datos observacionales o experimentales para
hacer la regresión del alargamiento en función de la carga sirve para
cuantificar la ley en el caso de un muelle determinado o de un tipo
determinado de muelle. La ley en sí refleja el proceso físico con el que se
producirán los datos y, a su vez, la forma de la ley se plasmará en el modelo
de regresión. En este caso, cabe esperar un R 2 alto, con un término de error
que refleje simplemente el error de medida —derivado, por ejemplo, de
deficiencias en la configuración del experimento o en la observación; y se
podrá interpretar que el coeficiente de regresión estimado capta una
propiedad específica del muelle o del tipo de muelle: es decir, que tiene, en
este sentido, «una vida propia» en lugar de una vida condicionada a los
datos particulares analizados. Por tanto, este coeficiente podría a su vez
usarse, dentro de unos límites, para predecir qué cambio en el alargamiento
del muelle estará causado por un cambio en la carga.
Este es un ejemplo claro de lo que se puede describir, siguiendo a Xie,
como la concepción gaussiana de la regresión (véanse las págs. 89-90). Sin
embargo, hay que admitir que en sociología raramente, alguna vez, se puede
aplicar la regresión así concebida: simplemente no se dispone del tipo de
teoría ejemplificada por la Ley de Hooke. Considérense, por ejemplo, los
análisis que usan datos de un lugar y tiempo determinados para hacer la
regresión de la renta o el estatus ocupacional de individuos de grupos
étnicos diferentes en función de sus niveles de logro educativo (incluyendo
también varias variables de control). Lo primero que hay que admitir aquí
es que no hay razones de peso para suponer que con datos de otros lugares y
periodos se podrán replicar los coeficientes estimados —tal vez sí o tal vez
no. Pero lo segundo y más grave aún que hay que reconocer es que si en el
caso original la distribución de la educación cambiara —si, por ejemplo, las
diferencias educativas entre grupos étnicos se redujeran—, no
necesariamente se producirán los cambios en las diferencias étnicas en renta
o estatus que se predecirían bajo el modelo de regresión. Bien podría ser
que el cambio se produjera en los mismos coeficientes de regresión: por
ejemplo, que los rendimientos de la renta o el estatus de la educación
disminuyeran (véase Lieberson, 1987: 166-167, 186-188). El problema
fundamental es que no existe ninguna teoría general y convincente acerca
de los procesos por los que esos rendimientos de la educación realmente se
producen que sea capaz de guiar la especificación del modelo de
regresión 70 .
La creciente conciencia de las dificultades implicadas en el esfuerzo de
derivar explicaciones causales a partir de la regresión del tipo de las que
señala Freedman constituye una fuente de reevaluación de la regresión
como método esencialmente descriptivo que, como se dijo en el capítulo
anterior, se ha vuelto evidente en la sociología —y que, a su vez, confiere
importancia al argumento de Xie de que es una concepción más galtoniana
que gaussiana la que los sociólogos aplican en efecto la mayoría de las
veces y la que explícitamente deberían adoptar 71 . Sin embargo, la crítica a
la idea de moverse desde la asociación a la causación por medio de la
regresión se ha expresado no sólo desde un punto de vista estadístico, sino
también, y además de forma influyente, desde la propia sociología.
Lo que a este respecto es notable es el grado en el que esa crítica ha ido
en paralelo a la de Freedman: subrayando la necesidad de comprender los
procesos que generan los datos que se están analizando. Mientras para
Freedman esa comprensión es necesaria si se quiere especificar
apropiadamente el modelo de regresión, para muchos sociólogos revelar
esos procesos es lo que en realidad implica establecer la causación en
sociología, con independencia de cualquier procedimiento estadístico. Es
esta idea lo que motiva la objeción, mencionada en el capítulo 7, a la
«sociología de las variables»: que reduce la explicación sociológica a
mostrar en qué medida se puede «dar cuenta» estadísticamente de las
variables dependientes mediante las tratadas como independientes, sin
prestar ninguna atención a los procesos sociales que subyacen a los
resultados obtenidos. Y, al menos para los sociólogos que trabajan en el
contexto del paradigma individualista, es necesario entender estos procesos
a partir de las acciones e interacciones de los individuos implicados. Así,
Coleman (1986: 1314-1315) señaló la paradoja de que los sociólogos
implicados en la «investigación por encuesta empírica, estadística» analizan
principalmente datos de nivel individual y, sin embargo, muy a menudo lo
hacen sin ninguna referencia explícita a la acción individual de la que se
derivan esos datos. Asimismo Boudon (1987: 61-62) objetó que, con
demasiada frecuencia, en ese tipo de investigación son las variables en
lugar de los individuos las que de hecho se toman como unidades del
análisis, y que las demostraciones del efecto estadístico de una variable
sobre otra se consideran «resultados finales» y no se intenta mostrar cómo
dichas relaciones estadísticas se derivan de sus «causas reales», que sólo
pueden residir en las acciones de los individuos.
Así, volviendo a modo de ilustración a los análisis de regresión acerca
de los efectos de la educación de los individuos en sus rentas o estatus
ocupacional, lo que se podría mantener a partir de la posición adoptada por
Coleman y Boudon es que, incluso si se pudiera considerar que la
educación «causa» la renta o el estatus ocupacional, sería sólo en un sentido
muy elíptico y sin relevancia sociológica. Lo que se necesitaría para una
demostración adecuada de la causación sería alguna explicación de por qué
se obtienen los resultados estadísticos que se obtienen. Por ejemplo, se
requiere dar cuenta, por un lado, de los procesos —que implican elección y
constricción— por los que los individuos logran ciertos niveles de
educación, quizás pensando en su futuro económico (véanse las páginas
109-111); y, por otro lado, de los procesos por los que ese logro condiciona
luego sus oportunidades de entrada, por medio de las acciones de los
empleadores o sus agentes, a ocupaciones que proporcionan diferentes
niveles de rentas o de estatus (Goldthorpe, 2014).
En suma, el argumento es, coincidiendo una vez más con Freedman, que
la causación no puede resultar únicamente de los procedimientos
estadísticos, sino que ha de depender de un input teórico sobre el objeto de
estudio que lo relacione con el modo en que se han producido los datos que
se están analizando. La diferencia principal es que mientras para Freedman
la inferencia causal derivada del análisis estadístico requiere ese input desde
el principio, para Coleman y Boudon ese input debe ser posterior a los
resultados del análisis estadístico, en sí mismos esencialmente descriptivos,
si se quiere proporcionar una explicación causal de las regularidades
demostradas.
La pregunta por cómo los sociólogos podrían moverse mejor de la
descripción a la explicación de las regularidades poblacionales será el
asunto del capítulo 9. El resto de este capítulo tratará de otra reacción que
se ha producido en la sociología hacia el final de «la edad de la regresión»
—reacción que de nuevo parece conducir a expectativas injustificadas sobre
el papel que puede desempeñar el establecimiento de la causación sólo por
métodos estadísticos. Esta reacción se deriva de una concepción de la
causación que difiere de forma significativa de la que subyace a la regresión
y a otras formas de análisis semejantes, una concepción que, según sus
defensores, es de un tipo más fuerte y «más profundo».
En el caso de la regresión, y también en los intentos de Lazarsfeld de
derivarla de los análisis de tablas de contingencia, la causación se equipara
con la existencia de una asociación entre la variable dependiente del análisis
y la variable o variables independientes cuya robustez se puede demostrar:
es decir, que se puede mostrar que persiste cuando otras variables
razonablemente explicativas se introducen en el análisis. Es esta
dependencia robusta lo que sirve de evidencia de que prevalece una relación
causal. La debilidad más importante de esta concepción de la causación es,
sin duda, la dificultad implicada en excluir la posibilidad de que la supuesta
relación causal sea espuria cuando se toma en cuenta otro factor nunca
contemplado y quizás totalmente insospechado: una variable «oculta». La
concepción alternativa de la causalidad que se ha defendido últimamente
para la sociología intenta evitar esta dificultad. Se deriva de la investigación
aplicada fundamentalmente en campos como la agricultura, la medicina y la
educación, donde es posible utilizar métodos experimentales o cuasi
experimentales y donde el interés se centra en la eficacia o ineficacia de
algún tipo de intervención.
De acuerdo con esta concepción alternativa, la causación, o un «efecto
causal», se comprende en términos del cambio que se produce en una
variable dependiente o variable de resultado como efecto de una
intervención o de lo que a menudo se llama «tratamiento». Más
específicamente, un efecto causal es la diferencia hallada en la variable de
resultado entre las unidades experimentales seleccionadas al azar que
reciben un tratamiento y aquellas otras que no lo reciben —es decir, que
sirven de control: por ejemplo, entre unos campos de cultivo a los que se
administra fertilizante y otros a los que no se administra, entre las tasas de
recuperación de los pacientes que reciben una medicina y los que no, o
entre los resultados en exámenes de estudiantes sometidos a un método
pedagógico determinado y los que no 72 . Esta diferencia en los resultados
puede cuantificarse calculando el «efecto promedio del tratamiento», o
alguna variante del mismo, con la implicación contrafáctica y causalmente
significativa de que, si no se aplica el tratamiento, no se observará esa
diferencia. Es por tanto crucial para la aplicabilidad de esta forma de
entender la causación como «resultados potenciales» que se dé una
intervención de una u otra forma —o, al menos, que se pueda prever qué
ocurrirá: en los términos de Holland (1986: 958), «no hay causación sin
manipulación» 73 .
Se ha desarrollado un cuerpo impresionante de técnicas estadísticas
relacionado con el enfoque de los resultados potenciales: no sólo en
relación al diseño de experimentos para comprobar la eficacia de las
intervenciones —particularmente con ensayos aleatorizados controlados
(EAC)— sino también, y de mayor relevancia para nuestros propósitos
aquí, a la extensión de este enfoque a los estudios observacionales no
experimentales, incluyendo los basados en encuestas a muestras de
poblaciones (véase, por ejemplo, Rosenbaum, 1995). En este caso, lo que
en realidad importa es considerar estos estudios como si fueran
experimentos, aunque no sean realizados bajo el control del investigador, y
luego buscar los medios para contrarrestar los efectos que se derivan de un
diseño experimental adecuado. La principal obra que revisa estos
desarrollos desde el punto de vista de la sociología y defiende su uso por los
sociólogos es la de Morgan y Winship (2007). Los autores contraponen de
forma específica la aproximación a la causación de los resultados
potenciales con el enfoque de la regresión o «basado en ecuaciones»,
considerando que este último se opone al «pensamiento cuidadoso sobre
cómo difieren los datos disponibles de los que se hubieran generado en
experimentos ideales que uno hubiera querido realizar» (Morgan y Winship,
2007: 13) 74 .
Considerada en sus propios términos, la línea argumental que Morgan y
Winship persiguen es convincente y, al tratar de desarrollar argumentos
causales sobre la base de datos procedentes de estudios observacionales,
adoptar el punto de vista del diseño experimental puede proporcionar en
general una valiosa disciplina. Sin embargo, el enfoque de los resultados
potenciales no se ha adoptado ampliamente en sociología hasta ahora, y en
la medida en la que la sociología se entiende como una ciencia de la
población, parece poco probable que la situación cambie a la vista del
hecho de que, en este contexto, el enfoque plantea al menos tres dificultades
importantes.
Ante todo, lo que el enfoque de los resultados potenciales
necesariamente implica —por retomar una importante distinción
mencionada ya en la obra de John Stuart Mill (1843/1973-1974)— es
estudiar principalmente los efectos de las causas en lugar de las causas de
los efectos. Se selecciona una supuesta causa de un resultado de interés —
cualesquiera que sean las motivaciones para seleccionarla—, y el objetivo
es estimar su efecto. Esto supone una orientación muy diferente a empezar
por los efectos —como, por ejemplo, las regularidades poblacionales
establecidas— y luego buscarles una explicación causal. Como ya se ha
señalado, el enfoque de los resultados potenciales se deriva de, y
supuestamente es idóneo para, la investigación aplicada, incluyendo la
investigación social aplicada, donde el efecto de una intervención dada es
típicamente lo que ante todo interesa: en otras palabras, donde el objetivo es
evaluar si, y en qué medida, una forma de intervención —la causa— ha
logrado su objetivo en el sentido de que produzca el efecto deseado.
Sin embargo, para las preocupaciones centrales de la sociología como
una ciencia de la población, este enfoque puede parecer limitado. De hecho,
Morgan y Winship (2007: 280) reconocen que si a un investigador le
preocupan principalmente las causas de un efecto observado, como una
regularidad empírica demostrada de la población, entonces el enfoque de
los resultados potenciales es «menos útil» (véase también Gelman, 2011). Y
a este respecto interesa también que, en un trabajo dedicado al tratamiento
de la causación en demografía, como una ciencia establecida de la
población, Ní Bhrolcháin y Dyson (2007: 1-4) creen que «el enfoque
intervencionista no suele ser aplicable», porque en demografía «las grandes
preguntas se refieren a las causas de los efectos —¿qué causa un cambio en
la fecundidad? ¿Qué induce el descenso de la mortalidad?» 75 . Y, siguiendo
a Popper (1972: 115), se podría mantener que en realidad «en todas las
ciencias el enfoque normal va de los efectos a las causas. El efecto plantea
el problema —el problema que hay que explicar— y el científico intenta
resolverlo construyendo una hipótesis explicativa».
Segundo, hay que reconocer que el enfoque de los resultados potenciales
no elude la crítica planteada contra los intentos de demostrar la causación a
través de la regresión según la cual estos intentos no dan cuenta de cómo se
produce realmente el efecto causal supuesto. Así, para Cox (1992: 207), una
«importante limitación» de este enfoque es que no se ofrece «ninguna
noción explícita del proceso subyacente en un nivel observacional que sea
más profundo que el implicado en los datos que se están analizando». Y hay
otras reservas similares que fundamentan un escepticismo creciente en los
últimos años acerca de si incluso en la investigación aplicada el enfoque de
los resultados potenciales —en particular los EAC— tiene necesariamente
que considerarse como el «patrón oro» en materia de inferencia causal.
Un ejemplo importante de este escepticismo en la ciencia social es el
análisis de Deaton (2010) sobre los métodos para evaluar los proyectos de
ayuda al desarrollo en asuntos como, por ejemplo, la pobreza, la salud o la
educación. Deaton se muestra crítico con la idea —que al parecer apoya
hoy día el Banco Mundial— de que los EAC deban ocupar una posición
privilegiada en esta evaluación; y el fundamento principal de esta crítica es
que, mientras los EAC pueden proporcionar información fiable sobre si
unos determinados proyectos han tenido éxito, en sí mismos dicen poco de
por qué. En otras palabras, dicen poco sobre el «proceso subyacente» o los
mecanismos implicados en el éxito. Sin embargo, conocer esos mecanismos
es, según Deaton, crucial para determinar la validez externa de los EAC, es
decir, para calibrar en qué medida un proyecto que se ha demostrado que
«funciona» en una población funcionará en otra población muy diferente.
Pues no son los resultados reales de un EAC los que pueden «viajar» —los
que pueden generalizarse— de un contexto a otro, sino sólo la comprensión
del modo en que se han producido esos resultados y la necesidad de
considerar debidamente las condiciones bajo las que el mecanismo en
cuestión tiende, o no tiende, a mantenerse. (Para otros enunciados más
generales y elaborados de esta posición al respecto del diseño y evaluación
de políticas sociales, véanse Pawson y Tilley, 1997; Cartwright y Hardie,
2012.) 76
Tercero, cuando en la sociología como una ciencia de la población se
realiza el intento de dar cuenta de los procesos o mecanismos que crean una
relación causal, se requiere bajo el paradigma individualista que esta
explicación se exprese en última instancia en términos de la acción y la
interacción individuales. Sin embargo, este requisito entra luego en
conflicto directo con la máxima de Holland, básica para el enfoque de los
resultados potenciales, de que «no hay causación sin manipulación». Esto
se puede apreciar en el ilustrativo análisis que el mismo Holland ofrece de
los posibles enunciados causales que son compatibles con esta máxima y
los que no lo son. Holland (1986: 954-955) considera los siguientes tres
enunciados (para los propósitos de este capítulo, he cambiado el orden en el
que aparecen originalmente):

Ella hizo bien el examen porque su maestro la preparó.


Ella hizo bien el examen porque es mujer.
Ella hizo bien el examen porque estudió para hacerlo bien.

El primer enunciado no plantea problema alguno desde el punto de vista


del enfoque de los resultados potenciales: la manipulación o una
intervención —la preparación— ocurrió, y esta se puede considerar la causa
de que la mujer hiciera bien el examen. El segundo enunciado plantea el
problema de que ser mujer se considere «un atributo intrínseco» que, como
tal, no es susceptible de manipulación. Pero, al menos en sociología, con
frecuencia puede ser posible esquivar esta dificultad mediante la
reinterpretación: por ejemplo, en este caso, considerando que «porque es
mujer» no se refiere al sexo biológico, que es inalterable, sino al género,
que es sociológicamente variable y, por lo tanto, manipulable. Sin embargo,
es el tercer enunciado el que plantea un problema fundamental. Y esto es
así porque, en lugar de existir manipulación, la mujer, volviendo al análisis
del capítulo 3, hizo lo que puede considerarse como una elección orientada
a lograr un fin particular: quería hacer bien el examen; creía que estudiar
era el mejor modo de conseguir ese fin; actuó de acuerdo con esa creencia;
y, como su creencia era correcta, lo hizo bien.
Como Holland señala, es «el aspecto voluntario de la supuesta causa» lo
que conduce a la incompatibilidad con el enfoque de los resultados
potenciales. Y afirma también: «La índole voluntaria de muchas actividades
humanas hace que, en muchos casos, realizar enunciados causales sobre
estas actividades sea difícil» (Holland, 1986: 955). Pero lo que en realidad
quiere decir Holland aquí es que es «difícil dado el enfoque de los
resultados potenciales». A lo que puede responderse que esto indica la
relevancia limitada de este enfoque para la sociología o, en todo caso, para
la sociología entendida como una ciencia de la población. Porque, en este
caso, como se ha venido manteniendo en todo el libro, la meta última es dar
explicaciones causales de regularidades poblacionales establecidas en
términos de procesos sociales que están basados en la acción individual —
una acción en la que es necesario reconocer un importante elemento
autónomo tal y como se expresa en la elección informada y su racionalidad
implicada.
Aquí surge el antiguo problema filosófico fundamental de si las razones
pueden ser causas. En su día estuvo de moda argüir (véase, por ejemplo,
haciendo referencia específica a las ciencias sociales, Winch, 1958) que no
podían serlo, porque una causa debía ser lógicamente distinta de su efecto y
una razón no es lógicamente distinta de la acción a la que conduce. Pero
esta idea perdió apoyo luego en favor de otra que considera que las razones
de los individuos proporcionan la base para una forma tal vez especial, pero
aun así bastante legítima, de explicación causal para sus acciones (véase,
por ejemplo, Davidson, 1980, cap. 1). De hecho, es esta última posición la
que yo acepto, y la que desarrollaré en el capítulo 9.

69 A este respecto puede producir mucha confusión o equívocos el hecho de que el lenguaje de la
regresión esté lleno de términos con implicaciones aparentemente causales: «efectos»,
«determinantes», «dependencia», etc. A estas alturas sería complicado introducir una terminología
alternativa, pero serviría de mucho que más sociólogos se sumaran a seguir la práctica de aclarar los
casos en los que usan ese lenguaje aparentemente causal simplemente como una façon de parler. El
término «efectos estadísticos» se usa a veces para indicar que no son «efectos causales».

70 Algunos economistas parecen creer que, por lo que concierne a los rendimientos económicos de
la educación, la teoría del capital humano es suficiente. Sin embargo, en qué medida el logro
educativo está relacionado con el concepto de capital humano y qué variables de control —como, por
ejemplo, la capacidad cognitiva o distintos atributos no cognitivos— es apropiado introducir no está
nada claro. De acuerdo con la evaluación de la teoría del capital humano de Blaug (1992: 218), esta
permite «el recurso persistente a supuestos auxiliares ad hoc para dar cuenta de cualquier resultado
perverso».

71 La crítica que hizo Freedman (1992) al análisis de caminos causales implementado por Hope
(1984) quizá marca un punto de inflexión, aunque, como por lo general se ha reconocido (véase
Duncan, 1992), es simplemente una reformulación de una crítica anterior a esa metodología hecha
por Blau y Duncan (1967) que había circulado ampliamente como documento de trabajo.

72 La asignación aleatoria de unidades al tratamiento o a los grupos de control del experimento se


considera el medio crucial de controlar por todas las variables posiblemente confundidoras,
conocidas o desconocidas.

73 He analizado más minuciosamente esta y otras concepciones de la causación en Goldthorpe


(2007: vol. 1, cap. 9).

74 En realidad, Morgan y Winship prefieren hablar de la aproximación «contrafáctica» en lugar de la


de «resultados potenciales» a la causación y están claramente influidos por la obra de Pearl (2000),
que se puede considerar como un intento de reformular y desarrollar el enfoque de los resultados
potenciales con ideas procedentes de la ciencia computacional, implementadas mediante grafos
dirigidos acíclicos (GDA). Sin embargo, sigue habiendo mucha controversia sobre este asunto.
Véanse, por ejemplo, los duros intercambios en Statistics in Medicine, 2007-2009. Para un enfoque
diferente sobre el uso de los GDA, en mayor sintonía con la comprensión de la causación que se
desarrollará en el capítulo 9, véase Cox y Wermuth (1996: 216-227 especialmente). Estos autores
consideran que los métodos gráficos son capaces de proporcionar representaciones de los datos que
son «potencialmente causales» —es decir, que son «coherentes con o susceptibles de una
interpretación causal»— reconociendo al mismo tiempo que la causalidad tiene que establecerse a
partir de algún «proceso o mecanismo subyacente» derivado de la teoría en áreas de investigación
sustantivas.

75 Mahoney y Goertz (2006: 230-231) afirman que la orientación de «las causas de los efectos» es
un rasgo distintivo de la sociología cualitativa, mientras la de «los efectos de las causas» prevalece en
la sociología cuantitativa. Esta es, sin embargo, una suposición bastante infundada, y una vez más
ilustra la concepción de la sociología cuantitativa (y la ciencia política) —como excesivamente
limitada y autosuficiente— que los defensores de los métodos lógicos de análisis adoptan de forma
característica (véase el comentario de Achen sobre Ragin en el capítulo 4, nota 8). Se puede añadir
aquí que el intento de establecer las causas de los efectos a partir de las condiciones INUS (Mackie,
1974) que defienden Mahoney y Goertz se tropieza exactamente con los mismos problemas para
moverse de la asociación a la causación que se dan en el caso de la regresión. Como Cartwright
(2007: 34-35) señala, «las condiciones INUS no son causas. La fórmula INUS representa una
asociación de rasgos, una correlación, y sabemos que las correlaciones bien pueden ser espurias».
Para los que no estén familiarizados con la obra de Mackie, una condición INUS es una parte
insuficiente pero necesaria de una condición innecesaria [unnecesary, en inglés] pero suficiente para
que se dé un resultado. Sin duda, si el mundo social, o al menos nuestro conocimiento de él, ha de
considerarse probabilístico, no existen las causas suficientes y necesarias.

76 Se han expresado argumentos en la misma línea del de Deaton en el campo médico que
cuestionan si los ensayos clínicos —que suelen considerarse como ejemplos principales del enfoque
de los resultados potenciales— deben considerarse el patrón oro para la medicina basada en la
evidencia (véanse, por ejemplo, Worrall, 2007; Steel, 2008; Thompson, 2011). Sin embargo, los
ensayos clínicos tienden a estar más informados por la teoría que los EAC realizados en el campo
social y, como David Cox me ha comunicado, podrían considerarse en general como intentos de
probar ideas sobre los mecanismos (véase el capítulo 9) que ya disfrutan de apoyo empírico
procedente, por ejemplo, del laboratorio. Más apropiado sería extender el argumento de Deaton a las
predicciones basadas en grandes datos mediante análisis correlacionales completamente inductivos,
donde la preocupación es única y bastante explícitamente el qué y no el por qué (Mayer-Schönberger
y Cukier, 2013: 4). Por supuesto, estas predicciones dependen muchísimo de que el futuro sea como
el presente en los procesos causales subyacentes.
9. La explicación causal mediante
mecanismos sociales

Para dar explicaciones causales de las regularidades poblacionales


establecidas se deben hipotetizar procesos o mecanismos causales a partir
de la acción y la interacción individuales que cumplan dos requisitos: en
principio deben ser apropiados para generar las regularidades en cuestión,
y su funcionamiento real debe ser susceptible de comprobación empírica.
Tienen ventaja los mecanismos que se especifican explícitamente en
términos de una acción que es de algún modo racional.

Hasta bien entrado el siglo XX se consideró normal la idea de que las


explicaciones causales en la ciencia se lograban mostrando cómo los
fenómenos observados se derivaban de la operación de una ley general «de
cobertura» de tipo determinista (véase, por ejemplo, Hempel, 1965). Una
idea que, de hecho, persiste en varios sectores 77 . Sin embargo, como se
señaló en el capítulo 1, la revolución probabilística puso en cuestión la idea
de que la explicación causal dependía de la existencia de leyes
deterministas, y hace poco que ha surgido y ganado aceptación una idea
significativamente diferente de la naturaleza de esa explicación. En pocas
palabras, se trata de la idea de que las explicaciones causales implican
describir, de la forma más detallada posible, cómo exactamente —mediante
qué procesos o mecanismos en el continuo espacio y tiempo— una supuesta
causa produce realmente su efecto (para un análisis más detallado desde el
punto de vista de la filosofía de la ciencia, véase Illari, Russo y Williamson,
2011).
Los defensores de lo que puede llamarse la «explicación causal basada
en mecanismos» reconocen que la naturaleza de los mecanismos que hay
que identificar y los modos en los que se especifican varían mucho, en
relación con las entidades implicadas y sus capacidades causales, entre los
diferentes campos. Recuérdese que Neyman —quien puede considerarse un
defensor temprano de la idea de la explicación basada en mecanismos—
señaló que los mecanismos en una ciencia de la población para explicar las
regularidades probabilísticas en el nivel agregado, en lugar de ser
deterministas y atañer a cada caso individual, debían incorporar el «azar».
Y en la sociología entendida como una ciencia de la población, parece claro
que las entidades clave de esos mecanismos son los individuos y que debe
considerarse que la capacidad causal reside en la acción de esos individuos
y, en última instancia, en el grado de autonomía, en función de la
posibilidad de hacer elecciones informadas, que esa acción tiene (véase el
capítulo 3). Así, desde este punto de vista, la crítica antes mencionada a la
sociología de las variables en general y al análisis de la regresión en
particular, de que desatiende la acción individual que subyace a las
regularidades establecidas estadísticamente, se puede considerar que
implica «la demanda de mecanismos» (Elster, 1998). Lo que busca el
movimiento en favor de las explicaciones basadas en mecanismos en la
sociología es esencialmente, en palabras de Hedström y Bearman (2009a:
5), un medio de «hacer inteligibles las regularidades observadas con la
especificación detallada de cómo han sido establecidas» —o, en otras
palabras, hacer transparentes, además de visibles, esas regularidades.
Es importante aquí subrayar que la búsqueda de explicaciones causales
en sociología basada en mecanismos no implica en sí misma ningún avance
de tipo técnico. En particular, no se trata, como podría parecer en algunas
ocasiones, de incluir simplemente más variables «intervinientes» en el
análisis estadístico o de trazar grafos o diagramas de caminos causales más
complejos. El aporte crucial debe ser sociológico y teórico. En concreto, lo
que se requiere y lo que, en mi opinión, los sociólogos que buscan
explicaciones basadas en mecanismos han intentado proporcionar, son lo
que se podrían llamar las narrativas generalizadas de la acción y la
interacción que subyacen a las regularidades que requieren explicación.
Para que tengan valor explicativo (potencial), los mecanismos que están
representados en estas narrativas tienen que tener dos rasgos clave. Primero,
usando el término en un sentido algo diferente al de Max Weber, tienen que
ser causalmente adecuados: tiene que ser posible mostrar cómo, mediante la
acción y la interacción individuales especificadas, pueden generarse y
sostenerse las regularidades de interés. Segundo, las narrativas tienen que
expresarse de tal forma que la cuestión de si los mecanismos que
especifican operan de hecho o no de la manera hipotetizada sea susceptible
de examen empírico, con el fin de que en futuras investigaciones la
explicación ofrecida pueda ser refutada o corroborada.
Se puede apreciar cierta semejanza entre la formulación de las narrativas
de este tipo y lo que los defensores de los estudios de caso cualitativos (por
ejemplo, Collier, Brady y Seawright, 2004; George y Bennett, 2005: cap. 7)
denominan el «rastreo de procesos causales». Pero, como Bennett (2008:
704) ha reconocido, en la medida en que este enfoque se utiliza para
explicar sucesos singulares en lugar de regularidades establecidas, de lo que
se trata aquí es de especificar secuencias causales determinadas —o, en
otras palabras, explicaciones históricas (véase el capítulo 4)— en lugar de
identificar los mecanismos que operan recurrentemente. Como Elster (1998:
45-49) ha observado, aunque las explicaciones basadas en mecanismos
tienen menos capacidad de generalización que las explicaciones basadas en
leyes de cobertura, siguen aspirando a una mayor generalidad que las
narrativas de tipo ideográfico.
En sociología se pueden identificar dos enfoques diferentes al desarrollar
explicaciones basadas en mecanismos. Distinguiéndolos y comparándolos
se apreciarán algunas cuestiones importantes sobre la práctica real de la
construcción de explicaciones en la sociología como una ciencia de la
población.
Uno de ellos es el que adopta explícitamente Elster (1989, 2007), pero
más ampliamente quienes defienden lo que ha dado en conocerse como
«sociología analítica» (Hedström y Swedberg, 1998b; Hedström y
Bearman, 2009b). En este caso, se puede considerar que el objetivo es crear
una suerte de catalogue raisonné de los mecanismos que operan en la vida
social, desde el más elemental hasta el más complejo. Lo que al parecer se
espera es que los sociólogos que encaran un problema explicativo sean
capaces de buscar en este catálogo los mecanismos que con mayor
probabilidad procuren soluciones o, por usar la metáfora promovida por
Elster (1989: 3) —y adoptada por Hedström y Bearman—, que los
sociólogos puedan usar «una caja de herramientas de mecanismos: tuercas,
tornillos, engranajes» que está a su disposición.
La ventaja principal de este enfoque es que abre la posibilidad de la
integración teórica y el desarrollo sistemático de los mismos o parecidos
mecanismos que operan en una serie de campos sustantivos diferentes. Y a
este respecto se podría proclamar cierto avance —como, por ejemplo, en el
caso de varios mecanismos de difusión social, el efecto Mateo, el
mecanismo de la ventaja acumulada y los mecanismos de señalización
(véanse Palloni, 1998; DiPrete y Eirich, 2006, y Gambetta, 2009,
respectivamente).
Sin embargo, este enfoque tiene también sus peligros. Quizás el más
evidente es que puede suscitar más interés por los mecanismos per se que
por el grado de su potencial explicativo: es decir, por su aplicación más allá
de los casos seleccionados especialmente con el fin de ilustrar mejor su
aplicación. El foco de atención se mueve hacia unos mecanismos
determinados y hacia qué pueden explicar, en lugar de centrarse en las
regularidades sociales establecidas pero no transparentes y en cómo deben
explicarse. De este modo —y por volver al análisis del capítulo 8—, la
preocupación más evidente son los efectos de las causas en lugar de las
causas de los efectos: se diría que la atención se centra simplemente en la
adecuación causal, en el sentido que se ha mencionado antes. Sin embargo,
como también se ha señalado ya, aunque la adecuación causal es necesaria
para una explicación exitosa basada en los mecanismos, no es suficiente.
También es necesario proporcionar evidencia de que el mecanismo supuesto
es el que realmente opera para producir las regularidades que se están
examinando (Erikson, 1998).
Un segundo enfoque en el desarrollo de las explicaciones basadas en
mecanismos se podría considerar más congruente con la idea de la
sociología como una ciencia de la población. Este enfoque es el que
adoptan los sociólogos cuyo punto de partida son las regularidades
probabilísticas de la población que han sido establecidas en algún campo de
investigación sustantivo, pero que siguen sin haber recibido una explicación
satisfactoria: esto es, que siguen siendo regularidades opacas, no
transparentes, y no se han comprendido bien los modos en los que se
derivan de la acción y la interacción individuales bajo las condiciones
predominantes de la acción. Está claro que la cuestión que hay que encarar
aquí son las causas de los efectos.
Hay que decir que este segundo enfoque no está tan elaborado como el
primero. Como se señaló en el capítulo 1, los sociólogos que centran su
atención en las regularidades de la población han avanzado más en la
descripción de estas regularidades que en su explicación, más en hacerlas
visibles que transparentes. Hay que reconocer también que al hipotetizar
mecanismos causales en relación con unas regularidades específicas, estos
pueden adoptar un carácter en cierto modo ad hoc. Sin embargo, es también
probable que en estos casos pueda concebirse más de un mecanismo y de
esta forma se subraya la importancia de la comprobación empírica diseñada
para determinar los méritos relativos de las diferentes explicaciones que se
ofrecen.
Puede así considerarse que el rasgo más importante de la segunda
aproximación a las explicaciones basadas en mecanismos es que, al
adoptarlo, se plantea otro problema crucial para la sociología como una
ciencia de la población: cómo —mediante qué formas de investigación—
puede uno determinar mejor la operación real de los mecanismos causales
o de los procesos sociales que subyacen, volviendo a la frase de Cox (1992:
297), en «un nivel observacional más profundo que el implicado en los
datos inmediatos que se están analizando». En cuanto a los métodos de
recogida y análisis de datos que implican, estas formas de investigación no
tienen por qué ser las mismas que las que son esenciales para lograr
establecer con fiabilidad y exactitud las regularidades de la población —los
explananda— y de hecho pueden ser diferentes.
Para ilustrar los problemas —y las posibilidades— que surgen aquí,
consideraré los intentos de explicar las regularidades que se han establecido
respecto de las desigualdades de logro educativo entre niños de diferentes
orígenes sociales, y en particular de diferentes clases sociales. Lo que se ha
mostrado con varios tipos de análisis estadísticos de datos de encuesta es
que estas desigualdades se manifiestan de dos formas diferentes: efectos
«primarios» y efectos «secundarios» (Jackson, 2013). Primero, en general,
los niños de las clases aventajadas rinden más en promedio que los de
clases desaventajadas, es decir, en materia de notas, pruebas, exámenes,
etc.; pero, segundo, los niños de las clases aventajadas también tienden a
hacer elecciones educativas más ambiciosas que los de clases
desaventajadas incluso cuando el nivel de rendimiento previo se mantiene
constante.
Se ha avanzado bastante en la comprensión de los efectos primarios y se
sigue avanzando en el análisis de la compleja interacción entre las
influencias genética, económica y sociocultural; pero los efectos
secundarios plantean un problema diferente y más específicamente
sociológico 78 . Es inadecuado intentar explicar estos efectos atendiendo sólo
a las diferencias de clase social que inciden en los valores y las normas
relacionadas con la educación, porque en las sociedades modernas suele
ocurrir que los jóvenes de todas las clases sociales están aumentando de
forma constante sus aspiraciones, participación y logro educativos, aunque
persistan marcadas desigualdades (véase Goldthorpe, 2007: vol. 2, capítulos
2-4). Lo que se requiere es una narrativa coherente con el paradigma
individualista que no se base en el seguimiento irreflexivo e incondicional
de las normas y que tenga en cuenta las metas de los individuos, las
constricciones —normativas y no normativas— bajo las que persiguen esas
metas y las elecciones informadas que hacen para seguir un curso de acción
en lugar de otro.
De hecho, se ha sugerido una serie de mecanismos en esta misma línea.
Algunos autores (por ejemplo, Esser, 1999; Becker, 2003) han adoptado un
enfoque bastante estándar en microeconomía: el de la «utilidad esperada».
Otros, como Richard Breen y yo mismo (Goldthorpe, 1996; Breen y
Goldthorpe, 1997; compárese con Erikson y Jonsson, 1996), hemos
propuesto mecanismos basados en la «racionalidad de la vida cotidiana», un
enfoque más delimitado y menos exigente (véase el capítulo 3). A
continuación, me centraré en lo que ha venido a conocerse como la teoría
de Breen-Goldthorpe de «la aversión al riesgo relativa» (ARR), no tanto
para privilegiar mi propia obra sino porque la teoría de la ARR ha sido
sometida a mucha y más variada comprobación empírica que otras de este
campo 79 .
La suposición básica de la teoría de la ARR es que los jóvenes y sus
padres, cuando hacen elecciones educativas con vistas al futuro, priorizan
evitar la movilidad social descendente antes que lograr la movilidad
ascendente 80 . Sin embargo, si bien se puede considerar que la aversión al
riesgo es igual, en relación a la procedencia social los riesgos reales
implicados en la elección educativa no son iguales. Al intentar mantener la
posición de sus padres, los niños de orígenes sociales más aventajados
tendrán poco que perder si aprovechan todas las oportunidades educativas
de las que disponen por su rendimiento previo —incluso aunque las
probabilidades de éxito final sean dudosas. Pero en el caso de los niños de
orígenes sociales menos aventajados, la elección educativa será más
problemática. Porque en su caso las elecciones ambiciosas que pueden
terminar en fracaso no sólo pueden ser costosas por sí mismas en varios
aspectos, sino que pueden además impedir elecciones menos ambiciosas
que, aun sin ofrecer grandes perspectivas de ascenso, les protegen en todo
caso con eficacia de la movilidad descendente. Por consiguiente, para que
esos niños hagan una elección más ambiciosa necesitan tener más seguridad
en su éxito —lo cual se plasma, por ejemplo, en un nivel alto de
rendimiento previo— que sus pares más aventajados.
Si intervienen los mecanismos descritos en esta narrativa, entonces se
generarán efectos secundarios de las desigualdades de clase en el logro
educativo por simple agregación. En otras palabras, el mecanismo podría
considerarse que es causalmente adecuado. Pero ¿cómo se puede
determinar si, o en qué medida, está operando? Se pueden identificar al
menos tres estrategias de investigación diferentes y, por supuesto, cada una
requiere —por volver al argumento del capítulo 5— conceptualizar y
operacionalizar de manera adecuada las variables relevantes.
La primera estrategia sería la observación directa. Si se entienden los
mecanismos causales como procesos en el continuo espacio-tiempo,
entonces en principio se puede obtener evidencia directa de su
funcionamiento cuando intervienen, y, en este caso, los estudios de caso
intensivos y adecuadamente enfocados (véase la página 78) serán de
utilidad. Por lo que respecta a la teoría de la ARR, se ha hecho bastante
investigación para comprobar que es coherente con los resultados obtenidos
en entrevistas detalladas a muestras de jóvenes (por ejemplo, Need y de
Jong, 2000; Sullivan, 2006) o a sus padres (por ejemplo, Stocké, 2007)
sobre las metas, los planes y las expectativas educativas. Así, se ha
descubierto inter alia que, aunque las actitudes generales hacia la educación
y su valor extrínseco e intrínseco difieren poco por origen social, las
elecciones educativas finales están influidas a menudo, si es que no
invariablemente, por la consideración de mantener los niveles de educación
y la clase social de los padres, como la teoría predice. Pero, al mismo
tiempo, esa investigación también indica que hay otros factores que pueden
servir adicionalmente para producir efectos secundarios: por ejemplo, una
tendencia a que la valoración que los estudiantes hacen de su propia
capacidad sea mayor cuanto más aventajados son sus orígenes sociales,
incluso cuando se controla por el rendimiento previo, y también una
tendencia a que tanto las constricciones económicas como las informativas
sean mayores para los estudiantes de orígenes menos aventajados.
A diferencia de la primera, la segunda estrategia implica lo que podría
describirse como un intento de observación indirecta de los mecanismos
causales hipotetizados. En este caso, el objetivo es mostrar que los
mecanismos que se están examinando implican otras regularidades además
de las que se pretenden explicar para luego ver si estas regularidades se
pueden demostrar 81 . Con la teoría de la ARR, los trabajos de Davies,
Heinesen y Holm (2002) y Holm y Jaeger (2008) constituyen un ejemplo
particularmente bueno de esta estrategia. Lo que señalan estos autores es
que, de acuerdo con la teoría de la ARR, el efecto de la procedencia social
de los padres en las elecciones educativas de los hijos no es continuo en el
transcurso de sus carreras educativas, sino más bien «curvado», en el
sentido de que se debilita una vez que los hijos alcanzan un nivel educativo
con una probabilidad alta de evitar la movilidad descendente. Mediante el
análisis de los datos de las transiciones de estudiantes en el sistema
educativo danés se muestra que las expectativas derivadas de la teoría de la
ARR encuentran apoyo en muchos casos, si no siempre.
La tercera estrategia posible es más experimental que observacional. A
la luz de un mecanismo causal propuesto tal vez se pueda diseñar un estudio
experimental o, por lo menos, casi experimental, con el fin de valorar en
qué medida una intervención o «tratamiento» (véase el análisis del capítulo
8) tiene los efectos del tipo esperado si el mecanismo estuviese de hecho
operando. Es decir, en este contexto es apropiado adoptar el enfoque de «los
efectos de las causas» (véase Gelman e Imbens, 2013). Con respecto a la
teoría de la ARR, hasta ahora no se ha desarrollado ninguna comprobación
experimental específica. Sin embargo, se está realizando en Italia un gran
estudio 82 cuyo diseño se aproxima a una PCA (prueba controlada
aleatorizada) y que en parte está influido por la teoría de la ARR. Investiga
los efectos de proporcionar a estudiantes de una muestra de escuelas
secundarias un asesoramiento especializado sobre sus probabilidades de
éxito si van a la universidad (dado su rendimiento académico hasta ese
momento), sobre los costes que probablemente tendrán al escoger
determinados cursos y sobre los rendimientos que es probable que
obtengan. Comparando luego las elecciones de los estudiantes que
recibieron asesoramiento con los de la muestra escolar de control que no lo
recibió, se podrá hacer una estimación de la importancia de las
constricciones puramente informativas, no económicas, en la decisión de
hacer o no estudios universitarios. De acuerdo con la teoría de la ARR, se
espera que, aunque de ese modo se logre una cierta reducción de los efectos
secundarios de las desigualdades de clase, tales efectos permanecerán en
gran medida, porque las diferencias en los riesgos implicados en esta
decisión asociados a las desigualdades de clase en los recursos económicos
seguirán operando.
Estas diferentes estrategias de investigación para comprobar los
mecanismos causales hipotetizados no están ordenadas según su
importancia. Cada una tiene sus propias ventajas y desventajas. Lo
importante es comprobar el funcionamiento real de los mecanismos en el
mayor número de casos diferentes posibles y que los resultados obtenidos
se consideren en relación unos con otros 83 . No debe esperarse que una
comprobación particular produzca resultados «decisivos», al menos no de
tipo positivo, sino, como mucho, resultados «avalados», por recurrir a la útil
terminología de Cartwright (2007: cap. 3); por lo tanto, se tiene que dar
importancia máxima a en qué medida los resultados de diferentes
comprobaciones «se corresponden» o no. A este respecto, parece
especialmente idóneo el modelo de «crucigrama» de Haack (1998: cap. 5)
para evaluar la evidencia en relación con una hipótesis, acentuando la
consistencia o inconsistencia de las implicaciones de los diferentes
hallazgos empíricos (véase también Cox y Donnelly, 2011: caps. 1 y 2) 84 .
En sociología el enfoque de las explicaciones basadas en mecanismos
que parte de una regularidad poblacional establecida como explanandum
tiende a diferir del enfoque orientado a crear un catálogo, o caja de
herramientas, de mecanismos explicativos en la importancia que se atribuye
a la pregunta de si un mecanismo determinado es o no es el que realmente
está operando en un caso dado —más allá de su nivel de adecuación causal.
Hay, además, otra diferencia entre los dos enfoques que es de cierta
trascendencia y que también debe señalarse para concluir.
En el enfoque del catálogo se adopta una perspectiva bastante universal
—muy apropiada— respecto del fundamento teórico de los mecanismos
especificados. Así, Hedström y Bearman (2009a: 22 n. 1) señalan que,
aunque en sociología los defensores de las explicaciones basadas en
mecanismos intentan por lo general especificar los mecanismos en términos
de la acción y la interacción de los individuos, eso no implica un
compromiso igualmente general con la teoría de la acción racional. Los
mecanismos propuestos como «tuercas, tornillos y engranajes» de las
explicaciones sociológicas pueden asignar una importancia clave a la acción
orientada principalmente a las expectativas de otros y a la conformidad con
las normas sociales prevalecientes en los grupos, las redes sociales, las
comunidades, etc. Sin embargo, en la medida en que los sociólogos
preocupados por las regularidades poblacionales ya establecidas pero aún
opacas buscan explicaciones de esas regularidades basadas en mecanismos,
la tendencia ha sido considerar estos mecanismos en tanto implican una
acción concebida como racional —aunque, con más frecuencia, como
ocurre con la teoría de la ARR, en un sentido más limitado que demoníaco.
La importancia de esta diferencia atañe a la que es la objeción quizá más
sólida que hasta ahora se ha hecho al enfoque de la explicación basada en
mecanismos, tanto en general como en las ciencias sociales en particular. Se
trata de la objeción (véase, por ejemplo, Kincaid, 2011; compárese con
Keohane y Verba, 1994: cap. 3) de que buscar los mecanismos generadores
que subyacen a las regularidades observadas conduce, en efecto, a una
regresión infinita. Hace algún tiempo, el filósofo Patrick Suppes sugirió que
«... los mecanismos postulados y usados por una generación son
mecanismos que deben explicarse y entenderse en términos de mecanismos
que son más primitivos para la siguiente generación» —o, en pocas
palabras, que «el mecanismo de un hombre es la caja negra de otro
hombre» (Suppes, 1970: 91). Surge así la pregunta de si este proceso se
detiene en algún punto evidente —que no sea recurrir a las «leyes
generales» de la naturaleza (inexplicables en sí mismas) del tipo de las que
intenta evitar la explicación basada en mecanismos.
Por lo que se refiere a las ciencias sociales, Hedström (2005: 27-28) ha
señalado que se pueden identificar puntos adecuados donde detenerse:
cuando los mecanismos formulados dejan de estar en la zona de interés de
estas disciplinas y pasan presumiblemente al campo de las ciencias físicas o
biológicas. Pero de hecho se puede dar una respuesta más potente. Si los
mecanismos que supuestamente explican las regularidades poblacionales se
basan en una acción que refleja normas sociales, entonces, aun en el caso de
poder demostrar que esos mecanismos están interviniendo, hay otras
preguntas, como las mencionadas en el capítulo 3, que requieren una
respuesta: por qué son esas normas y no otras las que influyen y por qué los
individuos actúan de acuerdo a esas normas y no las contravienen o incluso
las desafían. Mientras no se respondan preguntas como estas, se puede
sostener que las cajas negras existen claramente. En cambio, si la acción
implicada en unos mecanismos dados se puede considerar racional —
aunque sea en el sentido subjetivo y limitado de que los individuos
implicados la consideran como la acción más adecuada para alcanzar sus
fines, dadas las condiciones bajo las que tienen que actuar—, estamos en
una situación diferente. En este caso, hemos logrado identificar un punto de
detención porque, como ha señalado Hollis (1977: 21; cfr. Boudon, 2003a,
Introduction), «la acción racional es su propia explicación». Como arguyó
Coleman (1986: 1), la acción racional de los individuos, aunque su
racionalidad sea sólo subjetiva, es toda acción «comprensible» sobre la que
no es necesario hacer más preguntas y que, por lo tanto, tiene «un atractivo
singular» como base de la teoría sociológica. En otras palabras, cuando el
elemento «esencial» de una explicación sociológica no son las normas
sociales sino la acción racional —que puede o no resultar concordante con
las normas—, se satisfacen los dos tipos de requisitos, el explicativo y el
hermenéutico (véase además Goldthorpe, 2007: vol. 1, cap. 7) 85 .
En el contexto de la sociología como una ciencia de la población, la
búsqueda de explicaciones de regularidades probabilísticas basadas en
mecanismos se puede hacer con dos énfasis distintivos. Primero, y en
consonancia con la preocupación por las causas de los efectos, el énfasis se
pone menos en los efectos que los mecanismos podrían producir que en la
comprobación de si los mecanismos propuestos son los que realmente están
interviniendo en los casos particulares que interesan. Segundo, y en
consonancia con el paradigma individualista subyacente, el énfasis recae en
los mecanismos que en última instancia se pueden expresar en términos de
las elecciones informadas de los individuos entre las posibilidades que
contemplan y de la racionalidad implicada en esas elecciones y la acción
que se sigue de ellas.

77 Por ejemplo, quienes mantienen desde dentro de la sociología que esta no puede convertirse en
ciencia suelen atribuir mucha importancia a su fracaso para producir leyes generales. Esto implica
una comprensión limitada tanto de los desarrollos en la filosofía de la ciencia como de la práctica real
en las ciencias —o, en todo caso, una preocupación indebida por la física clásica. Sobre el modo en
que las ciencias biológicas ofrecen patrones mucho más instructivos para la sociología que atañen a
modelos de explicación y otras generalidades, véase Lieberson y Lynn (2002).

78 En el caso de los efectos primarios es evidente que los mecanismos causales que operan no son
sólo los de interés sociológico que se pueden expresar en términos de, por ejemplo, las acciones de
los padres relacionadas con las oportunidades de éxito educativo de sus hijos, en tanto están
condicionadas por las diferentes formas y niveles de recursos de los que disponen, sino también los
mecanismos que caen en el dominio de la epigenética, la neurociencia y la psicología del desarrollo.

79 En Goldthorpe (2007: vol. 2, cap. 4), analizo los resultados de seis comprobaciones distintas, y
podría haber incluido más: Holm y Jaeger (2008) refieren otras cuatro comprobaciones antes de
proceder a la suya (véase más adelante en el texto), y puedo constatar que hay otras más recientes
aún. Previamente, yo concluí que, aunque han surgido algunos problemas con la teoría de la ARR y
se ha indicado la necesidad de refinarla y elaborarla más, sigue estando esencialmente «viva». Y esta
es la posición que yo defiendo. Breen y Yaish (2006) y Breen, van de Werfhorst y Jaeger (2014) han
realizado intentos interesantes de ampliar la teoría. Yo mismo (Goldthorpe, 2007: vol. 2, cap. 7)
intenté ampliarla a la movilidad intergeneracional de clase y espero continuar este trabajo en el
contexto de la investigación empírica sobre movilidad social a la que me dedico actualmente.

80 La teoría podría considerarse como un caso especial de la más general «teoría de las
perspectivas» propuesta por Kahneman y Tversky (1979), según la cual la pendiente de las curvas de
utilidad de los individuos es mayor en el dominio de las pérdidas que en el dominio de las ganancias.
Sin embargo, no deseo seguir a Kahneman (2011: 286) en su suposición de que «la teoría de la
perspectiva»—o, por ende, la teoría de la ARR— incorpora un «fallo de racionalidad» simplemente
porque viola la lógica de la elección inherente a la teoría de la utilidad esperada (véase la nota 7 del
cap. 3).

81 Se puede entender esta estrategia en tanto en cuanto implica el célebre método «hipotético-
deductivo» de Popper (1959). Pero, al mismo tiempo, depende de otras regularidades que se derivan
de la teoría que se está examinando —lo que, a su vez, da fuerza a lo que ha venido a conocerse
como «máxima de Fisher». Cochran (1965) señala que cuando le preguntaron a R. A. Fisher cuál era
la mejor manera de hacer estudios observacionales para producir conclusiones causales, éste
respondió: «Que tus teorías funcionen», es decir, que tus teorías sean potencialmente susceptibles de
comprobación en el mayor número de casos diferentes posibles.

82 Este estudio lo dirige el profesor Antonio Schizzerotto en el Instituto de Investigación para la


Evaluación de las Políticas Públicas de Trento.

83 Hay otra estrategia posible conocida como modelo computacional basado en agentes (CBA). En
este caso (véase Epstein, 2006: cap. 1), la idea básica es preguntarse cómo una regularidad
poblacional dada se genera por medio de las acciones e interacciones de agentes autónomos y
heterogéneos, y luego intentar construir un modelo que sea capaz, mediante una simulación
computacional, de «desarrollar» la regularidad en cuestión. Esta estrategia puede proporcionar una
comprobación fuerte de la adecuación causal —lo que los modeladores de CBA llaman «suficiencia
generativa»— de un mecanismo propuesto, y actualmente están surgiendo aplicaciones interesantes y
teoréticamente sugerentes tanto en sociología como en demografía (véase, por ejemplo, Todd, Billari
y Simao, 2005, para un modelo capaz de reproducir las regularidades observadas en la edad al primer
matrimonio, basándose en una heurística «rápida y frugal»). Sin embargo, por repetir lo que se ha
señalado en el texto, mostrar la suficiencia generativa de un mecanismo no equivale a mostrar que es
de hecho ese mecanismo el que está operando en un caso dado.

84 Quiero expresar mi agradecimiento a Jan Vandenbroucke por llamar mi atención sobre la obra de
Haack y también (junto a David Cox) sobre un artículo clásico en epidemiología que constituye una
ilustración excelente de la aplicación del modelo de crucigrama: el metaanálisis de la evidencia del
tabaco como causa del cáncer de pulmón realizado por Cornfield et al. (1959).

85 Watts ha argüido que de las explicaciones de los fenómenos sociales basadas en lo que para él es
una «acción racionalizable» «no se espera en general que satisfagan los estándares de la explicación
causal», aunque sean atractivas en la medida en que proporcionan «comprensión» (Watts, 2014: 314-
315). Sin embargo, los estándares que Watts supone son los del enfoque de los resultados potenciales,
que, como se dijo en el capítulo anterior, se pueden cuestionar al menos en relación con su
aplicabilidad en sociología; además, a medida que avanza su artículo, parece abogar por comprobar
los modelos explicativos que invocan la «acción racionalizable» fuera de la muestra —es decir, con
datos y análisis diferentes de los que condujeron a su formulación inicial— lo que, sin lugar a dudas,
está perfectamente en línea con el argumento de este capítulo. Obviamente se pueden formular otras
preguntas sobre los fines hacia los que la acción racional se orienta. Sin embargo, como se vio en el
capítulo 2, sigue siendo una cuestión muy dudosa en qué medida la elección de los fines de los
individuos está abierta a cualquier tipo de explicación sistemática.
Conclusión

En este capítulo conclusivo no me propongo resumir todo lo que ya he


expuesto anteriormente. En la Introducción señalé que los lectores que
buscaran un panorama general de la argumentación del libro podían
simplemente leer las propuestas que encabezan los capítulos centrales.
Espero que quienes habiendo llegado hasta aquí sientan la necesidad de
cierta recapitulación puedan encontrar asimismo que basta con esa lectura.
Lo que quiero tratar aquí es lo que podría considerarse que se sigue de
aceptar mi argumento de que la sociología debe verse como una ciencia de
la población. Me preocupan, en concreto, sus implicaciones para la
sociología como disciplina académica, para sus relaciones con otras
disciplinas y para su papel público.
Para la sociología como disciplina, lo que quizá se sigue más
obviamente de comprenderla como una ciencia de la población es que el
alcance actual de sus miras se debe reducir de forma significativa. Es decir,
al considerar las regularidades de la población como sus explananda, al
centrarse en establecer el grado y la forma de esas regularidades con
métodos basados en la estadística, y al desarrollar y comprobar
explicaciones basadas en mecanismos de su generación y persistencia, es
incuestionable que la sociología deberá abordar una menor gama de
asuntos, con estilos de investigación menos diversos y con una concepción
de sus fines últimos más limitada de la que tiene en la actualidad. Abbott
(2001: 5-6) ha observado que la sociología «no sabe bien excluir asuntos de
su alcance» y que «cuando un área reclama la atención de la sociología, la
disciplina no tiene ninguna manera intelectualmente eficaz de negar esa
atención» (cursivas en el original). La sociología como una ciencia de la
población la tendría si se basara en una definición relativamente clara de
cuáles son exactamente sus propios objetos de estudio y cuáles no —y
cuáles son, por lo tanto, los métodos más adecuados de recogida y análisis
de datos y sus modos de explicación. Desde este punto de vista, como decía
Mies van der Rohe, menos es más.
Sin embargo, admito que el hecho de que esto implique una clara
disminución del alcance y la diversidad del dominio de la sociología será lo
que probablemente suscitará más oposición y crítica a la idea de la
sociología como una ciencia de la población. Anticipándome a esta
reacción, voy a volver a formular una cuestión que ya subrayé en la
Introducción. Cuando abogo por la sociología como una ciencia de la
población, mi preocupación no es tanto desarrollar un programa normativo
—es decir, indicar a los sociólogos lo que deben hacer— como establecer
una razón de ser más meditada del modo en que un número elevado y
creciente de ellos parecen estar practicando ya la sociología, y contribuir así
a sentar la base sobre la que, en mi opinión, podría discurrir mejor el
desarrollo de una sociología científica. Como ya señalé en la Introducción,
los contraargumentos a mi posición de más relevancia y peso serán aquellos
que defienden los sociólogos comprometidos con este mismo proyecto,
pero que opinan que hay otros caminos más prometedores. Y las respuestas
que se han dado en esta línea —respuestas que indican modelos alternativos
para la sociología como una ciencia— representan un resultado muy
positivo del presente libro. En cuanto a los sociólogos que defiendan
agendas diferentes —como, por ejemplo, una forma de sociología
«humanista» o «comprometida» sociopolíticamente—, no hay duda de que
seguirán intentando llevar a cabo sus propios proyectos, por lo que cabe
esperar que se mantendrá el carácter altamente pluralista de la sociología en
su conjunto.
En relación con este asunto se podrían hacer otras dos observaciones. La
primera es la obvia de que llega un punto en el que el pluralismo en una
disciplina, de ser un activo pasa a ser un pasivo: es decir, cuando se pone en
cuestión la existencia misma de su índole disciplinar. Por ejemplo, como
sociólogo británico que trabaja principalmente en un contexto europeo,
tengo que señalar que a la luz de una revisión de la mayoría de los artículos
que se publica en revistas británicas como Sociology o Sociological Review
y, por otra parte, de la mayoría de los que publica la European Sociological
Review o Acta Sociologica (editada en los países nórdicos), no es una tarea
fácil explicar exactamente en qué sentido se puede decir que son trabajos
que se enmarcan en una única y misma disciplina. Esto no puede ser una
circunstancia favorable por lo que respecta a la posición de la sociología en
la academia o a sus probabilidades de seguir teniendo apoyo público, moral
o material 86 . Además, al menos en relación con quienes se esfuerzan por
desarrollar la sociología como una ciencia, el pluralismo siempre estará en
cierta tensión con el objetivo de alcanzar lo que Ziman (1968) llama el
conocimiento «consensual». Mientras en la frontera de la investigación
cabe esperar que surjan perspectivas divergentes y conflictivas, debates y
controversias, que además representan un papel crucial en el proceso
científico, en algún momento las disputas fronterizas tienen que trasladarse
al desarrollo de un conocimiento «central» en el que todos los trabajadores
competentes en el campo pueden coincidir. En la medida en que esto no
ocurre en sociología, su pretensión al estatus de ciencia queda claramente
socavada (Cole, 1994).
La segunda observación, relacionada con la primera, es que en el
pluralismo de la sociología de hoy día, aquellos a quienes principalmente
preocupa su desarrollo como una ciencia pueden legítimamente reclamar y
explotar su derecho a criticar los trabajos que surgen de las versiones de la
sociología orientadas a otros fines alegando razones que consideran
científicas; a saber: basándose en última instancia en la calidad de los datos
y de su correspondiente análisis y en la consistencia lógica de la evidencia y
la argumentación. En otras palabras, los que rechazan la idea de la
sociología como ciencia no pueden, con ese rechazo, crear un tipo de
inmunidad para ellos mismos contra los desafíos a sus propias pretensiones
de conocimiento. Se trata de una cuestión relacionada con el papel público
de la sociología a la que me referiré más adelante en esta conclusión.
Ahora, sin embargo, me ocuparé de las implicaciones de comprender la
sociología como una ciencia de la población para sus relaciones con otras
disciplinas académicas, admitiendo que la reorientación de la sociología
que propongo probablemente será motivo de disensión.
Lo que más preocupa a algunos son sus implicaciones para la relación
entre la sociología y la historia. En particular, la argumentación del capítulo
4 implica un rechazo de la idea defendida por autores como Giddens (1979)
y Abrams (1980) de que en realidad no hay necesidad alguna de reconocer
fronteras entre la sociología y la historia como disciplinas académicas. Lo
que yo mantengo aquí es que el modo de explicación histórica tal y como se
aplica en el caso de sucesos singulares, o complejos de sucesos de este tipo,
es claramente diferente del modo de explicación sociológica que se aplica
en el caso de regularidades demostradas de sucesos. Las explicaciones
históricas, aunque se inspiren en teorías de distintas fuentes, no dejan de ser
narrativas espacio-temporales específicas de la acción y la interacción en
las que casi siempre se asigna un papel importante a la pura contingencia —
al azar esencial. Las explicaciones sociológicas intentan ser narrativas
espacio-temporales tan generales como sea posible, y aunque los
mecanismos o procesos causales a los que se refieren incorporan el azar, se
trata de un azar «domesticable», en el sentido de que tanto los explananda
como las explicaciones son de índole probabilística 87 .
Para evitar malentendidos quiero enfatizar al mismo tiempo que la idea
de la sociología como una ciencia de la población en modo alguno impide o
se opone a la investigación que se emprende en el contexto de las
sociedades históricas. Todo lo contrario, si se pueden conseguir datos
adecuados, la investigación de las regularidades poblacionales en estas
sociedades puede ser de mucho valor. Señalé en el capítulo 2 que este tipo
de investigación —ya se realice como «sociología histórica» o como
«historia social»— ha desempeñado un papel importante a la hora de
socavar las nociones ingenuas de las sociedades y comunidades
«tradicionales» inspiradas en el paradigma holístico. Y los trabajos que se
realizan en esta línea u otra similar contribuyen hoy día de forma sustancial
a nuestra comprensión de los elementos comunes y diferentes entre las
sociedades modernas tempranas y las sociedades en vías de
industrialización en áreas de estudio como la formación de la familia, la
estructura de los hogares, la división del trabajo ocupacional y la
estratificación y movilidad sociales. Por ejemplo, considero que la obra que
produce el Grupo de Cambridge para la Historia de la Población y la
Estructura Social o la red de Análisis Histórico Internacional de la
Movilidad Social, radicado en la Universidad de Utrecht, proporciona
ilustraciones notables de la sociología como una ciencia de la población.
Así, aunque la relación entre la sociología y la historia es tal que
requeriría una más clara diferenciación si la sociología se ha de entender
como una ciencia de la población, se dan al mismo tiempo otros casos en
los que esa concepción debilita las fronteras disciplinares, si es que no las
elimina completamente. El caso más claro es sin duda el de la sociología y
la demografía, una ciencia de la población ya establecida.
De hecho, a mediados del siglo XX, especialmente en algunos países
como Estados Unidos y Gran Bretaña, pero también en Francia, las dos
disciplinas ya estaban cerca. Los investigadores, fuesen nominalmente
sociólogos o demógrafos, trataban cuestiones similares y usaban
metodologías parecidas —como, por ejemplo, en algunos campos como los
determinantes de la fecundidad, la homogamia y la heterogamia, las pautas
migratorias, la segregación residencial por etnia o estatus social, las
desigualdades educativas y la movilidad social. Pero luego se distanciaron
bastante. Por parte de la sociología, se debió principalmente a la «reacción
contra el positivismo»: es decir, contra la investigación cuantitativa en
general. Por parte de la demografía, se temió que el enfoque sobre procesos
sociales de nivel micro implicara que la disciplina «estaba abandonando su
núcleo» (Lee, 2001): el estudio de las poblaciones humanas en el nivel
macro sobre la base de datos censales y otros registros, más que de
encuesta, y con procedimientos de medición establecidos y modelos
formales.
Sin embargo, lo que hoy día parece estar surgiendo en la demografía es
el reconocimiento de que apenas hay motivos para un conflicto entre las
dos, con la consiguiente reapertura de oportunidades para la integración
disciplinar efectiva con la sociología bajo los auspicios de la ciencia de la
población. Como Billari (2015) ha afirmado (véase también Xie, 2000), se
puede decir que la primera fase de la investigación demográfica consiste en
la descripción —que suele ser muy sofisticada— de las regularidades en los
movimientos de la población en el tiempo y en el espacio, pero luego viene
de forma natural una segunda fase en la que se buscan explicaciones de esas
regularidades en términos de los procesos causales o mecanismos que
operan en el nivel micro de la acción y la interacción individuales. Los
paralelismos con la idea de la sociología por la que yo abogo son bastante
evidentes. Al ser la demografía vista de la forma que propone Billari una
materia interdisciplinar —los procesos causales propuestos en la segunda
fase pueden implicar, por ejemplo, tanto a la biología o la psicología como a
la sociología—, cabe esperar que los vínculos con la sociología cobren una
importancia central.
Otro caso bastante menos obvio donde la idea compartida de una ciencia
de la población puede fomentar una colaboración mayor y potencialmente
más enriquecedora implica a la sociología y la epidemiología. También en
este caso la relación interdisciplinar relativamente estrecha de mediados del
siglo XX tendió a debilitarse 88 . En la sociología, el foco se movió desde «la
sociología en la medicina» a «la sociología de la medicina», con la
correspondiente crítica al «modelo médico» de la enfermedad y el
tratamiento, que tuvo el efecto de alienar a muchos investigadores médicos
(en mi opinión, bastante comprensiblemente). Al mismo tiempo, en la
epidemiología empezó a darse cada vez más importancia a la determinación
empírica de los factores del riesgo de contraer enfermedades en el nivel
individual, con un interés bastante limitado por las distribuciones de las
enfermedades en la población y los mecanismos causales que subyacen a
los riesgos.
Parece que hoy día vuelven a manifestarse contra-tendencias
prometedoras. En epidemiología es posible identificar desde finales de la
década de los noventa una reacción contra el predominio de los enfoques
del «factor del riesgo» y la «caja negra» y una renovada insistencia en la
epidemiología como una ciencia de la población (véanse, por ejemplo,
Susser, 1998; Pearce, 1999, 2011). Se acentúa la importancia de conservar,
por un lado, el interés por la descripción y el análisis de las distribuciones
de las enfermedades, porque de esta manera, hasta ahora no reconocida, se
pueden revelar problemas de salud pública —o crear nuevos explananda
epidemiológicos— y, por otro lado, una preocupación por los procesos
causales subyacentes que operan en todos los niveles, desde el molecular al
societal. Así, a este último respecto, han surgido oportunidades
significativas de colaboración entre los «epidemiólogos sociales» (Galea y
Link, 2013) y aquellos sociólogos que, moviéndose desde la sociología
médica, trabajan ahora en el campo más amplio de la sociología de la salud
y la enfermedad, con una afinidad basada en la orientación poblacional.
Creo que siendo realistas uno puede vislumbrar en un futuro próximo el
desarrollo de centros de investigación sobre las ciencias de la población
humana en los que sociólogos, demógrafos y epidemiólogos trabajen juntos
y en los que la investigación se lleve a cabo de tal forma que las fronteras
disciplinares puedan en gran medida trascenderse.
Hay otra relación académica que obviamente requiere atención aquí: la
relación entre la sociología y la economía. ¿Cómo afecta a esta relación la
visión de la sociología como una ciencia de la población? En ciertos
aspectos podría pensarse que esta idea las aproximaría: es decir, adoptando
la sociología el paradigma individualista —el individualismo metodológico
— con el que la economía siempre estuvo comprometida, y privilegiando,
desde los puntos de vista explicativo y hermenéutico, la acción individual
que de algún modo se puede tratar como racional. Sin embargo, cabe
esperar importantes divergencias.
En primer lugar, del lado de la economía persisten las consecuencias de
lo que se describió a principios del siglo XX como «el giro de Pareto»
(Bruni y Sugden, 2007), a resultas del cual la economía intentó
explícitamente establecerse como una «ciencia separada» de la psicología y
la sociología: esto es, como una ciencia basada en teorías derivadas
deductivamente de los axiomas de la elección racional que proclamaban su
corrección objetiva y que en absoluto dependían de la investigación sobre
cómo los individuos hacían realmente sus elecciones y actuaban conforme a
ellas. En cambio, del lado de la sociología, el rechazo del paradigma de
investigación holista y la aceptación del individualista se han relacionado
con la preocupación por una comprensión tan realista como fuera posible de
los procesos psicológicos y sociales implicados en la elección individual y,
a su vez, con un rechazo de las concepciones demoníacas de la racionalidad
en favor de las limitadas. Además, no está en absoluto claro que el
desarrollo reciente de la economía conductual haya contribuido mucho a
tender puentes. Aparte de expresar dudas sobre la validez externa de buena
parte del trabajo experimental que se emprende, los sociólogos podrían
cuestionar asimismo su grado de compromiso con el realismo empírico: es
decir, que todo lo que esté en juego sea la creación de funciones de utilidad
más complejas mediante la inclusión de preferencias «sociales» (véase, por
ejemplo, Rabin, 1998), mientras apenas se demuestra interés por el modo en
que efectivamente se produce la toma de decisiones en la vida social
cotidiana (véase Berg y Gigerenzer, 2010).
Segundo y en relación con lo anterior, la aproximación a las cuestiones
del «ajuste» entre la teoría y los resultados de la investigación empírica
parece muy diferente en al menos la economía mayoritaria y la sociología
practicada como una ciencia de la población. Los economistas que estudian
algún problema sustantivo tienden a considerar que se trata
fundamentalmente de aplicar la teoría deductivamente derivada para luego
manejar los hallazgos empíricos como si sirvieran para ilustrar o, incluso,
para tal vez cuantificar la teoría. La idea de que estos hallazgos podrían
servir para comprobar la teoría y quizás pudieran conducir a su rechazo —
lo que implica un enfoque metodológico falsacionista— nunca recibió
mucho apoyo entre los defensores de la idea de la economía como una
ciencia separada (Blaug, 1992; Hausman, 1992). In extremis, siempre se
puede recurrir al argumento de que, como la teoría implica principios de
elección objetivamente correctos, cualquier desviación de ella indicaría que
son los actores implicados los que están «equivocados» —es decir, quienes
demuestran ignorancia o error— en lugar de la teoría en sí. En cambio, la
sociología como una ciencia de la población empieza por establecer
empíricamente las regularidades que constituyen los explananda en algún
campo de interés sustantivo para luego buscar explicaciones basadas en
mecanismos que, aunque muy posiblemente carecen del grado de
coherencia teórica de la economía, siempre se podrán evaluar, positiva o
negativamente, a la luz de una investigación posterior.
En la medida en que se pueden apreciar indicios de convergencia
disciplinar, estos nacen del desarrollo —excitante pero aún minoritario— de
lo que ha dado en llamarse el «pensamiento de la nueva economía»,
especialmente porque se centra en una aproximación más empírica al
análisis de las cuestiones económicas 89 . Quizá los ejemplos más notables
en esta línea podrían ser los estudios sobre la desigualdad económica —
basados en una amplísima investigación sobre las distribuciones de la renta
y la riqueza, su variación en el espacio y su cambio en el tiempo— que han
realizado economistas como Tony Atkinson, Thomas Piketty y sus colegas
(véanse, especialmente, Atkinson, 2008; Atkinson y Piketty, 2010; Piketty,
2014). En lugar de producir «resultados puramente teóricos sin saber
siquiera qué hechos es necesario explicar», lo que acentúan estos estudios,
que claramente sugieren el enfoque poblacional, es, por recurrir a Piketty
(2014: 3, 20, 21-23), la importancia de determinar mediante la investigación
y el análisis estadístico detallados los «hechos y pautas» relevantes sobre la
desigualdad; y luego, una vez establecidos los explananda específicos,
hipotetizar en el nivel de la acción «los mecanismos económicos, sociales y
políticos que podrían explicarlos». Todo esto tiene la implicación obvia de
que «la economía nunca debió divorciarse de las otras ciencias sociales y
sólo puede avanzar en conjunción con ellas».
Me ocuparé por último de las implicaciones de la idea de la sociología
como una ciencia de la población para su papel público. En los últimos
años, la discusión sobre el papel que la sociología podría desempeñar fuera
de la academia ha girado principalmente en torno a la idea de la «sociología
pública», como señaló Michael Burawoy en su discurso presidencial de
2004 en la American Sociological Association (Burawoy, 2005). Tomaré
esta idea como un punto de referencia conveniente, máxime porque la
posición que yo defiendo se opone en mayor o menor medida directamente
a la de Burawoy.
En relación con la importancia extra-académica de la sociología, es
crucial para Burawoy distinguir entre lo que él llama la «sociología de las
políticas» y la «sociología pública» por la que él aboga. La sociología de las
políticas, asegura él, es la «sociología al servicio de un objetivo definido
por un cliente»; su raison d’être es proporcionar soluciones a problemas
predefinidos o legitimar supuestas soluciones que ya se han aplicado. En
cambio, la sociología pública, sobre todo más en sus formas «orgánicas»
que «tradicionales», implica una «relación dialógica» entre los sociólogos y
diversos públicos sobre cuestiones comunes de interés moral y político para
las que se busca un acomodo mutuo de intereses y valores, con la
posibilidad de poder llevar a cabo una acción orientada a fines comunes
(Burawoy, 2005: 9).
Desde el punto de vista de la sociología como una ciencia de la
población, esta distinción tiene poco mérito. Mientras la concepción de
Burawoy de la sociología pública le asigna a la sociología, como ciencia
social, un papel significativamente más importante del que de hecho puede
legítimamente desempeñar, su concepción de la sociología de las políticas
es, sin embargo, innecesariamente limitada. En el fondo del asunto,
Burawoy hace otra distinción que es incluso más cuestionable: la distinción
entre el conocimiento «instrumental» y el conocimiento «reflexivo». Según
Burawoy, el conocimiento instrumental es el que se deriva de la práctica
profesional de la sociología y se puede aplicar en la sociología de las
políticas. En cambio, el conocimiento reflexivo se supone que es resultado
de los diálogos de la sociología pública, y su saber concierne no a los
medios sino a los fines últimos de la sociedad (Burawoy, 2005: 11). Sin
embargo, lo que Burawoy no logra explicar es exactamente cómo se obtiene
ese conocimiento reflexivo, cómo se comprueba y codifica, ni menos aún
por qué —basándose en qué argumentos— él supone que los fines de la
sociedad pueden ser en cualquier caso un objeto de conocimiento en vez de
una cuestión de elección valorativa —una elección que la sociología
clarifica y pule 90 .
En lo que hay que insistir, como respuesta, es en que si bien los
sociólogos son tan libres como cualquier otro ciudadano de implicarse en la
acción sociopolítica, no hay razón alguna para admitir que mediante esa
implicación accedan a algún tipo especial de conocimiento. Cualquier
conocimiento supuestamente derivado de la sociología pública como la
entiende Burawoy debería estar igual de expuesto a exactamente el mismo
examen crítico que el conocimiento derivado de la sociología profesional.
En otras palabras, el conocimiento reflexivo —signifique lo que signifique
— no puede ser un conocimiento con un estatus privilegiado simplemente
con respecto a los valores sociopolíticos que se supone suscribe. Y, como
han observado algunos de sus comentaristas (por ejemplo, Turner, 2007),
muchas de las obras que cita como supremos ejemplos de la sociología
pública han logrado atraer la atención pública antes que convencer a otros
sociólogos de su solvencia. Ni el «compromiso» ni el «impacto»
proporcionan garantía alguna de calidad científica; y los sociólogos deben
estar dispuestos a reconocer que esto es así tanto en el caso de los trabajos
que parecen reflejar sus propias posiciones valorativas como en trabajos
que no lo hacen.
Si bien la sociología pública de Burawoy, basada en el conocimiento
reflexivo, aspira a un papel que cualquier sociología con pretensiones de
estatus científico no puede —ni debe intentar— desempeñar, es difícil
entender su concepción de la sociología de las políticas, basada en el
conocimiento instrumental, como algo que no es sino una disciplina
deliberadamente empobrecida. La idea de que la sociología de las políticas
puede operar sólo al servicio de una meta definida por un cliente o para
legitimar políticas existentes está muy alejada de la realidad. De hecho,
muchos sociólogos entran en el campo de las políticas con el fin de
argumentar que esas políticas, públicas o de otras agencias, están mal
concebidas y que probablemente fracasarán en conseguir sus objetivos o
tendrán efectos secundarios perjudiciales; o, de manera todavía más radical,
para argumentar que los problemas hacia los que se orientan esas políticas
no se han comprendido adecuadamente. A esos respectos, la sociología
como una ciencia de la población puede tener un potencial importante,
porque muy a menudo lo que está en juego es la forma que adoptan las
regularidades poblacionales y los procesos sociales mediante los que se
generan y mantienen.
Por ejemplo, en Gran Bretaña desde la década de los noventa y
recientemente en Estados Unidos, la movilidad social es una gran
preocupación política. Pero al menos en Gran Bretaña buena parte de las
discusiones sobre las políticas de movilidad social se desarrollan sobre la
idea de que la movilidad social está disminuyendo, aunque la investigación
por encuesta indica un grado considerable de estabilidad en muchos
sentidos (véase, por ejemplo, Bukodi et al., 2014); y al mismo tiempo, la
dificultad de los políticos y sus asesores para comprender la distinción
sociológica estándar entre las tasas absoluta y relativa de movilidad social
ha provocado mucha confusión sobre lo que implicaría un aumento de la
movilidad y sobre qué políticas tendrían posibilidades de triunfar y cuáles
no. Si algunos estudiosos y yo mismo (Goldthorpe, 2013) hemos intentado
subrayar estos puntos, ¿por qué esto no puede considerarse sociología de las
políticas?
Otro ejemplo es la patente preocupación que se ha suscitado en muchos
países, en el área de las políticas familiares, por los efectos posiblemente
negativos del aumento de las tasas de ruptura parental en los hijos —en su
desarrollo emocional o en su progreso educativo. En este caso también ha
habido mucha confusión sobre qué efectos negativos se han establecido
fiablemente y cuáles no y, más grave aún, sobre los procesos causales
implicados. Las políticas han solido basarse en el supuesto de que es la
ruptura en sí misma el factor causal clave y se han orientado a reducir su
frecuencia. Pero esta posición la han cuestionado algunos sociólogos y
demógrafos (para una valiosa revisión, véase Ní Bhrolcháin, 2001) que han
aportado evidencia de que otras variables pueden estar detrás tanto de la
ruptura como de los resultados adversos para los niños —siendo la más
obvia, aunque no la única, el conflicto parental— y la implicación de que
menos rupturas no necesariamente tendrán las consecuencias positivas
esperadas y que, en algunos casos, la ruptura puede ser, de hecho, la opción
menos perjudicial. ¿Tampoco esto puede considerarse sociología de las
políticas?
En suma, la sociología como una ciencia de la población podría
desempeñar adecuada y eficazmente un papel público proporcionando los
fundamentos de una sociología de las políticas mucho menos pasiva y
acrítica que la que propone Burawoy, mientras que al mismo tiempo se
tendría que afirmar que propone formas especiales de conocimiento —o
bien se podría decir que espurias— que determinan cuáles deben ser los
fines últimos de una sociedad 91 .
Max Weber (1921/1948, 1922/1948), en sus magníficos ensayos «La
política como vocación» y «La ciencia como vocación» señaló que uno de
los principales objetivos extra-académicos de la ciencia era «ganar
claridad» en lo que se refiere a su papel público (1922/1948: 151, cursivas
en el original): es decir, claridad en relación a cuáles son los problemas o
cuestiones de los que la ciencia puede hablar apropiadamente —problemas
de hecho, análisis y teoría—; y cuáles están más allá de sus límites —
problemas que surgen en «las diversas esferas de valores del mundo [que]
están enfrentadas irreconciliablemente» (1922/1948: 147). Como Weber
señaló con acierto, los dos tipos de cuestiones están inevitablemente
conectados, sobre todo en el dominio social: por ejemplo, respecto del
grado en que algunos valores particulares pueden, bajo determinadas
condiciones, realizarse; por medio de qué tipos de medidas y, de hecho, de
políticas; y con qué consecuencias no intencionadas y posiblemente no
deseadas. Weber también observó que los actores políticos tienden
continuamente a intentar mostrar que los hechos, el análisis y la teoría están
«de su lado», y suelen recurrir a la selección sesgada, la distorsión o la
representación totalmente errónea para reforzar sus posiciones. Weber
consideró esta tendencia con cierta indiferencia, pues creía que
comprometerse en política por vocación comportaba aceptar que los medios
podrían tener que justificarse en términos de los fines. Reservaba su crítica
más aguda no para los actores políticos que intentaban explotar la ciencia,
sino más bien para quienes intentaban explotar sus puestos y autoridad
científica con el fin de dar un estatus privilegiado a lo que no eran más que
sus propias preferencias políticas. Y, a su vez, insistía en que quienes han
hecho de la ciencia una verdadera vocación —los que tienen un
compromiso valorativo primordial con ella— debían asumir siempre la
responsabilidad de mantener la claridad necesaria acerca de los objetivos de
conocimiento que la ciencia podía o no podía legítimamente tener y debían
al mismo tiempo estar siempre dispuestos a afrontar hallazgos científicos
que, desde sus propios puntos de vista extracientíficos, fueran «no
convenientes» (1922/1948: 145-150) 92 .
Por lo que a su papel público se refiere, los defensores de la sociología
como una ciencia de la población deben aprestarse a asumir la
responsabilidad que exigía Weber. Puesto que empiezan reconociendo
desde el principio la variabilidad individual y la heterogeneidad de la
población humana, apenas tendrán dificultad para aceptar la heterogeneidad
y el conflicto de valores —la «incesante lucha» de «los dioses en guerra» de
Weber— como un aspecto de la condición humana del que ellos no pueden
escapar en mayor medida que otros. Y como su preocupación es investigar
las regularidades sociales que se manifiestan en las poblaciones humanas y
sus procesos causales subyacentes por medio de métodos que, sostienen,
son los más adecuados para este propósito, están en una posición fuerte para
desafiar, cuandoquiera que sea necesario, a los que intentan reforzar sus
posiciones valorativas y sus correspondientes objetivos sociopolíticos con
un tipo de sociología mucho menos fundamentada.

86 Podría pensarse, sin embargo, que la situación en Europa tiene más potencial de desarrollo que la
de Estados Unidos en la medida en que las diferencias en las concepciones de la sociología y su
práctica contemporánea están estructurándose cada vez más entre departamentos universitarios,
centros de investigación, asociaciones profesionales e incluso países. Así, parece que hay
posibilidades de al menos cierta reorganización de facto que facilite el camino a los que quieran
practicar la sociología como una ciencia social. En cambio, en Estados Unidos el pluralismo —o,
podríamos decir, la fragmentación— parece estar más profundamente incrustado dentro de las
universidades y las asociaciones. Concretamente, la American Sociological Association parece, vista
desde fuera, un sepulcro blanqueado con toda la parafernalia de una asociación profesional al
servicio de una disciplina académica mientras manifiesta una seria falta de consenso interno sobre
cuál es la naturaleza esencial de la disciplina. A modo de ilustración, véase el debate sobre la
«sociología pública» tal y como se desarrolla en, por ejemplo, Clawson et al. (2007), que retomo más
tarde en el texto.

87 En otra publicación (Goldthorpe, 2007, vol. 1) también intento exponer las diferencias
metodológicas básicas entre la historia y la sociología respecto de los tipos de datos en los que se
basan y menciono algunas implicaciones de estas diferencias.

88 Esta relación estrecha se manifestó especialmente en Gran Bretaña. En algunos de los seminarios
y conferencias más impresionantes a las que asistí siendo un joven sociólogo, epidemiólogos de la
talla de Jerry Morris y Abe Adelstein aparecían junto a sociólogos médicos como Raymond Illsley y
otros estudiosos de su centro Medical Research Council en Aberdeen y a especialistas en políticas
sociales, como Richard Titmuss y Brian Abel-Smith.

89 A este respecto, los dos centros más importantes son el Institute for New Economic Thinking de
Nueva York y el Institute for New Economic Thinking de la Martin School en la Universidad de
Oxford.

90 En un cierto momento Burawoy afirma que «la sociología pública carece de valencia normativa
intrínseca» (Burawoy, 2005: 8). Pero también señala que como la sociología debe su existencia a la
«sociedad civil», los sociólogos tienen la obligación de comprometerse con los valores de la sociedad
civil (Burawoy, 2004). El problema es que estos valores se describen de forma tal que o bien son tan
generales que eluden todas las preguntas cruciales o bien algunos sociólogos estarían razonablemente
dispuestos a discutirlos. Nótense las pertinentes observaciones de Nielsen (2004) sobre el «nosotros
ausente» de la sociología pública de Burawoy.

91 De forma bastante remarcable, Burawoy (2005: 23) parece aceptar que la sociología no puede
competir con la economía en «el mundo de las políticas» —en parte debido a la mayor coherencia
intelectual de la economía— y que de hecho no debe intentarlo. En mi opinión, esta idea es muy
desacertada y tristemente derrotista. La sociología debe siempre estar dispuesta a competir con la
economía e intentar ejercer influencia en las cuestiones políticas y, en caso necesario, con actitud
combativa.
92 La crítica de Weber se dirigió igualmente a profesores que eran fervientes nacionalistas alemanes,
como Treitschke y sus seguidores, y a Schmoller y otros Kathedersozialisten —aunque Weber
siempre fue nacionalista y nunca socialista, sentía simpatía por algunas posiciones y políticas de la
social-democracia. Hay que añadir que, debido a sus propias experiencias, era muy consciente de las
dificultades y conflictos internos que tienden a derivarse de la posición de principio que defendía
cuando la misma persona quiere ser ambas cosas, científico y actor político (véase, por ejemplo,
Mommsen, 1984: caps. 7 y 8 especialmente).
Referencias

Abbott, A. (1992): «What do cases do? Some notes on activity in


sociological analysis», en C. C. Ragin y H. S. Becker (eds.), What is a
case? Cambridge: Cambridge University Press.
— (1995): «Sequence analysis: new methods for old ideas», Annual Review
of Sociology 21: 93-113.
— (2001): Chaos of disciplines. Chicago, IL: University of Chicago Press.
Abbott, A. y Tsay, A. (2000): «Sequence analysis and optimal matching
methods in sociology», Sociological Methods and Research 29: 3-33.
Abrams, P. (1980): Historical sociology. Bath: Open Books.
Achen, C. H. (1982): Interpreting and using regression. Beverly Hills, CA:
Sage.
— (2005): «Two cheers for Charles Ragin», Studies in Comparative
International Development 40: 27-32.
Aisenbrey, S. y Fasang, A. E. (2010): «New life for old ideas: the “second
wave” of sequence analysis bringing the “course” back into the life
course», Sociological Methods and Research 38: 420-462.
Atkinson, A. (2008): The changing distribution of earnings in OECD
countries. Nueva York: Oxford University Press.
Atkinson, A. y Piketty, T. 2010): Top incomes: a global perspective.
Oxford: Oxford University Press.
Augier, M. y March, J. G. (eds.) (2004): Models of man: essays in memory
of Herbert A. Simon. Cambridge, MA: MIT Press.
Baines, D. y Johnson, P. (1999): «In search of the “traditional” working
class: social mobility and occupational continuity in interwar London»,
Economic History Review 52: 692-713.
Baron-Cohen, S. (1991): «Precursors to a theory of mind: understanding
attention in others», en A. Whiten (ed.), Natural theories of mind.
Oxford: Blackwell.
— (1995): Mindblindness: an essay on autism and theory of mind.
Cambridge, MA: MIT Press.
Barrett, L., Dunbar, R. I. M. y Lycett, J. (2002): Human evolutionary
psychology. Basingstoke: Palgrave.
Becker, R. (2003): «Educational expansion and persistent inequalities of
education in Germany», European Sociological Review 19: 1-24.
Bell, C. y Newby, H. (eds.) (1974): The sociology of community. Londres:
Frank Cass.
Bennett, A. (2008): «Process tracing: a Bayesian perspective», en J. M.
Box-Steffensmeier, H. E. Brady y D. Collier (eds.), The Oxford
Handbook of Political Methodology. Oxford: Oxford University Press.
Berg, N. y Gigerenzer, G. (2010): «As-if behavioural economics:
neoclassical economics in disguise?», History of Economic Ideas 18:
133-165.
Berk, R. A. (2004): Regression analysis: a constructive critique. Thousand
Oaks, CA: Sage
Billari, F. C. (2005): «Life course analysis: two (complementary)
cultures?», Advances in Life Course Research 10: 261-281.
— (2015): «Integrating macro- and micro-level approaches in the
explanation of population change», Population Studies 69: S11-20.
Bird, A. y Tobin, E. (2012): «Natural kinds», Stanford Encyclopedia of
Philosophy. http://plato.stanford.edu/archive/win2012/entries/natural-
kinds/ (último acceso: 1 de mayo de 2015).
Blalock, H. M. (1961): Causal inferences in non-experimental research.
Nueva York: Norton.
Blanden, J.,Wilson, K., Haveman, R. y Smeeding, T. M. (2010):
«Understanding the mechanisms behind intergenerational persistence: a
comparison of the United States and Great Britain», en T. M. Smeeding,
R. Erikson y M. Jäntti (eds.), Persistence, privilege, and parenting.
Nueva York: Russell Sage Foundation.
Blau, P. M. y Duncan, O. D. (1967): The American occupational structure.
Nueva York: Wiley.
Blaug, M. (1992): The methodology of economics, 2.ª ed. Cambridge:
Cambridge University Press.
Blossfeld, H.-P. y Prein, G. (eds.) (1998): Rational choice theory and large-
scale data analysis. Boulder, CO: Westview Press.
Blossfeld, H.-P. y Hofmeister, H. (eds.) (2006): Globalization, uncertainty
and women’s careers. Cheltenham: Edward Elgar.
Blossfeld, H.-P., Mills, M. y Bernhardi, F. (eds.) (2006): Globalization,
uncertainty and men’s careers. Cheltenham: Edward Elgar.
Blumer, H. (1956): «Sociological analysis and the “variable”», American
Sociological Review 21: 683-690.
Bohrnstedt, G. W. (2010): «Measurement models for survey research», en
P. V. Marsden y J. D. Wright (eds.), Handbook of survey research, 2.ª ed.
Bingley: Emerald.
Booth, C. (1889-1903): Life and labour of the people of London. Londres:
Macmillan.
Boudon, R. (1987): «The individualistic tradition in sociology», en J. C.
Alexander, B. Giesen, R. Münch y N. J. Smelser (eds.), The micro-
macro link. Berkeley, CA: University of California Press.
— (1990): «Individualism and holism in the social sciences», en P.
Birnbaum y J. Leca (eds.), Individualism. Oxford: Oxford University
Press.
— (1996): «The “cognitivist model”: a generalised “rational choice”
model», Rationality and Society 8: 123-150.
— (2003a): Raison, bonnes raisons. París: PUF.
— (2003b): Y-a-t-il encore une sociologie? París: Odile Jacob.
Bowley, A. L. (1906): «Address to the economic science and statistics
section of the British Association for the Advancement of Science»,
Journal of the Royal Statistical Society 47: 607-625.
Bowley, A. L. y Burnett-Hurst, A. R. (1915): Livelihood and poverty.
Londres: Bell.
Boyd, P. y Richerson, P. J. (1999): «Norms and bounded rationality», en G.
Gigerenzer y R. Selten (eds.), Bounded rationality: the adaptive toolbox.
Cambridge, MA: MIT Press.
Brady, H. E., Collier, D. y Seawright, J. (2006): «Toward a pluralistic vision
of methodology», Political Analysis 14: 353-368.
Breen, R. (ed.) (2004): Social mobility in Europe. Oxford: Oxford
University Press.
Breen, R. y Goldthorpe, J. H. (1997): «Explaining educational differentials:
towards a formal rational action theory», Rationality and Society 9: 275-
305.
Breen, R. y Yaish, M. (2006): «Testing the Breen-Goldthorpe model of
educational decision-making», en S. Morgan, D. B. Grusky y G. S.
Fields (eds.), Mobility and inequality: frontiers of research from
sociology and economics. Stanford, CA: Stanford University Press.
Breen, R., van de Werfhorst, H. y Jaeger, M. M. (2014): «Deciding under
doubt: a theory of risk aversion, time discounting preferences and
educational decision-making», European Sociological Review 30: 258-
273.
Breiman, L. (2001): «Statistical modelling: the two cultures» (with
discussion), Statistical Science 16: 199-231.
Bruni, L. y Sugden, R. (2007): «The road not taken: how psychology was
removed from economics and how it might be brought back», Economic
Journal 117: 146-173.
Buis, M. L. (2013): «The composition of family background: the influence
of the economic and cultural resources of both parents on the offspring’s
educational attainment in the Netherlands between 1939 and 1981»,
European Sociological Review 29: 593-602.
Bukodi, E. (2012): «The relationship between work history and partnership
formation in cohorts of British men born in 1958 and 1970», Population
Studies 66: 123-145.
Bukodi, E. y Goldthorpe, J. H. (2013): «Decomposing “social origins”: the
effects of parents’ class, status and education on the educational
attainment of their children», European Sociological Review 29: 1024-
1039.
Bukodi, E., Erikson, R. y Goldthorpe, J. H. (2014): «The effects of social
origins and cognitive ability on educational attainment: evidence from
Britain and Sweden», Acta Sociologica 57: 293-310.
Bukodi, E., Goldthorpe, J. H., Waller, L. y Kuha, J. (2014): «The mobility
problem in Britain: new findings from the analysis of birth cohort data»,
British Journal of Sociology 66: 93-117.
Bukodi, E., Waller, L., Goldthorpe, J. H. y Halpin, B. (2015): «Is education
now class destiny? Class histories across three British birth cohorts».
Workshop on Algorithmic Methods in Social Research, Nuffield College
(Seminario sobre métodos algorítmicos en la investigación social),
Oxford.
Burawoy, M. (2004): «Manifesto for public sociology», Social Problems
51: 124-130.
— (2005): «For public sociology», American Sociological Review 70: 4-28.
Byrne, D. (2012): «UK sociology and quantitative methods: are we as weak
as they think? Or are they barking up the wrong tree?», Sociology 46:
13-24.
Carmines, E. G. y Zeller, R. A. (1979): Reliability and validity assessment.
Beverly Hills, CA: Sage.
Carrithers, M. (1992): Why humans have cultures. Oxford: Oxford
University Press.
Cartwright, N. (2007): Hunting causes and using them. Cambridge:
Cambridge University Press.
Cartwright, N. y Hardie, J. (2012): Evidence-based policy. Oxford: Oxford
University Press.
Castellani, B. (2014): «Complexity and the failure of quantitative social
science», Discover Society.
http://www.discoversociety.org/2014/11/04/focus-complexityand-the-
failure-of-quantitative-social-science/ (último acceso: 1 de mayo de
2015).
Chan, T.-W. (ed.) (2010): Social status and cultural consumption.
Cambridge: Cambridge University Press.
Chan, T.-W. y Goldthorpe, J. H. (2007): «Class and status: the conceptual
distinction and its empirical relevance», American Sociological Review
72: 512-532.
Christakis, N. y Fowler, J. (2010): Connected. Londres: Harper.
Clark, C. (2013): The sleepwalkers: how Europe went to war in 1914.
Londres: Penguin.
Clawson, D., Zussman, R., Misra, J., Gerstel, N., Stokes, R. y Anderton, D.
L (eds.) (2007): Public sociology. Berkeley, CA: University of
California Press.
Cobban, A. (1965): The social interpretation of the French revolution.
Cambridge: Cambridge University Press.
Cochran, W. G. (1965): «The planning of observational studies of human
populations», Journal of the Royal Statistical Society, Series A 128: 234-
266.
Cole, S. (1994): «Why sociology doesn’t make progress like the natural
sciences», Sociological Forum 9: 133-154.
Coleman, J. S. (1986): «Social theory, social research, and a theory of
action», American Journal of Sociology 91: 1309-1335.
— (1990): Foundations of social theory. Cambridge, MA: Belknap.
Collier, D., Brady, H. E. y Seawright, J. (2004): «Sources of leverage in
causal inference: towards and alternative view of methodology», en H.
E. Brady y D. Collier (eds.), Rethinking social inquiry. Lanham:
Rowmanand Littlefield.
Cooper, B. (2005): «Applying Ragin’s crisp and fuzzy set QCA to large
datasets: social class and educational achievement in the National Child
Development Study», Sociological Research Online.
http://www.socresonline.org.uk/10/2/ cooper1.html (último acceso: 1 de
mayo de 2015).
Cornfield, J., Haenszel, W., Hammond, E. C., Lilienfeld, A. M., Shimkin,
M. B y Wynder, E. L. (1959): «Smoking and lung cancer: recent
evidence and a discussion of some questions», Journal of the National
Cancer Institute 22: 173-203.
Couper, M. P. (2013): «Is the sky falling? New technology, changing media,
and the future of surveys», Survey Research Methods 7: 145-156.
Cox, D. R. (1992): «Causality: some statistical aspects», Journal of the
Royal Statistical Society Series A 155: 291-301.
— (2001): «Comment» en Breiman (2001).
Cox, D. R. y Wermuth, N. (1996): Multivariate dependencies: models,
analysis and interpretation. Londres: Chapman and Hall.
Cox, D. R. y Donnelly, C. A. (2011): Principles of applied statistics.
Cambridge: Cambridge University Press.
Dahrendorf, R. (1959): Class and class conflict in industrial society.
Londres: Routledge.
Dalal, S. R., Fowlkes, E. B. y Hoadley, B. (1989): «Risk analysis of the
space shuttle: pre-Challenger prediction of failure», Journal of the
American Statistical Association 84: 945-957.
Davidson, D. (1980): Essays on actions and events. Oxford: Clarendon
Press.
Davies, R., Heinesen, E. y Holm, A. (2002): «The relative risk aversion
hypothesis of educational choice», Journal of Population Economics 15:
683-713.
Davis, K. y Moore, W. E. (1945): «Some principles of stratification»,
American Sociological Review 10: 242-249.
Deaton, A. (2010): «Instruments, randomization, and learning about
development», Journal of Economic Literature 48: 424-455.
Dennett, D. C. (1995): Darwin’s dangerous idea. Londres: Allen Lane.
Desrosières, A. (1991): «The part in relation to the whole: how to
generalise? The prehistory of representative sampling», en M. Bulmer,
K. Bales y K. K. Sklar (eds.), The social survey in historical perspective,
1880-1940. Cambridge: Cambridge University Press.
— (1993): La politique des grands nombres. París: La Découverte.
DiPrete, T. A. y Eirich, G. M. (2006): «Cumulative advantage as a
mechanism for inequality: a review of theory and evidence», Annual
Review of Sociology 32: 271-297.
Dunbar, R. I. M. (2000): «Causal reasoning, mental rehearsal and the
evolution of primate cognition», en C. Heyes y L. Huber (eds.), The
evolution of cognition. Cambridge, MA: MIT Press.
— (2004): The human story: a new history of mankind’s evolution. Londres:
Faber and Faber.
— (2014): Human evolution. Londres: Pelican Books.
Duncan, O. D. (1961): «A socioeconomic index for all occupations», en A.
J. Reiss (ed.), Occupations and social status. Nueva York: Free Press.
— (1975): Introduction to structural equation models. Nueva York:
Academic Press.
— (1984): Notes on social measurement. Nueva York: Russell Sage.
— (1992): «What if?», Contemporary Sociology 21: 667-668.
Durkheim, E. (1895/1938): The rules of sociological method. Glencoe, IL:
Free Press.
— (1897/1952): Suicide. Londres: Routledge and Kegan Paul.
Edgerton, R. B. (1992): Sick societies: challenging the myth of primitive
harmony. Nueva York: Free Press.
Edgeworth, F. Y. (1885): «Observations and statistics: an essay on the
theory of errors and the first principles of statistics», Transactions of the
Cambridge Philosophical Society 14: 138-169.
Elster, J. (1979): Ulysses and the sirens. Cambridge: Cambridge University
Press.
— (1983): Sour grapes. Cambridge: Cambridge University Press.
— (1989): Nuts and bolts for the social sciences. Cambridge: Cambridge
University Press.
— (1997): «More than enough», University of Chicago Law Review 64:
748-764.
— (1998): «A plea for mechanisms», en P. Hedström y R. Swedberg (eds.),
Social mechanisms. Cambridge: Cambridge University Press.
— (2007): Explaining social behavior. Cambridge: Cambridge University
Press.
Epstein, J. M. (2006): Generative social science. Princeton, NJ: Princeton
University Press.
Erikson, R. (1998): «Thresholds and mechanisms», en H.-P. Blossfeld y G.
Prein (eds.), Rational choice theory and large-scale data analysis.
Boulder, CO: Westview.
Erikson, R. y Goldthorpe, J. H. (1992): The constant flux. Oxford:
Clarendon Press.
Erikson, R. y Jonsson, J. O. (1996): «Explaining class inequality in
education: the Swedish test case», en R. Erikson y J. O. Jonsson (eds.),
Can education be equalized? Boulder, CO: Westview.
Erikson, R., Goldthorpe, J. H. y Hällsten, M. (2012): «No way back up
from ratcheting down? A critique of the “microclass” approach to the
analysis of social mobility», Acta Sociologica 55: 211-229.
Esser, H. (1996): «What is wrong with variable sociology?», European
Sociological Review 12: 159-166.
— (1999): Soziologie. Spezielle Grundlagen. Band 1: Situationslogik und
Handeln. Frankfurt: Campus.
Evans, G. y De Graaf, N. D. (eds.) (2013): Political choice matters. Oxford:
Oxford University Press.
Ferri, E., Bynner, J. y Wadsworth, M. (2003): Changing Britain, changing
lives: three generations at the turn of the century. Londres: Institute of
Education.
Fisher, R. A. (1922): «On the dominance ratio», Proceedings of the Royal
Society of Edinburgh 52: 321-341.
— (1925): Statistical methods for research workers. Edinburgo: Oliver and
Boyd.
Frankenberg, R. (1966): Communities in Britain. Harmondsworth: Penguin.
Freedman, D. A. (1991): «Statistical analysis and shoe leather»,
Sociological Methodology 21: 291-313.
— (1992): «As others see us: a case study in path analysis», en J. P. Shaffer
(ed.), The role of models in nonexperimental social science: two debates.
Washington, DC: American Educational Research Association y
American Statistical Association.
— (1997): «From association to causation via regression», en V. R McKim
y S. P. Turner (eds.), Causality in crisis? Notre Dame: Notre Dame
University Press.
— (2010): Statistical models and causal inference: a dialogue with the
social sciences. Cambridge: Cambridge University Press.
Galea, S. y Link, B. G. (2013): «Six paths for the future of social
epidemiology», American Journal of Epidemiology 178: 843-849.
Galton, F. (1889a): Natural inheritance. Londres: Macmillan.
— (1889b): «Comments» en Tylor (1889).
Gambetta, D. (2009): «Signalling», en P. Hedström y P. Bearman (eds.),
The Oxford handbook of analytical sociology. Oxford: Oxford
University Press.
Gärdenfors, P. (2006): How Homo became sapiens. Oxford: Oxford
University Press.
Gelman, A. (2011): «Causality and statistical learning», American Journal
of Sociology 117: 955-966.
Gelman, A. e Imbens, G. (2013): «Why ask why? Forward causal inference
and reverse causal questions». National Bureau of Economic Research,
documento de trabajo 19614.
George, A. L. y Bennett, A. (2005): Case studies and theory development in
the social sciences. Cambridge, MA: MIT Press.
Giddens, A. (1979): Central problems in social theory. Londres:
Macmillan.
— (1984): The constitution of society. Cambridge: Polity Press.
Gigerenzer, G. (2008): Rationality for mortals. Oxford: Oxford University
Press.
Gigerenzer, G. y Selten, R. (eds.) (1999): Bounded rationality: the adaptive
toolbox. Cambridge, MA: MIT Press.
Gigerenzer, G. y Todd, P. M. (1999): «Fast and frugal heuristics: the
adaptive toolbox», en G. Gigerenzer y P. M. Todd (eds.), Simple
heuristics that make us smart. Nueva York: Oxford University Press.
Gigerenzer, G., Swijtink, Z., Porter, T., Daston, L., Beatty, J. y Krüger, L.
(1989): The empire of chance. Cambridge: Cambridge University Press.
Gillispie, C. C. (1963): «Intellectual factors in the background of analysis
by probabilities», en A. C. Crombie (ed.), Scientific change. Nueva
York: Basic Books.
Ginsberg, M. (1965): «Introduction» a la reimpresión de 1965 de
Hobhouse, Wheeler y Ginsberg (1915).
Glass, D. V. (1973): Numbering the people. Farnborough: Saxon House.
Goertz, G. y Mahoney, J. (2009): «Scope in case study research», en D.
Byrne y C. C. Ragin (eds.), The Sage handbook of case-based methods.
Los Ángeles: Sage.
Goldstone, J. A. (1995): «Predicting revolutions: why we could (and
should) have foreseen the revolutions of 1989-1991 in the USSR and
Eastern Europe», en N. R Keddie (ed.), Debating revolutions. Nueva
York: New York University Press.
— (2003): «Comparative historical analysis and knowledge accumulation
in the study of revolutions», en J. Mahoney y D. Rueschemeyer (eds.),
Comparative historical analysis in the social sciences. Cambridge:
Cambridge University Press.
Goldthorpe, J. H. (1987): Social mobility and class structure in modern
Britain, 2.ª ed. Oxford: Clarendon Press.
— (1994): «The uses of history in sociology: a reply», British Journal of
Sociology 45: 55-77.
— (1996): «Class analysis and the reorientation of class theory: the case of
persisting differentials in educational attainment», British Journal of
Sociology 47: 481-505.
— (2007): On sociology, 2.ª ed. 2 vols. Stanford, CA: Stanford University
Press.
— (2012): «Back to class and status: or why a sociological view of social
inequality should be re-asserted», Revista Española de Investigaciones
Sociológicas 137: 1-16.
— (2013): «Understanding – and misunderstanding – social mobility: the
entry of the economists, the confusion of politicians and the limits of
educational policy», Journal of Social Policy 42: 431-450.
— (2014): «The role of education in intergenerational social mobility:
problems from empirical research in sociology and some theoretical
pointers from economics», Rationality and Society 26: 265-289.
Goldthorpe, J. H., Lockwood, D., Bechhofer, F. y Platt, J. (1969): The
affluent worker in the class structure. Cambridge: Cambridge University
Press.
Goodman, L. A. (2007a): «Statistical magic and/or statistical serendipity:
an age of progress in the analysis of categorical data», Annual Review of
Sociology 33: 1-19.
— (2007b): «Otis Dudley Duncan, quantitative sociologist par excellence:
path analysis, loglinear methods, and Rasch models», Research in Social
Stratification and Mobility 25: 129-139.
Granovetter, M. (1995): Getting a job: a study of contacts and careers, 2.ª
ed. Chicago, IL: University of Chicago Press.
Grusky, D. B. y Hauser, R. M. (1984): «Comparative social mobility
revisited: models of divergence and convergence in 16 countries»,
American Sociological Review 49: 19-38.
Haack, S. (1998): Manifesto of a passionate moderate. Chicago, IL:
University of Chicago Press.
Hacking, I. (1987): «Was there a probabilistic revolution, 1800-1930?», en
L. Krüger, L. J. Daston y M. Heidelberger (eds.), The probabilistic
revolution, vol. 1. Cambridge, MA: MIT Press.
— (1990): The taming of chance. Cambridge: Cambridge University Press.
— (2000): The social construction of what? Cambridge, MA: Harvard
University Press.
Halbwachs, M. (1912): La classe ouvrière et les niveaux de vie. París:
Alcan.
Halpin, B. y Chan, T.-W. (1998): «Class careers as sequences: an optimal
matching of work-life histories», European Sociological Review 14: 111-
129.
Hart, N. (1989): «Gender and the rise and fall of class politics», New Left
Review I/175: 19-47.
— (1994): «John Goldthorpe and the relics of sociology», British Journal
of Sociology 45: 21-30.
Hauser, R. M. y Warren, J. R. (1997): «Socioeconomic indexes for
occupations: a review, update and critique», Sociological Methodology
44: 203-218.
Hausman, D. M. (1992): The inexact and separate science of economics.
Cambridge: Cambridge University Press.
Hechter, M. (1995): «Reflections on historical prophecy in the social
sciences», American Journal of Sociology 100: 1520-1527.
Hedström, P. (2005): Dissecting the social. Cambridge: Cambridge
University Press.
Hedström, P. y Swedberg, R. (1998a): «Social mechanisms: an introductory
essay», en P. Hedström y R. Swedberg (eds.), Social mechanisms.
Cambridge: Cambridge University Press.
Hedström, P. y Swedberg, R. (eds.) (1998b): Social mechanisms.
Cambridge: Cambridge University Press.
Hedström, P. y Bearman, P. (2009a): «What is analytical sociology all
about? An introductory essay», en P. Hedström y P. Bearman (eds.), The
Oxford handbook of analytical sociology. Oxford: Oxford University
Press.
Hedström, P. y Bearman, P. (eds.) (2009b): The Oxford handbook of
analytical sociology. Oxford: Oxford University Press.
Hempel, C. G. (1965): Aspects of scientific explanation. Nueva York: Free
Press.
Hobhouse, L. T., Wheeler, G. C. y Ginsberg, M. (1915): The material
culture and social institutions of the simpler peoples. Londres: Chapman
and Hall.
Hogben, L. (ed.) (1938): Political arithmetic. Londres: Allen and Unwin.
Holland, P. (1986): «Statistics and causal inference», Journal of the
American Statistical Association 81: 945-960.
Hollis, M. (1977): Models of man. Cambridge: Cambridge University Press.
— (1987): The cunning of reason. Cambridge: Cambridge University Press.
Holm, A. y Jaeger, M. M. (2008): «Does relative risk aversion explain
educational inequality? A dynamic choice approach», Research in Social
Stratification and Mobility 26: 199-219.
Homans, G. C. (1964): «Bringing men back in», American Sociological
Review 29: 809-818.
Hope, K. (1984): As others see us: schooling and social mobility in
Scotland and the United States. Cambridge: Cambridge University
Press.
Hoselitz, B. F. (1952): The progress of underdeveloped areas. Chicago, IL:
Chicago University Press.
Hox, J. J. (2010): Multilevel analysis. Nueva York: Routledge.
Hug, S. (2013): «Qualitative comparative analysis: How inductive use and
measurement error lead to problematic inference», Political Analysis 21:
252-265.
Illari, P. M., Russo, F. y Williamson, J. (eds.) (2011): Causality in the
sciences. Oxford: Oxford University Press.
Inglehart, R. y Norris, P. (2003): Rising tide: gender equality and cultural
change around the world. Cambridge: Cambridge University Press.
Ishida, H. (ed.) (2008): Social stratification and social mobility in late
industrializing countries. Tokio: SSM Research Series 14.
Jablonka, E. y Lamb, M. J. (2005): Evolution in four dimensions.
Cambridge, MA: MIT Press.
Jackson, M. V. (ed.) (2013): Determined to succeed: performance versus
choice in educational attainment. Stanford, CA: Stanford University
Press.
Jaeger, M. M. (2007): «Educational mobility across three generations: the
changing impact of parental social class, economic, social and cultural
capital», European Sociological Review 9: 527-550.
Jencks, C. (1972): Inequality. Nueva York: Basic Books.
— (1979): Who gets ahead? Nueva York: Basic Books.
Jonsson, J. O., Grusky, D. B., Di Carlo, M., Pollak, R. y Brinton, M. C.
(2009): «Microclass mobility: social reproduction in four countries»,
American Journal of Sociology 114: 977-1036.
Kaberry, P. (1957): «Malinowski’s contribution to field-work methods and
the writing of ethnography», en R. Firth (ed.), Man and culture: an
evaluation of the work of Bronislaw Malinowski. Londres: Routledge
and Kegan Paul.
Kahneman, D. (2011): Thinking fast and slow. Londres: Penguin.
Kahneman, D. y Tversky, A. (1979): «Prospect theory: an analysis of
decision under risk», Econometrica 47: 263-291.
Kendall, P. L. y Lazarsfeld, P. F. (1950): «Problems of survey analysis», en
R. K. Merton y P. F. Lazarsfeld (eds.), Continuities in social research:
studies in the scope and method of «The American Soldier». Glencoe,
IL: Free Press.
Kerr, C., Dunlop, J. T., Harbison, F. H. y Myers, C. A. (1960): Industrialism
and industrial man. Cambridge, MA: Harvard University Press.
Kiaer, A. N. (1895-1896): «Observations et expériences concernant des
d’enombrements représentatifs», Bulletin of the International Statistical
Institute 9: 176-183.
— (1903): «Sur les mèthodes représentatives ou typologique», Bulletin of
the International Statistical Institute 13: 66-70.
Kincaid, H. (2011): «Causal modelling, mechanism, and probability in
epidemiology», en P. M. Illari, F. Russo y J. Williamson (eds.), Causality
in the sciences. Oxford: Oxford University Press.
King, G., Keohane, R. O. y Verba, S. (1994): Designing social inquiry.
Princeton, NJ: Princeton University Press.
Kroeber, A. L. (1917): «The superorganic», American Anthropologist 19:
208-213.
Krogslund, C., Choi, D. D. y Poertner, M. (2015): «Fuzzy sets on shaky
grounds: parameter sensitivity and confirmation bias in fsQCA»,
Political Analysis 23: 21-41.
Krüger, L. (1987): «The slow rise of probabilism: philosophical arguments
in the nineteenth century», en L. Krüger, L. J. Daston y M. Heidelberger
(eds.), The probabilistic revolution, vol. 1. Cambridge, MA: MIT Press.
Krüger, L., Daston, L. J. y Heidelberger, M. (eds.) (1987): The probabilistic
revolution, vol. 1. Cambridge, MA: MIT Press.
Krüger, L., Gigerenzer, G. y Morgan, M. S. (eds.) (1987): The probabilistic
revolution, vol. 2. Cambridge, MA: MIT Press.
Kruskal,W. y Mosteller, F. (1980): «Representative sampling, IV: the
history of the concept in statistics, 1895-1939», International Statistical
Review 48: 169-195.
Kumar, M. (2008): Quantum. Cambridge: Icon Books.
Kuper, A. (1973): Anthropologists and anthropology. Londres: Allen Lane.
Laland, K. N. (1999): «Imitation, social learning and preparedness as
mechanisms of bounded rationality», en G. Gigerenzer y R. Selten
(eds.), Bounded rationality: the adaptive toolbox. Cambridge, MA: MIT
Press.
Laplace, P. S. (1814/1951): A philosophical essay on probabilities.
NuevaYork: Dover.
Laslett, P. (1972): «Introduction: the history of the family», en P. Laslett
(ed.), Household and family in past time. Cambridge: Cambridge
University Press.
Latour, B. (2000): «On the partial existence of existing and nonexisting
objects», en L. Daston (ed.), Biographies of scientific objects. Chicago,
IL: University of Chicago Press.
Lazarsfeld, P. F. (1955): «Interpretation of statistical relations as a research
operation», en P. F. Lazarsfeld y M. Rosenberg (eds.), The Language of
social research, Glencoe, IL: Free Press.
— (1961): «Notes on the history of quantification in sociology», Isis 52:
277-333.
Lazarsfeld, P. F. y Henry, N. W. (1968): Latent structure analysis. Boston,
MA: Houghton Mifflin.
Lazer, D., Pentland, A., Adamic, L., Aral, S., Barabási, A.-L., Brewer, D. et
al. (2009): «Computational social science», Science 323: 721-723.
Lazer, D., Kennedy, R., King, G. y Vespignani, A. (2014): «The parable of
Google flu: traps in big data analysis», Science 343: 1203-1205.
Leach, E. R. (1957): «The epistemological background to Malinowski’s
empiricism», en R. Firth (ed.), Man and culture: an evaluation of the
work of Bronislaw Malinowski. Londres: Routledge and Kegan Paul.
Lee, R. D. (2001): «Demography abandons its core». Population
Association of America, presentación en el Encuentro Anual.
Leigh, A., Jencks, C. y Smeeding, T. M. (2009): «Health and economic
inequality», en W. Salverda y B. Nolan (eds.), The Oxford handbook of
economic inequality. Oxford: Oxford University Press.
Le Play, F. (1877-1879): Les ouvriers européens, 2.ª ed. Tours: Alfred
Mame.
Lerner, D. (1964): The passing of traditional society. Londres: Collier-
Macmillan.
Lesthaeghe, R. (2010): «The unfolding story of the second demographic
transition», Population and Development Review 36: 211-251.
Levine, J. H. (2000): «But what have you done for us lately? Comentario
sobre Abbott y Tsay», Sociological Methods and Research 29: 34-40.
Lie, E. (2002): «The rise and fall of sample surveys in Norway», Science in
Context 15: 385-409.
Lieberson, S. (1987): Making it count. Berkeley, CA: University of
California Press.
— (2004): «Comments on the use and utility of QCA», Qualitative
Methods 2: 13-14.
Lieberson, S. y Lynn, F. B. (2002): «Barking up the wrong branch:
scientific alternatives to the current model of sociological science»,
Annual Review of Sociology 28: 1-19.
Lipset, S. M., Trow, M. y Coleman, J. S. (1956): Union democracy. Nueva
York: Free Press.
Lockwood, D. (1956): «Some remarks on “The Social System”», British
Journal of Sociology 7: 134-146.
— (1992): Solidarity and schism. Oxford: Oxford University Press.
Louçà, F. (2008): «The widest cleft in statistics: how and why Fisher
opposed Neyman and Pearson». Lisboa: Istituto Superior de Economia e
Gestão, Documento de Trabajo 2-2008/DE/UECE.
Lucas, S. R. y Szatrowski, A. (2014): «Qualitative comparative analysis in
critical perspective», Sociological Methodology 44: 1-79.
Lynch, J., Smith, G. D., Harper, S., Hillemeier, M., Ross, N., Kaplan, G. A.
y Wolfson, M. (2004): «Is income inequality a determinant of population
health?», Millbank Quarterly 82: 5-99 y 355-400.
Lyons, R. (2011): «The spread of evidence-poor medicine via flawed social-
network analysis», Statistics, Policy and Politics 2: 1-26.
Mackie, J. L. (1974): The cement of the universe: a study of causation.
Oxford: Clarendon Press.
Mahon, B. (2003): The man who changed everything: the life of James
Clerk Maxwell. Chichester: Wiley.
Mahoney, J. y Goertz, G. (2006): «A tale of two cultures: contrasting
quantitative and qualitative research», Political Analysis 14: 227-249.
Mahoney, J. y Larkin Terrie, P. (2008): «Comparative-historical analysis in
contemporary political science», en J. M. Box-Steffensmeier, H. E.
Brady y D. Collier (eds.), The Oxford handbook of political
methodology. Oxford: Oxford University Press.
Mahoney, J., Kimball, E. y Koivu, K. L. (2009): «The logic of historical
explanation in the social sciences», Comparative Political Studies 42:
114-146.
Malinowski, B. (1926): Crime and custom in savage society. Nueva York:
Kegan Paul, Trench and Trubner.
Manning, R., Levine, M. y Collins, A. (2007): «The Kitty Genovese murder
and the social psychology of helping: the parable of the 38 witnesses»,
American Psychologist 6: 555-562.
Manting, D. (1996): «The changing meaning of cohabitation and marriage»,
European Sociological Review 12: 53-65.
Marsh, C. (1982): The survey method: the contribution of surveys to
sociological explanation. Londres: Allen and Unwin.
Marshall, G., Newby, H., Rose, D. y Vogler, C. (1988): Social class in
modern Britain. Londres: Hutchinson.
Marx, A. (2010): «Crisp-set qualitative comparative analysis (csQCA) and
model specification: benchmarks for future csQCA applications»,
International Journal of Multiple Research Approaches 4: 138-158.
Mayer-Schönberger, V. y Cukier, K. (2013): Big data. Londres: John
Murray.
Mayr, E. (1982): The growth of biological thought. Cambridge, MA:
Harvard University Press.
— (2001): «The philosophical foundations of Darwinism», Proceedings of
the American Philosophical Society 145: 488-495.
McCutcheon, A. L. y Mills, C. (1998): «Categorical data analysis: log-
linear and latent class models», en E. Scarborough y E. Tanenbaum
(eds.), Research strategies in the social sciences. Oxford: Oxford
University Press.
Mead, M. (1953): Cultural patterns and technological change. París:
UNESCO.
Merton, R. K. (1957): Social theory and social structure, 2.ª ed. Glencoe,
IL: Free Press.
— (1959): «Notes on problem finding in sociology», en R. K. Merton, L.
Broom y L. S. Cottrell (eds.), Sociology today: problems and prospects.
Nueva York: Harper and Row.
— (1987): «Three fragments from a sociologist’s notebook: establishing the
phenomenon, specified ignorance and strategic research materials»,
Annual Review of Sociology 13: 1-28.
Mill, J. S. (1843/1973-1974): A system of logic ratiocinative and inductive,
en J. M. Robson (ed.), Collected works of John Stuart Mill. Toronto,
ON: Toronto University Press.
Mills, C. (2014): «The great British class fiasco», Sociology 48: 437-444.
Mills, M., Blossfeld, H.-P. y Klijzing, E. (2005): «Becoming an adult in
uncertain times», en H.-P. Blossfeld, E. Klijzing, M. Mills y K. Kurz
(eds.), Globalization, uncertainty and youth in society. Londres:
Routledge.
Mitchell, J. C. (1969): Social networks in urban situations: analysis of
personal relations in central African towns. Manchester: Manchester
University Press.
Mommsen, W. J. (1984): Max Weber and German politics 1890-1920.
Chicago, IL: University of Chicago Press.
Monod, J. (1970): Le hazard et la nécessité. París: Le Seuil.
Morgan, M. S. (2014): «Case studies», en N. Cartwright y E. Montuschi
(eds.), Philosophy of Social Science. Oxford: Oxford University Press.
Morgan, S. L. y Winship, C. (2007): Counterfactuals and causal inference.
Cambridge: Cambridge University Press.
Morrison, M. (2002): «Modelling populations: Pearson and Fisher on
Mendelism and biometry», British Journal of Philosophy of Science 53:
39-68.
Murdock, G. P. (1949): Social structure. Nueva York: Macmillan.
— (1965): Culture and society. Pittsburgh, PA: University of Pittsburgh
Press.
Nazio, T. (2008): Cohabitation, family and society. Londres: Routledge.
Nazio, T. y Blossfeld, H.-P. (2003): «The diffusion of cohabitation among
young women in West Germany, East Germany and Italy», European
Journal of Population 19: 47-82.
Need, A. y de Jong, U. (2000): «Educational differentials in the
Netherlands: testing rational action theory», Rationality and Society 13:
71-98.
Neyman, J. (1934): «On the two different aspects of the representative
method: the method of stratified sampling and the method of purposive
selection», Journal of the Royal Statistical Society 97: 558-606.
— (1952): Lectures and conferences on mathematical statistics and
probability. Washington, DC: Ministerio de Agricultura de EE.UU.
— (1975): «Study of chance mechanisms – a quasi-Copernican revolution
in science and mathematics», en J. Neyman (ed.), The heritage of
Copernicus. Cambridge, MA: MIT Press.
Ní Bhrolcháin, M. (2001): «“Divorce effects” and causality in the social
sciences», European Sociological Review 17: 33-57.
Ní Bhrolcháin, M. y Dyson, T. (2007): «On causation in demography:
issues and illustrations», Population and Development Review 33: 1-36.
Nielsen, F. (2004): «The vacant “we”: remarks on public sociology», Social
Forces 82: 1619-27.
Oppenheimer, V. K. (1994): «Women’s rising employment and the future of
the family in industrial society», Population and Development Review
20: 293-342.
— (1997): «Men’s career development and marriage timing during a period
of rising inequality», Demography 34: 311-330.
Ostrom, E. (1990): Governing the commons. Cambridge: Cambridge
University Press.
— (2000): «Collective action and the evolution of social norms», Journal of
Economic Perspectives 14: 137-158.
Palloni, A. (1998): «Theories and models of diffusion in sociology». Centre
for Demography and Ecology, University of Wisconsin-Madison,
Documento de Trabajo 98-11.
Parsons, T. (1937): The structure of social action. Glencoe, IL: Free Press.
— (1940): «An analytical approach to the theory of social stratification»,
American Journal of Sociology 45: 849-862.
— (1952): The social system. Glencoe, IL: Free Press.
— (1966): Societies: evolutionary and comparative perspectives.
Englewood Cliffs, NJ: Prentice Hall
— (1971): The system of modern societies. Englewood Cliffs, NJ: Prentice
Hall.
Pavlinov, I. Y. (2013): The species problem – ongoing issues. Rijeka:
InTech.
Pawson, R. y Tilley, N. (1997): Realistic evaluation. Londres: Sage.
Pearce, N. (1999): «Epidemiology as a population science», International
Journal of Epidemiology 28: S1015-1018.
— (2011): «Epidemiology in a changing world: variation, causation and
ubiquitous risk factors», International Journal of Epidemiology 40: 503-
512.
Pearl, J. (2000): Causality: models, reasoning, and inference. Cambridge:
Cambridge University Press.
Pieckalkiewicz, J. (1934): Rapport sur les recherches concernant la
structure de la population ouvrière en Pologne selon la mèthode
representative. Varsovia: Instituto para los Problemas Sociales.
Piketty, T. (2014): Capital in the twenty-first century. Cambridge, MA:
Harvard University Press.
Pinker, S. (2002): The blank slate. Londres: Allen Lane.
Platt, J. (1971): Social research in Bethnal Green. Londres: Macmillan.
Plotkin, H. (2007): «The power of culture», en R. I. M. Dunbar y L. Barrett
(eds.), The Oxford handbook of evolutionary psychology. Oxford:
Oxford University Press.
Popper, K. R. (1945): The open society and its enemies. Londres: Routledge
and Kegan Paul.
— (1957): The poverty of historicism. Londres: Routledge and Kegan Paul.
— (1959): The logic of scientific discovery. Londres: Hutchinson.
— (1972): Objective knowledge. Oxford: Clarendon Press.
— (1994): The myth of the framework. Londres: Routledge.
Porter, T. (1982): «A statistical survey of gases: Maxwell’s social physics»,
Historical Studies in the Physical Sciences 8: 77-116.
— (1986): The rise of statistical thinking, 1820-1900. Princeton, NJ:
Princeton University Press.
Quetelet, A. (1835/1842): A treatise on man and the development of his
faculties. Edinburgo: Chambers.
— (1846): Lettres à S. A. R. le Duc Régnant de Saxe-Coburg-Gotha, sur la
théorie des probabilities, appliquée aux sciences morales et politiques.
Bruselas: Hayez.
— (1869): Physique sociale. Bruselas: Murquardt.
Rabin, M. (1998): «Psychology and economics», Journal of Economic
Literature 36: 11-46.
Ragin, C. C. (1987): The comparative method. Berkeley, CA: University of
California Press.
— (2000): Fuzzy-set social science. Chicago, IL: University of Chicago
Press.
— (2013): «New directions in the logic of social inquiry», Political
Research Quarterly 66: 171-174.
Ragin, C. C. y Rihoux, B. (2004): «Replies to commentaries: reassurances
and rebuttals», Qualitative Methods 2: 22-24.
Richards, A. I. (1957): «The concept of culture in Malinowski’s work», en
R. Firth (ed.), Man and culture: an evaluation of the work of Bronislaw
Malinowski. Londres: Routledge and Kegan Paul.
Richerson, P. J. y Boyd, R. (2005): Not by genes alone. Chicago, IL:
University of Chicago Press.
Rihoux, B. y Marx, A. (2013): «Qualitative comparative analysis at 25:
state of play and agenda», Political Research Quarterly 66: 167-171.
Rose, D. y Harrison, E. (2010): Social class in Europe: an introduction to
the European Socio-Economic Classification. Londres: Routledge.
Rose, D. y Pevalin, D. J. (eds.) (2003): A researcher’s guide to the National
Statistics Socio-Economic Classification. Londres: Sage.
Rose, D. y Pevalin, D. J. (con O’Reilly, K.) (2005): The National Statistics
Socio-Economic Classification: origins, development and use. Londres:
Palgrave Macmillan.
Rosenbaum, P. R. (1995): Observational studies. Nueva York: Springer.
Runciman, W. G. (1998): The social animal. Londres: Harper Collins.
Salganik, M. J. y Heckathorn, D. D. (2004): «Sampling and estimation in
hidden populations using respondent-driven sampling», Sociological
Methodology 34: 193-239.
Savage, M. y Burrows, R. (2007): «The coming crisis of empirical
sociology», Sociology 41: 885-899.
Savage, M., Devine, F., Cunningham, N., Taylor, M., Li, Y., Hjellbrekke, J.
et al. (2013): «A new model of social class? Findings from the BBC’s
great class survey experiment», Sociology 47: 219-250.
Seawright, J. (2005): «Qualitative comparative analysis vis-à-vis
regression», Studies in Comparative International Development 40: 3-
26.
Sen, A. K. (1986): «Prediction and economic theory», Proceedings of the
Royal Society of London A407: 3-23.
Silver, C. (ed.) (1982): Frédéric Le Play on family, work and social change.
Chicago, IL: Chicago University Press.
Silver, N. (2012): The signal and the noise. Londres: Penguin.
Simon, H. A. (1982): Models of bounded rationality. Cambridge, MA: MIT
Press.
— (1983): Reason in human affairs. Oxford: Blackwell.
Skocpol, T. (1979): States and social revolutions. Cambridge: Cambridge
University Press.
Smith, T. M. F. (1997): «Social surveys and social science», Canadian
Journal of Statistics 25: 23-44.
Sørensen, A. B. (1998): «Theoretical mechanisms and the empirical study
of social processes», en P. Hedström y R. Swedberg (eds.), Social
mechanisms. Cambridge: Cambridge University Press.
Spencer, H. (1873-1934): Descriptive sociology. Londres.
Steel, D. P. (2008): Across the boundaries: extrapolation in biology and the
social sciences. Oxford: Oxford University Press.
Stigler, G. J. y Becker, G. S. (1977): «De gustibus non est disputandum»,
American Economic Review 67: 76-90.
Stigler, S. M. (1999): «Statistical concepts in psychology», en S. M. Stigler
(ed.), Statistics on the table: the history of statistical concepts and
methods, Cambridge, MA: Harvard University Press.
Stocké, V. (2007): «Explaining educational decision and effects of families’
social class position: an empirical test of the Breen-Goldthorpe model of
educational attainment», European Sociological Review 23: 505-519.
Stone, R. (1997): Some British empiricists in the social sciences, 1650-
1900. Cambridge: Cambridge University Press.
Sullivan, A. (2006): «Students as rational decision-makers: the question of
beliefs and desires», London Review of Education 4: 271-290.
Suppes, P. (1970): A probabilistic theory of causality. Ámsterdam: North
Holland.
Susser, M. (1998): «Does risk factor epidemiology put epidemiology at
risk?», Journal of Epidemiology and Community Health 52: 608-611.
Thernstrom, S. (1964): Poverty and progress: social mobility in a
nineteenth century city. Cambridge, MA: Harvard University Press.
Thompson, R. P. (2011): «Causality, theories and medicine», en P. M. Illari,
F. Russo y J. Williamson (eds.), Causality in the sciences. Oxford:
Oxford University Press.
Thornton, A., Axinn, W. G. y Xie, Y. (2007): Marriage and cohabitation.
Chicago, IL: University of Chicago Press.
Tilly, C. (1995): «The bourgeois gentilshommes of revolutionary theory»,
en N. R Keddie (ed.), Debating revolutions. Nueva York: New York
University Press.
Todd, P. M., Billari, F. C. y Simào, J. (2005): «Aggregate age-at-marriage
patterns from individual mate-search heuristics», Demography 42: 559-
574.
Tooby, J. y Cosmides, L. (1992): «The psychological foundations of
culture», en J. H. Barkow, L. Cosmides y J. Tooby (eds.), The adapted
mind. Nueva York: Oxford University Press.
Torssander, J. y Erikson, R. (2009): «Stratification and mortality – a
comparison of education, class, status and income», European
Sociological Review 26: 465-474.
— (2010): «Marital partner and mortality: the effects of the social positions
of both spouses», International Journal of Epidemiology and
Community Health 63: 992-998.
Treiman, D. J. (1977): Occupational prestige in comparative perspective.
Nueva York: Academic Press.
Tumin, M. M. (1953): «Some principles of stratification: a critical
analysis», American Sociological Review 18: 387-394.
Turner, J. (2007): «Is public sociology such a good idea?», en L. T. Nichols
(ed.), Public sociology: the contemporary debate. New Brunswick, NJ:
Transaction.
Tylor, E. B. (1889): «On a method of investigating the development of
institutions: applied to laws of marriage and descent», Journal of the
Royal Anthropological Institute 18: 245-256, 261-269.
Vansina, J. (1990): Paths in the rain forests. Madison, WI: University of
Wisconsin Press.
Vaughan, D. (1996): The Challenger launch decision. Chicago, IL:
University of Chicago Press.
Verein für Sozialpolitik. (1912): Verhandlungen der Generalversammlung
in Nürnberg, 1911. Leipzig: Dunker und Humblot.
Warner, W. L. y Lunt, P. S. (1941): The social life of a modern community.
New Haven, CT: Yale University Press.
— (1948): The status system of a modern community. New Haven, CT: Yale
University Press.
Watts, D. J. (2014): «Common sense and sociological explanations»,
American Journal of Sociology, 120: 313-351.
Weber, M. (1892): Die Verhältnisse der Landarbeiter in ostelbischen
Deutschland. Leipzig: Schriften des Vereins für Sozialpolitik.
— (1906/1949): «A critique of Eduard Meyer’s methodological views», en
The methodology of the social sciences. Glencoe, IL: Free Press.
— (1908): «Zur Psychophysik der industriellen Arbeit», Archiv für
Sozialwissenschaft und Sozialpolitik 27: 730-770.
— (1921/1948): «Politics as a vocation», en H. H. Gerth y C. W. Mills
(eds.), From Max Weber: essays in sociology. Londres: Routledge and
Kegan Paul.
— (1922/1948): «Science as a vocation», en H. H. Gerth y C. W. Mills
(eds.), From Max Weber: essays in sociology. Londres: Routledge and
Kegan Paul.
— (1922/1968): Economy and society. Berkeley, CA: University of
California Press.
Wilkinson, R. y Pickett, K. (2010): The spirit level: why equality is better
for everyone, 2.ª ed. Londres: Penguin.
Winch, P. (1958): The idea of a social science and its relation to
philosophy. Londres: Routledge.
Wolf, E. (1982): Europe and the people without history. Berkeley, CA:
University of California Press.
Woolgar, S. (1988): Science: the very idea. Londres: Tavistock.
Woolrych, A. (2002): Britain in revolution 1625-1660. Oxford: Oxford
University Press.
Worrall, J. (2007): «Evidence in medicine and evidence-based medicine»,
Philosophy Compass 6: 981-1022.
Wright, E. O. (ed.) (2005): Approaches to class analysis. Cambridge:
Cambridge University Press.
Wright, J. D. y Marsden, P. V. (2010): «Survey research and social science:
History, current practice and future prospects», en P. V. Marsden y J. D.
Wright (eds.), Handbook of survey research. Bingley: Emerald.
Wright Mills, C. (1959): The sociological imagination. Nueva York: Oxford
University Press.
Wrong, D. (1961): «The oversocialized conception of man in modern
sociology», American Sociological Review 26: 183-193.
— (1999): The oversocialized conception of man. New Brunswick, NJ:
Transaction.
Wu, L. (2000): «Some comments on “Sequence analysis and optimal
matching methods in sociology: Review and prospect”», Sociological
Methods and Research 29: 41-64.
Xie, Y. (2000): «Demography: past, present and future», Journal of the
American Statistical Association 95: 670-673.
— (2005): «Methodological contradictions in contemporary sociology»,
Michigan Quarterly Review, XLIV: 506-511.
— (2007): «Otis Dudley Duncan’s legacy: the demographic approach to
quantitative reasoning in social science», Research in Social
Stratification and Mobility 25: 141-156.
Yin, R. K. (2003): Case study research. Thousand Oaks, CA: Sage.
Young, M. y Willmott, P. (1957): Family and kinship in East London.
Londres: Routledge.
Ziman, J. (1968): Public knowledge: the social dimension of science.
Cambridge: Cambridge University Press.
Zonabend, F. (1992): «The monograph in European ethnography», Current
Sociology 40: 49-54.
Título original: Sociology as a Population Science
Publicado originalmente en inglés por Cambridge University Press en 2016

Edición en formato digital: 2017

© John H. Goldthorpe, 2016


© de la traducción: María Teresa Casado Rodríguez, 2017
© Alianza Editorial, S. A., Madrid, 2017
Calle Juan Ignacio Luca de Tena, 15
28027 Madrid
alianzaeditorial@anaya.es

ISBN ebook: 978-84-9104-681-3

Está prohibida la reproducción total o parcial de este libro electrónico, su transmisión, su descarga, su
descompilación, su tratamiento informático, su almacenamiento o introducción en cualquier sistema
de repositorio y recuperación, en cualquier forma o por cualquier medio, ya sea electrónico,
mecánico, conocido o por inventar, sin el permiso expreso escrito de los titulares del Copyright.
Conversión a formato digital: REGA

www.alianzaeditorial.es

También podría gustarte