Está en la página 1de 7

Miquel Àngel Sansó Cabrer

Metodología de Estudio de la Filosofía


UIB

El ANÁLISIS CAUSAL EN FILOSOFÍA DE LAS CIENCIAS SOCIALES. UNA APROXIMACIÓN A LA


NOCIÓN DE EXPLICACIÓN MEDIANTE EL MODELO DE LOS MECANISMOS.

Abstract
EL objetivo del presente texto es, primer lugar (a), analizar las diversos paradigmas que se han propuesto entorno
a la noción de <<explicación>>, desde aquellos modelos con la pretensión compartida de establecer un esquema
inferencial común en aquellas ciencias sociales con motivaciones empíricas. Las diferencias (b) entre ellos estriba,
en todo caso, con la estrategia analítica que se defiende para garantizar que las relaciones aparentemente causales
no sean en realidad espurias, esto es, para satisfacer los supuestos de <<homogeneidad causal>> e
<<independencia condicional>> que requieren las inferencias propiamente causales. Podemos identificar, de este
modo, tres grandes paradigmas de análisis causal en filosofía de las ciencias sociales: el modelo de cobertura legal
(tanto en su versión nomológica-deductiva, como en su forma inductiva-probabilística), la explicación estadística,
y finalmente, la explicación mediante mecanismos. Y en relación a estos tres modelos sobre qué vale como una
inferencia explicativa relevante en ciencias sociales subyacen, respectivamente, tres enfoques (c) diferenciados
sobre la causalidad, que es en todos estos modelos el principal medio o vínculo lógico que tenemos parra ordenar
y comprender el mundo: la causalidad como dependencia robusta, la causalidad como manipulación secuencial y,
finalmente, la causalidad como proceso generativo. Vistos los límites (d) de los dos primeros modelos
explicativos, en el presente texto se aboga en filosofía de las ciencia sociales por el uso de diseños experimentales
elaborados mediante teorías multinivel, como la simulación multi-agente (SMA), como herramientas formales
útiles para poner a prueba las explicaciones basadas en mecanismos.

CONCEPTOS CLAVE: explicación, causalidad, mecanismo, filosofía experimental, teoría multinivel, diagrama
de Coleman, simulación multi-agente.

1. INTRODUCCIÓN.
En cualquier diseño de investigación (sea experimental o no) en ciencias sociales 1, se debe tener
presente cuatro grandes momentos o fases. En primer lugar (1), debe demostrarse la existencia de
una correlación entre una variable dependiente (Y) y al menos una independiente (X) en el sentido
de que X incrementa la probabilidad de que Y ocurra. Debe asegurarse, en segundo lugar (2), que tal
relación no sea espuria2 o el resultado de una tercera variable, Z, que causa simultáneamente Y y X.

1. En este texto, cuando hagamos referencia a alguna propiedad social -de cualquier tipo-, entenderemos como lo <<social>> todas aquellas
propiedades colectivas que no son predicables de un miembro individual de la colectividad (Hedström, 2006; Carlsson, 1968). La teoría social
analítica se definiría, entonces, como aquella ciencia que se ocupa de estudiar las consecuencias no intencionales de la acción humana.
2. Como señala Elster (2000:46-47), cuando hacemos referencia al problema de las relaciones espúrias, hacemos hincapié en una “[…] correlación
entre dos variables que no se origina en una relación causal entre ellas, sino en su relación común con una tercera […]” . Así, el error de confundir
una simple correlación con una relación causal “[…] es un problema constante en este modo de explicar estadística y la razón por la que hay que
cuidarse de interpretar correlaciones como más que indicaciones de que <<algo está pasando>> que vale la pena ser observado más en
detalle[…]”. Con esto, la función básica del análisis de correlación es -simplemente- que “nos permite descartar una hipótesis causal si la
correlación es baja”.
Así, una vez establecida la regularidad estadísticamente relevante, (3) debe especificarse un
mecanismo3 que describa el proceso a través del cual una variable influye en la otra o cómo Y es
producida por X. Y finalmente, en cuarto y último lugar (4), deben (González Bairón, 2006 4)
ponerse a prueba estos mecanismos mediante la elaboración de diseños experimentales, p.e.,
mediante el uso de la simulación multiagente (SMA).
En general, se diferencian, en este aspecto, tres grandes tradiciones del análisis causal 5 (Peter
Hedström 2001; Barbera, 2006; Goldthorpe, 2010) en filosofía de las ciencias sociales: la de la
causalidad como <<dependencia robusta>>, característica de los modelos explicativos de cobertura
legal, la de la causalidad como <<manipulación secuencial>> ligada a explicación estadística y,
finalmente, la causalidad entendida como proceso generativo, propio del modelo de los mecanismos
(Goldthorpe, 2010; Barbera, 2006:51). Planteado así, el problema clásico de las inferencias causales
a partir de los datos observados es, precisamente, que la relación entre dos variables puede ser
explicada tanto porque una variable es la causa de la otra como debido a la existencia de una causa
común de ambas variables. O como indica Goldthorpe (2010:235), mientras que la correlación -o en
términos más generales, la asociación- no implica causación, la causación sí ha de implicar, de una
forma u otra, asociación.

2. DE LA EXPLICACIÓN MEDIANTE LEYES DE COBERTURA A LA EXPLICACIÓN


ESTADÍSTICA. UN CAMBIO DE PARADIGMA: DE LEYES A VARIABLES.
El primer gran paradigma respecto al concepto de explicación lo encontramos en la propuesta
epistémica de Carl Hempel. En los análisis de los <<modelos de cobertura legal>> se trata de
establecer la existencia y/o relevancia de ciertos efectos causales entre la(s) variable(s)
independiente(s) X y la(s) variable(s) dependiente(s). Para lograr una solución al problema de
desplazarse desde la asociación hasta la causación, el modelo de cobertura legal recurre al siguiente
argumento: X es una causa <<auténtica>> de Y en la medida en que se revela <<robusta>> la
dependencia que tiene Y de X. Dicho en otros términos, no se puede eliminar introduciendo una o
más variables diferentes en el análisis y luego controlándolas de alguna manera (Simon, 1954;
Suples, 1970; Goldthorpe, 2010). La identificación de estas variables se basa en la descomposición

3. Kiser y Hetcher (1991:6-10) señalan tres criterios para seleccionar un mecanismo: plausibilidad, reducción de la distancia temporal entre causa y
efecto, e implicaciones empíricas.
4. González-Bailón (2006). El papel de las red sociales en el capital social y los experimentos de simulación. Texto incluido en Noguera (eds.)
(2010).
5. El concepto de causalidad es central en la interpretación de la realidad ordinaria, cuyos sucesos, procesos y situaciones son vistos como efectos
(consecuencias, resultados) imputables a causas que los producen y sin las cuales, se piensa, no habría podido ocurrir como ocurrieron. Desde esta
perspectiva, podemos definir, provisionalmente, el concepto de <<causa>> como una relación que opera como condición necesaria entre dos sucesos.
El conocimiento de la realidad a través de dicho tipo de relaciones dista mucha de ser completo, perfecto y sistemático, aunque lo que sí es cierto es
que percibimos una relación entre uno y otro hecho, porque efectivamente, la hay. Nos vemos forzados, queramos o no, a establecer constantemente
relaciones causa-efecto, aunque el análisis exhaustivo de las clases de relaciones que se pueden establecer sobre los los hechos no se reduzan, en
modo alguno, a los vínculos causales. De hecho, también podemos identificar otras relaciones que siguen a patrones secuenciales o de <<orden>>
(continuidad), o bien a patrones espaciales, asociando hechos por la proximidad local que normalmente guardan entre sí (contigüidad), o bien,
finalmente, patrones del tipo <<sustancia-accidente>> (Miranda Vázquez, 2014:192, en La prueba indiciaria: ¿deducción? ¿inducción? ¿abducción?
¿o inferencia a la mejor explicación; texto incluido en García Amado (eds) (2014).
de los casos u observaciones en diferentes categorías taxonómicas. Esta variante explicativa se
fundamenta en la idea de que el comportamiento de los individuos se puede explicar de acuerdo con
<<determinantes>> individuales y contextuales; el propósito del análisis debe ser, entonces, estimar
la influencia causal de las variables que representan estos determinantes. Así, el explandum es la
variable dependiente, y el explanans consiste en una serie de variables independientes: los efectos
de estas variables independientes sobre la dependiente se sugieren y se contrastan empíricamente.
Como sostienen algunos autores (Barbera, 2006) el modelo de la causalidad como <<dependencia
robusta>> que caracteriza a cualquier modelo de cobertura legal, ha tendido a aproximarse a
situaciones experimentales propias de la concepción de la causalidad como <<manipulación
secuencial>>, ligada a modelos inductivo-probabilísticos y basadas en técnicas estadísticas: las
causas, qua causas, deben ser manipulables. Mientras que el enfoque nomológico deductivo se
preocupaba de establecer <<las causas de los efectos>>, el enfoque estadístico de la manipulación
secuencial tendrá como objetivo establecer <<los efectos de las causas>> (Goldthorpe, 2010:240).
De este modo, una vez superado la etapa positivista o verificacionista fuerte en filosofía de la
ciencia representada por el modelo de cobertura legal -según el cual el propósito del análisis causal
era determinar de una vez por todas las <<causas de los efectos>> con métodos nomológico-
deductivos e inductivo-probabilísticos-, en la explicación estadística como manipulación secuencial
se apuesta por dirigir la atención, mediante la elaboración de diseños experimentales, a la cuestión
de los <<efectos de las causas>>. Como indica Goldthorpe (2010:234), a partir de las últimas
décadas del siglo XX, se introdujo la idea de causalidad probabilística opuesta a la causalidad
determinista, lo que condujo a filósofos y a estadísticos a plantear que en lugar de pensar que las
causas exigen los efectos, habría que considerar simplemente que aumentan la probabilidad de su
ocurrencia”. En términos del propio Goldthorpe (2010: 240), éstas se determinan comparando lo
que hubiera pasado a una <<unidad>> respecto a Y, si esta unidad hubiera estado expuesto a X (el
tratamiento), con lo que hubiera sucedido si no hubiera estado expuesta a X (el control). Desde este
enfoque, entonces, se define la causalidad en términos contrafácticos, esto es, comparando lo que en
realidad ha sucedido, bajo ciertas condiciones definidas, con lo que habría podido suceder bajo
otras condiciones particulares distintas. O en otras palabras, una <<causa>> representa la
diferencia en los valores de la variable dependiente cuando la variable explicativa adopta dos
valores distintos y todo lo demás sigue igual, también denominada cláusula ceteris paribus (Lago,
2008:20; King, Keohane y Verba, 2000: cap 3). De acuerdo con esta perspectiva, con respecto a los
diseños experimentales, el efecto causal se analiza en términos del cambio que se produce en una
variable dependiente o variable de resultado como efecto de una intervención sobre las unidades de
control. Así, tales diseños se fundamentan sobre la idea de comparar la conducta o propiedades de
las unidades de control bajo las condiciones iniciales previamente establecidas, con el fin de valorar
en qué medida una intervención -también denominado <<tratamiento>>- tiene los efectos del tipo
esperado si el mecanismo diseñado estuviese de hecho operando. En este sentido, las unidades de
análisis y las condiciones (esto es, la variable independiente) clave que se investigan pueden ser
manipulados por el investigador, es decir, puede <<intervenir>> sobre las unidades de control y
determinar, posteriormente, los efectos de tales manipulaciones. En todo caso, a la hora de explicar
las regularidades sociales no es suficiente sólo con describir las propiedades de los individuos que
las generan, sino que es necesario también desarrollar modelos generativos que indiquen cómo una
gran cantidad de actores, en interacción unos con otros, dan resultados de distinto tipo a nivel
agregado o estructural. Tales regularidades son difícilmente interpretables en términos estadísticos,
puesto que la inferencia estadística descansa sobre el diseño de investigación y los datos, y no sobre
la sustancia de la investigación. La conclusión no puede ser otra que los análisis estadísticos son
cruciales (Gómez 1992; Goldthorpe, 2010, 2016) para contrastar empíricamente la validez de
nuestras explicaciones o para establecer el explananda, pero no pueden ser la explicación en sí
misma. Como meras asociaciones estadísticas, las explicaciones no ofrecen más razones que la
propia ley nomológica en sí misma. Justifican así la utilización de explicaciones de tipo caja negra
en la medida en que no consideran necesaria la provisión de los mecanismos que conectan la
variable dependiente y la/s independiente/s.

3. LA EXPLICACIÓN MEDIANTE LA PROVISIÓN DE MECANISMOS.


El tercer paradigma (esto es, el análisis de los procesos causales como mecanismos generativos) se
preocupa, por su parte, por la identificación de los procesos subyacentes que producen la relación
empíricamente observada entre X e Y. La perspectiva de los procesos causales como mecanismos
generativos incentiva la modelización y el análisis del proceso causal que genera la relación entre X
e Y. Tales procesos son lo que ha venido denominándose en la literatura científica como
<<mecanismos>>. Desde el modelo explicativo6 mediante mecanismos no sólo se deben apuntar las
variables que causan una diferencia sistemática en la probabilidad de que suceda un acontecimiento;
se debe, además, señalar cómo X causa Y. Tales mecanismos se definen, más concretamente, como
concepto(s) que especifica(n) un conjunto de entidades (actores, procesos o estructuras) y
actividades que está organizado de tal modo que provoca con frecuencia un determinado resultados
(Lago, 2008).
Los mecanismos pueden ponerse a prueba mediante la elaboración de diseños experimentales
(Wasserman, 1994), más concretamente, mediante simulaciones multi-agente (SMA) y haciendo
uso de teorías multinivel, para precisar el grado de adecuación del modelo respecto a la/ variable/s
relevantes/s. -previamente establecidas mediante el abanico disponible de técnicas de recogida y

6.
análisis de datos. La simulación multi-agente (SMA) es, en este sentido, una <<estrategia de
construcción>> de modelos que permite la experimentación con los mecanismos (González Bailón,
2004, 2006) y cumple, asimismo, con cuatro propiedades estructurales: (a) compromiso con el
individualismo metodológico7; (b) posibilidad de construir modelos de procesos de mano invisible;
(c) el supuesto de racionalidad limitada 8; y (d) la capacidad de captar e identificar procesos
emergentes contraituitivos (Bailón, 2006). Todas estas propiedades hacen de los mecanismos
fundamentados en los modelos multiagente (SMA) una herramienta formal lo suficiente flexible y
rigurosa como para analizar los distintos (posibles) vínculos entre lo individual y lo social; estudiar,
así, la dinámicas sociales que emergen como consecuencias no intencionales de la acción e
interacción de los agentes individuales, siempre inmersos en contextos de racionalidad limitada e
información incompleta.

4. LOS MECANISMOS CLASIFICADOS SEGÚN EL DIAGRAMA DE COLEMAN


Para clarificar la importancia de los mecanismos en el campo de la investigación social, podemos
aplicar en este contexto el Diagrama de Coleman (FIGURA 1), en el cual se muestra con
simplicidad los distintos modos que tenemos para vincular el contexto macrosocial con el contexto
microsocial, y visualizar, así, de forma sencilla, las dinámicas que emergen 9 de la interacción local
de los agentes con su contexto. Aunque el diagrama muestra un sistema con dos niveles de
abstracción, la distinción de ambos niveles es analítica, no empírica. En los SMA, los agentes están
distribuidos en un entorno artificial y son capaces de interactuar los unos con los otros y con el
entorno de forma paralela. De este modo, lo <<micro>> no representa sin más al agente individual,
sino más bien constituye el sistema de interacción/interdependencia, que puede hacer referencia al
individuo y/o a actores colectivos, así como a sus relaciones sociales, a sus configuraciones
espaciales y a la ordenación temporal de la interacción (Barbera, 2006:53). El nivel macro, por su
parte, hace referencia a algún tipo de agregación aditiva o efecto no aditivo (esto es, emergente) que

7. Las acciones de los distintos agentes tiene prioridad sobre el nivel agregado, pues, de acuerdo con el individualismo metodológico, cualquier
estructura social es una consecuencia no intencional de la acción e interacción de agentes individuales que la producen y reproducen, las acciones de
los cuales sí tienen carácter intencional (y por ende, poder causal), además de reglas de comportamiento a menudo heterogéneas. La SMA hace
posible, precisamente, construir modelos en los que los agentes individuales muestran un comportamiento más heterogéneo y realista.
8. Las estructuras sociales y las dinámicas de grupo son producto de agentes que sólo procesan información local, y por consiguiente, sólo se les
puede imputar una racionalidad limitada cuyas estrategias cognitivas recaen, en todo caso, en la capacidad de contruir reglas heurísticas para hacer
efectivo el conocimiento en contextos no-mínimos o también denominados situaciones de información incompleta. El conjunto de propiedades típicas
de las inferencias no estrictamente deductivas que definen estas reglas heurísticas es el siguiente: (i) Derrotabilidad de la conclusión: A diferencia del
modelo de cobertura legal de corte hempeliano, donde la aplicación de una ley asegura la veracidad de la conclusión, en el caso de la inferencia
probatoria contenida en la explicación mediante mecanismos la verdad de las premisas puede desembocar en la rotunda falsedad de la conclusión. Son
reglas relativas o contingentes. A la concurrencia de excepciones, verificadas o de posible futura aparición, es lo que se ha dado en llamar
<<derrotabilidad>> de la inferencia (Bayón, 2000; Miranda Vazquéz, 2014) (ii) No <<monotonicidad>> de la inferencia. Se predica dicho carácter de
aquella conclusión que puede verse afectada por la aparición de nueva información (Walton, 2002: 110; Aliseda (2006:35); Miranda Vazquez,
2014:209-211). El hecho de que la regla o premisa mayor del razonamiento no agote todos los casos de un determinado campo semántico conlleva
que la introducción de nuevos datos revele que se haya ecogido la regla equivocada. Por consiguiente, este tipo de razonamiento es el propio de las
situaciones en que la información es incompleta. (iii) Carácter provisional de la conclusión, sujeta a permanente refutación a la luz de nueva
información.
9. Con procesos emergentes nos referimos simplemente a fenómenos sociales que son subproductos no intencionales de las acciones
de los individuos en interacción (Hedström, 2006:219). La emergencia está asociada con dinámicas no lineales, es decir, con procesos
que hacen difícil la predicción del comportamiento agregado en el sistema (Holland, 1998:225-231; Bailón, 2006: 244).
es producto no intencional de las acciones individuales del nivel inferior. Puede identificarse tanto
con cierto tipo de fenómeno de nivel poblacional o subpoblacional (Goldthorpe, 2010) como con
fenómenos que no son reducibles a ningún elemento del sistema de interacción (Coleman, 1990:5;
Hedström, 2005; Barbera, 2006). Quedan establecidas, así, cuatro relaciones (macro-macro , macro-
micro, micro-micro y, finalmente, micro-macro). Las flechas indican la dirección de la explicación,
desde el explanans hacia el explanandum, y la finalidad del diagrama de de Coleman es representar
de forma intuitiva las relaciones entre las dos variables estructurales (macro-macro)
estadísticamente correlacionadas en términos de un proceso causal macro-micro-macro. A raíz de de
este modelo, Coleman distingue entre tres tipos de mecanismos: el situacional (a), el cognitivo (b) y,
finalmente, el transformacional (c), del que SMA es un ejemplo. Cada uno ellos estructura su
correspondiente análisis entorno al contexto (transición macro-micro), a la formación de la acción
(transición micro-micro), y a las relaciones o redes constituidas (transformación micro-macro),
respectivamente.
De los tres tipos de mecanismos señalados anteriormente en el diagrama de Coleman, la SMA
constituiría un ejemplo de mecanismo (3) transformacional, puesto que mediante la simulación
multi-agente se “asciende y regresa desde el nivel individual hasta el nivel social”: la variable
independiente es el individuo y la dependiente es la unidad social, en este caso, la sociedad
(Coleman, 1990:52). Se lleva a cabo mediante la elaboración de un marco analítico mínimo que
integra de forma pertinente a un conjunto de actores virtuales que actúan e interactúan de acuerdo
con principios previamente acotados, esto es, con factores relevantes de complejidad variable. Sólo
entonces, una vez llevado llevado cabo el diseño del mecanismo, se utilizan simulaciones
informáticas para examinar los resultados que se produce a nivel agregado. Tal enunciado no
implica ni presupone, en todo caso, y desde el compromiso analítico con el individualismo
metodológico, que los atributos de un único individuo puedan provocar el cambio social; por el
contrario, lo que se propone desde esta perspectiva es analizar “un tipo de efecto combinado,
conjunto o agregado de la conducta […] de muchos individuos”(Coleman, 1990:52) cuya acción
conjunta provoca el cambio social a nivel macro. Esto es, explicar cómo los individuos a través de
sus acciones o interacciones generan resultados en el nivel macro, intencionadamente o no (Lago,
2008:70). Pues, en definitiva, para explicar una covariable relevante se debe mostrar cómo los
fenómenos sociales del nivel macro imponen constricciones normativas e influyen sobre las
creencias, deseos, preferencias,… de los individuos (flecha 1, mecanismos contextuales), cómo esos
estos estados intencionales influyen sobre las acciones de los individuos (flecha 2, mecanismos
cognitivos), y cómo los actores, a través de sus acciones, producen y reproducen las variables que
pretendemos explicar (flecha 3, mecanismos transformacionales).
FIGURA 1: El diagrama macro-micro-macro de James S. Coleman.

1 33

Fuente: Coleman, 1990: 51.

6. BIBLIOGRAFÍA
-Gómez Rodríguez, Amparo (1992). Sobre actores y tramoyas. La explicación situacional
de la acción individual. Antrophos: Barcelona.
-García Amado, Bonorino (eds.) (2014). Prueba y razonamiento probatorio en Derecho. Debates
sobre Abducción. Comares: Granada.
-Goldthorpe, John H. (2010). Números, narrativas e integración de la investigación y la teoría.
CIS: Madrid.
(2017). La sociología como ciencia de la población. Alianza:Madrid.
--Elster, Jon (2008). Tuercas y Tornillos. Antrophos: Barcelona..

-Kitcher, P., Salmon, W. C.(1989). Scientific Explanation. University of Minnesota Press.


-Lago, Ignacio (2008). La lógica de la explicación en las ciencias sociales. Una introducción
metodológica.
-Noguera, José Antonio (ed.) (2010). Teoría sociológica analítica. CIS:Madrid.
-Von Wright, Georg Henrik (1971). Explicación y comprensión. Alianza:Madrid.
- Wasserman, S., Faust, K. (1994). Análisis de redes sociales. Métodos y aplicaciones. CIS: Madrd.

También podría gustarte