Está en la página 1de 7

Las cuatro causas de la conducta

Peter R. Killeen, 2001.


Current directions in psychological science. 10 (4), 136–140.
Traducción de Domenech, N. y Cáceres, L. (2013).
Resumen
La comprensión de un fenómeno consiste en identificar su origen, estructura, sustrato, y
función, y representar estos factores en algún sistema formal. Aristóteles proporcionó una
especificación clara de estos tipos de explicación, a las que llamó causas eficientes
(disparadores), causas formales (modelos), causas materiales (sustratos o mecanismos), y
causas finales (funciones). En este artículo, el marco de Aristóteles se aplica al
condicionamiento y al debate cómputo-versus-asociación. El aspecto empírico crítico está en
la reducción, temprana o tardía, de la información disponible. La teoría de Autómatas
proporciona una gramática para modelos de condicionamiento y de procesamiento de
información en la que pueden ser representadas esas restricciones.
Palabras claves:
Asociaciones, autómata, causalidad, explicación, modelos.
----------------------------------------------------------------------------------------------------------
Juzgar cuando el aprendizaje es explicado mejor como un proceso asociativo o como
un proceso computacional requiere que aclaremos los términos clave. Este ensayo
proporciona un marco de referencia para la explicación, la asociación y el cómputo; deja al
aprendizaje como un primitivo no explicado.

LAS CUATRO CAUSAS DE ARISTÓTELES


Aristóteles (1929) describe cuatro tipos de explicación. Debido a la mala traducción y la
interpretación errónea por "charlatanes eruditos" (Santayana, 1957, p. 238), sus cuatro
"PORQUÉS" fueron derogadas como un tratamiento incoherente de causalidad (Hocutt,
1974). Aunque antiguas, las cuatro causas de Aristóteles proporcionan un marco de gran
valor para la explicación científica moderna, y en particular para la resolución del debate
actual sobre el aprendizaje.

En el marco de Aristóteles, las causas eficientes son disparadores, eventos que


provocan un "efecto". Este es el significado contemporáneo de la causa. Los filósofos como
Hume, Mill y Mackie han aclarado los criterios para la identificación de diferentes relaciones
causales eficientes (p. ej. necesidad, suficiencia, eventos insuficientes pero necesarios en el
contexto de eventos suficientes de otra manera). Las causas eficientes identifican las
primeras partes de una secuencia que son esenciales para la parte final, ellas nos dicen lo
que inicia un cambio de estado. El "análisis causal etológico" de Jachmann y van den Assem
(1996) del comportamiento de cortejo de una avispa, es un ejemplo de este significado de la
causa.

Las causas materiales son sustratos. Estos son los tipos más comunes de la
explicación causal en uso hoy en día, están ejemplificadas por la mayoría de las
neurociencias y la investigación de imágenes cerebrales. Una vez que el mecanismo ha sido
identificado, mucha gente considera que el fenómeno está explicado. Este enfoque exclusivo
en el mecanismo se conoce como el reduccionismo.
Las causas formales son modelos. El gran logro de Newton fue dar credibilidad a este
tipo de modelos sin causas materiales: Para él, no había “ganchos y ojos” para la gravedad
"Las hipótesis [concernientes a mecanismos subyacentes] no son parte de mi diseño", solo
matemática pura. Fue una situación difícil para Newton, pues como filósofo mecanisista
aborrecía los explicaciones ocultas (y por ello ad hoc). Newton gustosamente habría
equipado su teoría con ganchos y ojos -causas materiales- pero no pudo idear alguna
suficiente para mantener a los planetas en sus órbitas.

Las causas formales son mapas lógicos. La forma favorita de Aristóteles fue el
silogismo, al igual que para el físico moderno sus favoritas son las ecuaciones diferenciales.
Tales ecuaciones describen el cambio de un estado a otro, de acuerdo a las condiciones
iniciales (causas eficientes), las ecuaciones describen la trayectoria completa del cambio.

No importa cuán exitosos sean los modelos formales, no son mecanismos: las
ecuaciones matemáticas describen las trayectorias de las pelotas de béisbol y de los
planetas, pero estos cuerpos no resuelven ecuaciones para proyectar sus movimientos. Los
modelos formales no dicen nada sobre la causa eficiente, el sustrato, y la función. Es posible
especular sobre los mecanismos subyacentes, y para generar modelos formales de ellos,
pero sin datos directos sobre esos mecanismos, los modelos son conjeturas no verificables y
por lo general están sujetas a cambios, como las modas que van y vienen, están ocultas.

Las causas finales son explicaciones funcionales: "Para reconocer una máquina
verdadera, tenemos que tener una idea de lo que se supone que ésta hace" (Minsky, 1967,
p. 4). Preguntas como "¿para qué sirve?" o "¿por qué hace eso?" corresponden a la llamada
causa funcional (o final). La supervivencia del más apto, la teoría del forrajeo óptimo, y las
explicaciones propositivas en general, ofrecen respuestas pertinentes. La mayor parte de la
física moderna se puede escribir en términos de funciones que optimizan ciertas variables,
como la energía. Todas las leyes se refieren a esa óptima causa final.

Los ejemplos más comunes son: rayos de luz que siguen caminos que reducen al
mínimo el tiempo del trayecto, animales que se comportan de forma tal que maximizan su
representación genética en las generaciones posteriores, y seres humanos que se
comportan de manera que maximizan los beneficios para una población. A las causas finales
se les dio un mal nombre (teleología), porqué fueron tratadas como causas formales,
materiales o eficientes desordenadas. Una razón por la que las jirafas tienen el cuello largo
es para que puedan ver el follaje alto, esta causa final no desplaza a la explicación formal
(variación y selección natural), ni a la material (genética), ni es una causa eficiente
(Lamarkianismo). Pero ninguna de esas otras explicaciones causales tienen sentido sin la
especificación de la causa final. Los biólogos reintrodujeron las causas finales bajo el
eufemismo de "mecanismos terminales", refiriéndose a las causas eficientes y materiales de
una conducta como "mecanismos inmediatos".

Dos sistemas que comparten las mismas causas finales pueden tener sustratos muy
distintos. Los análisis de análogos evolutivos, como las alas de los insectos, aves y
murciélagos, proporcionan información funcional útil (relativa, por ejemplo, a las presiones
evolutivas convergentes y variedades de estrategias adecuadas para esa función), a pesar
de que las alas no son homólogas (es decir, no han evolucionado a partir de un mismo
órgano en un antepasado antiguo). Los análisis analógico-funcionales son víctimas de "la
falacia analógica" sólo cuando se supone que la similitud de la función implica similitud de
eficiencia (historia evolutiva) o causa material (fisiológica). Tales factores de confusión se
pueden evitar mediante el análisis de cada tipo de causa por separado.

Las causas eficientes son, entonces, las condiciones iniciales de un cambio de estado,
las causas finales son las condiciones terminales, las causas formales son modelos de
transición entre las condiciones iniciales y las terminales, las causas materiales son el
sustrato sobre el que actúan estas otras causas.

EXPLICACIÓN DEL CONDICIONAMIENTO

Skinner (1950) arremetió contra la causa formal ("teorizar"), material ("neuro-


reduccionista") y finales ("intencional"), y consideró científicas a las causas eficientes, como
"las variables de las cuales la conducta es una función". Skinner estaba preocupado de que
las causas complementarias se utilizaran en lugar de su análisis funcional, y no junto con
éste. Pero de todos los fenómenos del comportamiento, el condicionamiento es el que menos
puede ser comprendido sin referencia a las cuatro causas: La habilidad de ser condicionado
ha evolucionado debido a la ventaja del aprovechamiento de las relaciones causales
eficientes.

Causas finales
El condicionamiento conforma trayectorias conductuales en caminos más cortos al
reforzamiento (Killeen, 1989). Cuando un estímulo predice un evento biológicamente
significativo (un estímulo incondicionado, EI), los animales mejoran su estado físico por
"aprendizaje asociativo" entre los acontecimientos externos, y entre esos acontecimientos y
las acciones apropiadas. Los nichos estables (aquellos habitados por la mayoría de las
plantas, animales y hongos) no requieren ni apoyan el aprendizaje: los tropismos y los
reflejos simples se ajustan de manera suficiente a las regularidades cotidianas de la luz, la
marea, y las estaciones. Sin embargo, cuando el entorno cambia, entra en juego el
aprendizaje, para renovar los mecanismos y aprovechar las nuevas contingencias. Los que
las aprovechan mejor están mejor representados en la siguiente generación. Este es la
causa final (terminal en términos de los biólogos) del condicionamiento. Entender el
aprendizaje requiere saber qué fue lo que las respuestas aprendidas pudieron haber
conseguido en los ambientes que las seleccionaron.

Causas eficientes
Son el prototipo de las causas, lo suficientemente importantes para la supervivencia
para que muchos animales hayan desarrollado sensibilidad a ellas. Los parámetros que son
indicadores de las causas eficientes son: la contigüidad en el espacio y el tiempo, la prioridad
temporal, la regularidad de asociación y la similitud. Afectan tanto a los juicios de causalidad
en los seres humanos (Allan, 1993) como a la velocidad del condicionamiento (Miller y
Matute, 1996).

Causas materiales
El sustrato del aprendizaje es el sistema nervioso, que proporciona una riqueza
embarazosa de mecanismos. El desarrollo de explicaciones formales y eficientes del
condicionamiento puede orientar la búsqueda de mecanismos operativos neuronales. A su
vez, la aclaración de la arquitectura neural puede guiar el modelamiento formal, como los
modelos conexionistas paralelos (redes neuronales) que emulan diversas funciones
cerebrales. Cada una de las cuatro causas es un recurso para la comprensión de las otras.
Causas formales
Los modelos son subconjuntos apropiados de todo lo que se puede decir en un
lenguaje de modelamiento Modelos asociacionistas y computacionales de aprendizaje son
formulados en los idiomas de la probabilidad y automaticidad respectivamente. Sus
estructuras se esbozan a continuación.

Modelos Asociativos
Implicación material, la relación suficiente (si C, entonces E; simbolizado como C → E),
proporciona un modelo simplista de ambos, causalidad eficiente y condicionamiento.
Sostiene que cada vez que C, entonces también E; falla cada vez que C y E. Cuando la
presencia de una señal (C, el estímulo condicionado o EC) predice con precisión un
reforzador (E, o estímulo incondicionado, EI), la fuerza de la relación C → E aumenta. La
probabilidad condicional del EI dado el EC –p (E | C)- generaliza esta relación todo-o-nada a
una de probabilidad. Los animales también son sensibles a la presencia del EI en la ausencia
del EC, p (E | ~ C); sólo si esta probabilidad es cero se dice que es una causa necesaria para
el efecto. Los efectos innecesarios degradan el condicionamiento, al igual que sucesos
inesperados hacen que un observador cuestione su comprensión de una situación.

Los buenos indicadores de la fuerza de aprendizaje son (a) la diferencia entre estas dos
probabilidades condicionales y (b) la capacidad de diagnóstico del EC, p(E | C) / p(E), que es
el grado en el que la causa (EC ) reduce la incertidumbre respecto a la ocurrencia del efecto
(EI). Como es el caso para todas las probabilidades, la medición de estos condicionales
requiere de un contexto definitorio. Éste puede comprender combinaciones de señales, un
entorno físico y la historia de reforzamiento. El reforzamiento genera una actualización de los
condicionales, la velocidad del condicionamiento depende del peso implícito de la evidencia
en los condicionantes anteriores. Las datos de base de algunos condicionales, tales como la
probabilidad de enfermarse después de experimentar un determinado sabor, a menudo son
pequeños, de modo que uno o dos apareamientos aumentan en gran medida la probabilidad
condicional y generan aversiones al sabor. Apareamientos anteriores del sabor y la salud, sin
embargo, le dará a los condicionales anteriores más inercia, haciendo que la probabilidad
condicional aumente más lentamente, y posiblemente proteja al individuo de una aversión al
sabor causado por la posterior asociación de la enfermedad con el sabor. Los estímulos más
comunes, como las formas, puede ser lentos para el condicionamiento debido a una historia
de exposición que no está asociada con la enfermedad.

El teorema de Bayes proporciona un modelo formal de este proceso de actualización de


las probabilidades condicionales. Este es un ejemplo de cómo los subconjuntos de la teoría
de probabilidades pueden servir como un modelo formal para la teoría de la asociación. Las
teorías asociativas continúan evolucionando a la luz de los experimentos de manipulación de
las variables contextuales, Hall (1991) proporciona una excelente historia de la restricción
progresiva de los modelos asociativos por los datos.

Modelos Computacionales
Las computadoras son máquinas que se asocian con direcciones de contenidos (es
decir, ir a un archivo especificado por una dirección y obtener ya sea un dato o una
instrucción). No sólo hacen los cómputos asociados, sino que computan las asociaciones:
"Cada máquina de estado finito es equivalente a, y puede ser 'simulada' por, alguna red
neuronal" (Minsky, 1967, p 55.). Las computadoras pueden crear instancias de todos los
modelos asociativos de condicionamiento y sus inversos. Para que la metáfora
computacional se convierta en un modelo, debe restringirse a un subconjunto apropiado de lo
que las computadoras pueden hacer, una manera de lograr esto es a través de la teoría de
autómatas (Hopkins & Moss, 1976). La teoría de autómatas es una caracterización formal de
arquitecturas computacionales. Una distinción crítica entre autómatas es la memoria: los
autómatas finitos pueden distinguir solamente los insumos (historias de condicionamiento)
que pueden ser representados en su memoria interna finita. La representación puede ser
ampliada gradualmente añadiendo una memoria externa, en la forma almacenes de pila, de
discos regrabables finitos o de cintas infinitas. Estas arquitecturas amplificadas corresponden
a las gramáticas libres de contexto de Chomsky (1959/1963), gramáticas sensibles al
contexto y máquinas universales de Turing, respectivamente. Las máquinas de Turing son
modelos de la arquitectura de un ordenador de propósito general, pueden calcular todas las
expresiones que son computables en cualquier máquina. La arquitectura de una máquina de
Turing es engañosamente simple, dado su poder universal, es el acceso a una memoria
potencialmente infinito "cinta" lo que le da este poder. Las computadoras personales son en
principio máquinas de Turing, instrumentos de silicio cuya universalidad ha desplazado a la
mayoría de los instrumentos de metal de la psicología de hace tiempo.

La distinción crucial
La memoria es también lo que divide las aproximaciones asociativas de las
computacionales. La reducción temprana de memoria disponible requiere menos estados de
memoria que la reducción tardía y permite respuestas más rápidas. La reducción tardía es
más flexible e “inteligente”. La conducta de los animales puede reflejar cómputo a cualquier
nivel elevado, pero no puede exceder su capacidad de memoria. La mayoría de las
conductas humanas son reflejos simples que corresponden a autómatas finitos. Aún los
repertorios más complejos pueden llegar a ser "automatizados" con la práctica, reduciendo
una respuesta que originalmente requería un cómputo intenso (los intentos del niño para
atarse los zapatos) a un hábito inconsciente. La adaptación permitida por el aprendizaje
podría tener un precio muy alto si no llevara eventualmente a la automatización, y por ello a
la capacidad de responder rápidamente. La conciencia de la acción permite la adaptación, la
inconciencia permite la velocidad.

En la teoría asociativa tradicional, la información es reducida a un potencial de acción


("fuerza" de asociación entre el EC y el EI) y almacenada sobre una base de tiempo real.
Tales autómatas finitos con memoria limitada son inadecuados como modelos de
condicionamiento, porque "la naturaleza de la representación puede cambiar –el tipo de
información que contiene y puede ser influenciada por [varias operaciones post hoc]" (Hall,
1991, p. 67). Las ratas tienen acceso de memoria a más de la historia del medio ambiente y
las consecuencias de lo que han almacenado por simple actualización Bayesiana de
disposiciones. Miller (e.g., Blaisdell, Bristol, Gunther, & Miller, 1998) proporciona un modelo
computacional que ejemplifica tal reducción tardía.

Si la teoría asociativa tradicional es demasiado simple para ser un modelo viable del
condicionamiento, las computadoras sin restricciones (máquinas universales de Turing) son
demasiado listas. Nuestros almacenes de memoria finita caen en algún lugar entre esas dos.
La teoría de autómatas ofrece una gramática para los modelos que van desde simples
interruptores y reflejos, a través de complejas asociaciones condicionales, a los sistemas
adaptativos que modifican su software a medida que aprenden. El aumento de memoria que
esto requiere, es a veces interno y a veces externo, se puede encontrar en marcas,
recordatorios y en la conducta misma ("los gestos facilitan la producción de un discurso
fluido, al afectar la facilidad o dificultad de recuperación de palabras de la memoria léxica",
Krauss, 1998, p. 58). El contexto es a menudo más que una clave de memoria, constituye un
detallado contenido direccionable para el almacenamiento situado donde es necesario. Tal
vez, más a menudo de lo que pensamos, el medio es memoria.

La diferencia entre los modelos asociacionista y computacional se reduce al tipo de


autómatas con los que son isomorfos, y esto se correlaciona con la reducción, temprana
versus tardía, de la información para la acción. Ahora, el reto es identificar la clase y la
capacidad de los autómatas que son necesarias para describir las capacidades de una
especie, y la arquitectura de las asociaciones dentro de estos autómatas que sea suficiente
para describir el comportamiento de los individuos, a medida que progresan a través del
condicionamiento.

Comprensión y Explicación
Muchas controversias científicas no se derivan tanto de las diferencias en la
comprensión de un fenómeno, como de las diferencias en la comprensión de la explicación:
se espera que un tipo de explicación haga el trabajo de otros tipos, y se objeta cuando otros
científicos hacen lo mismo. Centrarse exclusivamente en las causas finales sería tachado de
teleológico, centrarse en las causas materiales lo sería de reduccionista, en las causas
eficientes como mecanisista, y en las causas formales como "teorización". Pero el respeto a
la importancia de cada tipo de explicación, y la correcta ubicación de los constructos dentro
de dominios empíricos apropiados, resuelve muchas controversias. Por ejemplo, las
asociaciones son constructos formales que no se encuentran en el organismo sino en
nuestras tablas de probabilidad o computadoras, y sólo imitan las conexiones formadas en el
cerebro, y las contingencias encontradas en la interfaz de la conducta y el medio ambiente.
Las causas finales no son causas eficientes. Sólo un tipo de explicación ha avanzado cuando
se determinan las partes del cerebro que se activan durante el condicionamiento.
Proporcionar una explicación no reduce la necesidad de los otros tipos. Las causas
funcionales no son alternativas a las causas eficientes, si no que las completan.

El análisis formal requiere de un lenguaje, y los modelos deben ser un subconjunto


apropiado de ese lenguaje. El tema de la señal en el análisis formal de condicionamiento,
que no es la asociación frente a la computación, sino más bien las circunstancias de
reducción de información temprana versus tardía, y el papel del contexto (como clave de
recuperación y como memoria en si mismo). La teoría de autómatas proporciona un lenguaje
que puede soportar subconjuntos de mecanismos adecuados para modelar estos procesos,
desde la simple asociación hasta los repertorios humanos más complejos.

La comprensión es una bestia de cuatro patas, que avanza sólo con el progreso de
cada tipo de explicación, y se mueve con más gracia cuando esas explicaciones están
coordinadas. Es una actividad humana, y es en sí misma susceptible a los análisis de cuadro
partes de Aristóteles. En este artículo, me he centrado en el análisis formal de la explicación,
y en las explicaciones formales del condicionamiento. La comprensión será lograda conforme
las causas formales se coordinen con las explicaciones de la conducta materiales (estados
del cerebro), eficientes (contextos eficaces) y finales (evolutivas).

Lecturas recomendadas
Miller, R. R., Barnet, R. C., & Grahame, N. J. (1995). Assessment of the Rescorla-Wagner
Model. Psychological Bulletin, 117, 363–386.
Uttal, W. (1998). Toward a new behaviorism: The case against perceptual reductionism.
Mahwah, NJ: Erlbaum.
Wasserman, E. A. (1993). Comparative cognition: Toward a general understanding of
cognition in behavior. Psychological Science, 4, 156–161.
Wasserman, E. A., & Miller, R. R. (1997). What's elementary about associative learning?
Annual Review of Psychology, 48, 573–607.
Young, M. E. (1995). On the origin of personal causal theories. Psychonomic Bulletin &
Review, 2, 83–104.

Referencias
Allan, L. G. (1993). Human contingency judgments: Rule based or associative? Psychological
Bulletin, 114, 435–448.
Aristotle. (1929). The physics. (Vol. 1; P. H. Wick-steed &, F. M. Cornford, Trans.) London:
Heinemann.
Blaisdell, A., Bristol, A., Gunther, L., & Miller, R. (1998). Overshadowing and latent inhibition
counteract each other: Support for the comparator hypothesis. Journal of Experimental
Psychology: Animal Behavior Processes, 24, 335–351.
Chomsky, N. (1963). On certain formal properties of grammars. In: Luce R. D., Bush R. R., &
Galanter E. (Eds.), Readings in mathematical psychology (Vol. 2, pp. 125–155). New
York: Wiley. Original work published 1959.
Hall, G. (1991). Perceptual and associative learning. Oxford, England: Clarendon Press.
Hocutt, M. (1974). Aristotle's four becauses. Philosophy, 49, 385–399.
Hopkins, D., & Moss, B. (1976). Automata. NewYork: North Holland.
Jachmann, F., & van den Assem, J. (1996). A causal ethological analysis of the courtship
behavior of an insect (the parasitic wasp Nasonia vitripennis, hym., pteromalidae)
Behaviour, 133, 1051–1075.
Killeen, P. R. (1989). Behavior as a trajectory through a field of attractors. In: Brink J. R., &
Haden C. R. (Eds.), The computer and the brain: Perspectives on human and artificial
intelligence (pp. 53–82). Amsterdam: Elsevier.
Krauss, R. (1998). Why do we gesture when we speak? Current Directions in Psychological
Science, 7, 54–60.
Miller, R. R., & Matute, H. (1996). Animal analogues of causal judgment. In: Shanks D. R.,
Medin, D. L, & Holyoak K. J. (Eds.), Causal learning (pp. 133–166). San Diego:
Academic Press.
12. Minsky, M. (1967). Computation: Finite and infinite machines. Englewood Cliffs, NJ:
Prentice-Hall.
Santayana, G. (1957). Dialogues in limbo. Ann Arbor: University of Michigan Press.
Skinner, B. F. (1950). Are theories of learning necessary? Psychological Review, 57, 193–
216.