Está en la página 1de 4

Neurociencia cognitiva

Mente predictiva y cerebro bayesiano.

Luis Alonso

THE PREDICTIVE MIND

Por Jacob Hohwy. Oxford University Press, Oxford, 2013.

La percepción, dicta la neurociencia, viene esculpida por la atención. El carácter polifacético,


profundo y exuberante de nuestra percepción consciente se explica mediante el mecanismo de
minimización del error de predicción, según propone una tesis innovadora. Afirma esta que, de
ese procedimiento depurador de la información que el cerebro recibe del mundo exterior
presentada por los sentidos, se vale la mente para extraer inferencias. La identificación del
mecanismo supuso un cambio de paradigma en neurociencia cognitiva y, por ende, en
neurofilosofía. La mente se revelaría portadora de una relación frágil e indirecta con el entorno.
Aunque sintonizados con el mundo, nos encontramos también muy distanciados del mismo. La
nueva teoría que está abriéndose camino en neurociencia sostiene que existe en el cerebro un
mecanismo sutil de contrastación de hipótesis, en permanente actividad, para reducir al mínimo el
error de los estímulos sensoriales.

La mente y su capacidad de percibir el mundo van inextricablemente unidas. No solo importa qué
información extraemos, sino también de qué modo percibimos; es decir, interesa conocer la
mecánica de la percepción y la conjugación de los múltiples factores implicados, pues la
percepción confiere sentido al mundo observado y, lejos de ser mera pasividad, viene guiada por
la información procedente de los sentidos. La información sensorial que llega al cerebro no
conforma directamente la percepción, sino que es un proceso retroalimentado por el cerebro.
Nuestras expectativas modelan lo que percibimos y cómo integramos los aspectos percibidos del
mundo. Pero el mundo impone límites a nuestras expectativas.

CONTENIDOS RELACIONADOS

El cerebro bayesiano

En el marco de la nueva teoría, percepción, acción y atención convergen en una misma tarea. Las
tres deben equilibrarse entre sí para aproximarse correctamente al mundo. La unidad de la
percepción consciente, la naturaleza del yo y nuestro mundo mental personal se fundan en la
optimización de las predicciones sobre la información sensorial. Y de manera aún más radical, el
contenido de nuestros estados perceptivos no se apoyaría en lo que pensamos, sino en lo que
somos. Minimizamos el error entre las hipótesis generadas sobre la base de nuestro modelo del
mundo y la información sensorial. Habría un único tipo de mecanismo, reiterado a través del
cerebro, que lo gestionaría todo. El mecanismo utilizaría diversas herramientas estadísticas
estándar para minimizar el error y, al hacerlo así, da origen a la percepción, la acción y la atención.
En última instancia, pese a su presentación estadística, se trataría de un mecanismo neuronal.
Para describir y explicar el mecanismo de minimización del error de predicción, repetido una y otra
vez por el cerebro, se parte de una concepción estadística, bayesiana, de la percepción. Nos vale
también la analogía de minimización de la energía libre.

Aunque la maquinaria formal que rodea la exposición de la minimización del error de predicción es
de desarrollo reciente, las ideas nucleares hunden sus raíces en el pasado. Fueron anticipadas por
Ibn -al-Haytham (nuestro Alhazen), quien, en el siglo xi, avanzó la idea de que muchas propiedades
son percibidas por juicio e inferencia. Kant proponía en 1781 que la percepción se va concretando
a medida que el cerebro utiliza sus concepciones previas sobre el mundo (categorías y formas de
la intuición del espacio y el tiempo) para organizar los estímulos sensoriales que se nos ofrecen. La
relación entre pensamiento (o inferencia) e información múltiple aportada por los sentidos se
recoge en la sentencia kantiana que declara que los pensamientos sin contenido son vacíos y,
ciegas, las intuiciones sin concepto. La intelección no puede intuir nada, ni los sentidos pueden
pensar nada. Solo a través de esa unión surge el pensamiento.

Pero fue Hermann von Helmholtz quien presentó al cerebro constituido en cribador de hipótesis,
en reacción a la tesis kantiana. Investigó el tránsito de las sensaciones del sistema nervioso al
mundo real y dedujo que nos guiamos por las respuestas que la naturaleza despliega cuando la
interrogamos, sirviéndonos de inferencias perceptivas inconscientes y fundadas en un
conocimiento previo. En esa clase de inferencia se ancla la percepción. Las ideas de Helmholtz
fueron retomadas en distintos momentos a lo largo del siglo xx. Así, por ejemplo, Jerry Fodor y
Zenon Pylyshyn aceptaron básicamente la noción helmholtziana de inferencia inconsciente de bajo
nivel.

Otra corriente vinculada con la historia de la minimización del error de predicción atiende a la
causalidad y la inferencia inductiva. Para David Hume, una causa era un objeto seguido de otro y
todos los objetos similares al primero eran seguidos de objetos similares al segundo. O con otras
palabras, donde no se hubiera visto el primer objeto, tampoco existiría el segundo. Para Hume, la
causalidad se refiere a la extracción de datos estadísticos y a la imagen que nos formamos cuando
se interviene en el mundo de una manera controlada. Esa definición dual de causa fue subrayada
por Ralph H. Lewis en su tratamiento contrafactual de la causalidad en términos de invarianza.
La confluencia de los avances en la noción de causa y la historia de la contras-tación de las
hipótesis propiciaron el desarrollo de la noción de minimización del error de predicción. En línea
con al-Haytham y Helmholtz, la teoría de la minimización ocupa el núcleo de la psicología y la
neurociencia. Constituye, además, la expresión de la forma en que el hombre infiere y se
autoorganiza. El cerebro es, en efecto, un mecanismo de inferencia, razón por la cual se presenta
la percepción en términos de causa y efecto. Pero no resulta fácil razonar a partir solo de los
efectos conocidos para remontarse hasta sus causas escondidas, ya que una misma causa puede
dar origen a muy diferentes efectos en nuestros órganos de los sentidos, y causas distintas,
producir un mismo efecto. Ello hace difícil la labor del cerebro de acotar el efecto (información
sensorial recibida) que depende de una causa determinada (objeto del mundo real). Si la única
restricción sobre la inferencia causal del cerebro consistiera en la información sensorial inmediata,
entonces, desde la perspectiva del cerebro, cualquier inferencia causal sería tan buena como la
otra.

En matemática, se llama inferencia el proceso que conduce a una conclusión sobre una población
basándose en una muestra. También se llama inferencia la conclusión alcanzada sobre una
población mediante el proceso aludido. La inferencia estadística se ocupa de los métodos que
pueden utilizarse y la teoría que los explica. La inferencia es una noción normativa que permite
entender las regularidades observadas. La teoría de la probabilidad, o epistemología bayesiana, es
también normativa porque nos informa sobre lo que hemos de inferir, dadas las pruebas
disponibles.

Imaginemos una situación muy sencilla. Nos encontramos en una casa sin ventanas, ni libros, ni
Internet. Oímos un sonido y queremos saber quién lo ha producido. Nosotros somos el cerebro, la
casa es el cráneo y el sonido es la información sensorial. Queremos averiguar la causa del sonido y
empezamos por enumerar una lista de objetos posibles: un pájaro carpintero que golpeara la
pared, una rama caída, la música de un vecino, una lluvia de meteoritos, y así un largo etcétera.
Cada una de las posibilidades de ese listado constituye una hipótesis. No todas las hipótesis tienen
sentido una vez conocido el efecto: no admitiremos que quien golpea la pared sea un matemático
que se entretiene con la conjetura de Goldbach. Es decir, se impone valorar el nexo entre la
hipótesis y el efecto. Lo que nos lleva a fijarnos en la verosimilitud de que la hipótesis se adecúe al
efecto observado. Tal verosimilitud designa la probabilidad de que las causas descritas en la
hipótesis causen los efectos observados. La verosimilitud se basa en las regularidades conocidas
(por ejemplo, los efectos causados por un pájaro carpintero). A partir de las regularidades causales
observadas podremos jerarquizar las hipótesis de acuerdo con su verosimilitud.

Las predicciones se comparan con la señal sensorial real, o con la inferencia del nivel inferior; la
diferencia, el error de predicción, se emplea como señal de retroalimentación para los modelos
internos que generan las predicciones. No existe solo interacción entre causas escondidas en la
producción de datos sensoriales, sino también una interacción entre estados diferentes del mundo
y la incertidumbre o ruido asociado con pruebas sensoriales generadas por tales estados. El
mecanismo de minimización del error de predicción habrá de tomar en consideración la
dependencia del contexto y la incertidumbre que rodea dicho contexto.

En el caso del sonido percibido, contamos con dos herramientas para averiguar su causa: la
verosimilitud (probabilidad del efecto observado consideradas las hipótesis particulares hasta
ahora) y la probabilidad anterior de la hipótesis (estimación subjetiva del grado de probabilidad de
la hipótesis independientemente de los efectos observados en ese momento). Verosimilitud y
probabilidad anterior son los pilares de la regla de Bayes, arquetipo de la racionalidad.

También podría gustarte