Está en la página 1de 18

ERRAR ES HUMANO

https://www.williamjames.com/Science/ERR.htm

Jeffrey Mishlove, PhD

Jeffrey Mishlove, PhD, es autor de "The Roots of Consciousness", "Psi Development Systems" y
"The PK Man"; posee un doctorado en Parapsicología de la Universidad de California, Berkeley
y es ganador del Gran Premio del concurso de ensayos del Instituto Bigelow sobre la
supervivencia postmortem de la conciencia humana

Comprender los mecanismos por los cuales los humanos cometen errores de juicio
repetidamente ha sido objeto de estudio psicológico durante muchas décadas. ¿Por qué
las personas discrepan en sus creencias a pesar de tener acceso a la misma evidencia, y
por qué la evidencia rara vez conduce a un cambio de creencias? La investigación
psicológica ha examinado numerosos riesgos al evaluar la evidencia mediante juicios
subjetivos. Estos riesgos incluyen sesgos en el procesamiento de la información o
cognitivos, mecanismos emocionales de autoprotección y sesgos sociales.

Todos estos factores desempeñan un papel importante en ambos lados del debate entre
defensores y opositores de los fenómenos psíquicos. Ningún análisis de las
controversias en torno a la naturaleza del espíritu humano y su propensión a la grandeza
estaría completo sin una mirada realista a la propensión humana por el disparate.

La Psicología de los Sesgos Cognitivos

La investigación de los sesgos cognitivos en el juicio ha surgido del estudio de ilusiones


perceptivas. Nuestra comprensión del sistema visual humano, por ejemplo, proviene en
gran parte del estudio de situaciones en las que nuestro ojo y cerebro son "engañados" al
ver algo que no está ahí. En la ilusión visual de Müller-Lyer, por ejemplo, la presencia
de puntas de flecha opuestas en dos líneas del mismo largo hace que una parezca más
larga que la otra."

Por lo general, no nos damos cuenta de lo subjetiva que es esta construcción. En


cambio, sentimos como si estuviéramos viendo una copia del mundo tal como realmente
existe. Los juicios cognitivos tienen una sensación similar de "verdad": es difícil creer
que nuestra experiencia personal no captura perfectamente el mundo objetivo.

Con una regla, podemos comprobar que las dos líneas tienen la misma longitud, y
creemos en la evidencia formal en lugar de la de nuestro sistema visual falible. Con los
sesgos cognitivos, el análogo de la regla no está claro. ¿Contra qué deberíamos validar
nuestro sistema de juicio?

En la década de 1950, los investigadores comenzaron a comparar qué tan bien se


comparaban los juicios de expertos con simples reglas estadísticas en la predicción de
pronósticos de salud mental y otros resultados personales. Por lo general, dichos
estudios implicaban proporcionar varios datos, como puntajes de pruebas de
personalidad y aptitud, sobre pacientes o solicitantes de empleo a un panel de expertos.
Estos jueces expertos luego registraban su opinión sobre el probable resultado en cada
caso.

Las predicciones estadísticas se obtenían utilizando un procedimiento de "mejor ajuste"


que combinaba matemáticamente los datos e determinaba un puntaje límite que
separaría la "salud" de la "patología" o el "éxito" del "fracaso" laboral.

Las predicciones de los jueces humanos y los modelos estadísticos luego se compararon
con los resultados reales. Los jueces expertos en estos estudios estaban seguros de que
los modelos estadísticos no podían capturar las sutiles estrategias que habían
desarrollado durante años de experiencia personal. Pero las predicciones actuariales
fueron superiores a las intuiciones de los expertos. Muchos estudios indicaron "que la
cantidad de formación profesional y experiencia del juez no se relaciona con esta
precisión en el juicio".

Los modelos estadísticos que superaron en poder computacional y predictivo a los


jueces humanos no eran tan sofisticados. De hecho, los modelos más simples fueron los
más efectivos. Por ejemplo, cuando los psicólogos clínicos intentaron diagnosticar
psicóticos en función de su perfil del MMPI, simplemente sumar cuatro escalas (la
elección del criterio de "mejor ajuste") llevó a una mejor predicción que el juicio
experto del mejor de los 29 clínicos.

Un pequeño revuelo en psicología ocurrió como reacción a la monografía de 1955 del


psicólogo de Minnesota, Paul Meehl, que revisó estudios que demostraban que los
métodos de predicción basados en las simples tabulaciones estadísticas eran casi
siempre superiores a la intuición clínica experta en el diagnóstico de daño cerebral, la
categorización de pacientes psiquiátricos, la predicción de reincidencia criminal y el
éxito universitario. Irónicamente, los clínicos involucrados típicamente tenían mucha
confianza en su juicio intuitivo.

Uno de los errores básicos típicos de los juicios intuitivos se llama sesgo de
confirmación. Si sostienes una teoría con fuerza y confianza, entonces tu búsqueda de
evidencia estará dominada por esos eventos llamativos que confirman tu teoría. Las
personas que intentan resolver acertijos lógicos, por ejemplo, se embarcan en probar su
hipótesis buscando ejemplos que la confirmen, cuando serían más eficientes si buscaran
ejemplos que la refuten. Parece más natural buscar ejemplos que "encajen" con la teoría
que se está probando que buscar elementos que refuten la teoría. En cuanto al fenómeno
psíquico, este sesgo explicaría por qué los "escépticos" siempre parecen encontrar
razones para dudar de presuntos casos de telepatía o clarividencia, mientras que los
"creyentes" continuamente encuentran nuevas instancias para respaldar sus creencias
existentes.
Se ha demostrado que los psicólogos clínicos mantienen teorías de diagnóstico inválidas
basadas en estereotipos culturales. Esto ocurrió precisamente porque los clínicos
estaban demasiado impresionados por las combinaciones "exitosas" de un síntoma y un
resultado diagnóstico, y no notaron los numerosos casos en los que la relación no se
sostenía. En un estudio, los clínicos se sorprendieron por la cantidad de casos en los que
los pacientes paranoicos dibujaron ojos que miraban fijamente, pero no consideraron
relevante la cantidad de casos en los que los pacientes no paranoicos también dibujaron
ojos que miraban fijamente.

Las personas en casi todas las profesiones (excepto los apostadores de carreras de
caballos y los meteorólogos, que reciben comentarios objetivos repetidos) tienen mucha
más confianza en sus juicios y predicciones de la que su desempeño justificaría. Una de
las pocas maneras de mitigar esta sobreconfianza es pedir explícitamente a las personas
que enumeren las formas en que podrían estar equivocadas, ya que, a menos que se les
estimule, solo considerarán la evidencia confirmatoria.

Un dramático ejemplo del sesgo de confirmación es el problema de la "profecía


autocumplida". Esta frase, ahora popular, se refiere a la manera en que nuestras propias
expectativas y comportamiento pueden influir en los eventos. Es especialmente
conocido el estudio de los psicólogos de Harvard Rosenthal y Jacobson titulado
"Pigmalión en el aula". A algunos maestros se les dio información falsa sobre el
rendimiento esperado de algunos de sus estudiantes. Basándose en las expectativas
creadas por esta información, los maestros trataron a los "rezagados" seleccionados al
azar de manera diferente, lo que hizo que estos estudiantes obtuvieran puntuaciones
especialmente altas en pruebas de rendimiento posteriores. Situaciones similares pueden
ocurrir entre empleadores y empleados, entre médicos y sus pacientes, y entre
psicoterapeutas y sus clientes.

En la investigación científica, el efecto de la expectativa sugiere que las hipótesis del


experimentador pueden actuar como determinantes no intencionados de los resultados
experimentales. En otras palabras, los experimentadores pueden obtener los resultados
previstos porque esperaban que sus sujetos se comportaran como lo hicieron, incluso si
la teoría que estaban probando tenía poca o ninguna validez.

Aunque inicialmente estuvo lleno de controversia, la existencia de efectos de


expectativa interpersonal ya no está seriamente en duda. En 1978, Rosenthal y Rubin
informaron los resultados de un metanálisis de 345 estudios sobre efectos de
expectativa. Este metanálisis demostró la importancia de los efectos de expectativa en
una amplia variedad de dominios de investigación, incluidos experimentos de tiempo de
reacción, pruebas de manchas de tinta, aprendizaje animal, entrevistas de laboratorio,
juicios psicofísicos, aprendizaje y habilidades, percepción de personas y situaciones
cotidianas o estudios de campo.

Los efectos de expectativa del experimentador son una fuente potencial de problemas
para cualquier área de investigación, pero pueden ser especialmente influyentes en áreas
de investigación más recientes que carecen de hallazgos bien establecidos. Esto se debe
a que los primeros estudios sobre una determinada técnica de tratamiento suelen ser
realizados por los creadores o defensores de la técnica, quienes tienden a tener
expectativas muy positivas sobre la eficacia de la técnica. No es hasta más tarde que la
técnica puede ser investigada por investigadores más imparciales o escépticos, que
pueden ser menos propensos a los efectos de la expectativa que favorecen la técnica.

Las personas que intentan determinar si otros son extrovertidos hacen preguntas sobre
cualidades extrovertidas y descubren que la mayoría de las personas son, de hecho,
extrovertidas. Las personas que intentan determinar si otros son tímidos preguntan sobre
cualidades introvertidas y descubren que la mayoría de las personas son introvertidas.
Los hombres que creen que están teniendo una conversación telefónica con una mujer
atractiva hablan de manera especialmente amistosa. Cuando hacen esto, su compañera
mujer no vista responde de manera amistosa y "atractiva".

Las personas con creencias fuertes preexistentes logran encontrar alguna confirmación
en todas las presentaciones. La asimilación sesgada de evidencia relevante para nuestras
creencias es un fenómeno que parece ser cierto en los demás, pero difícil de percibir en
nosotros mismos. Considera un estudio clásico de psicología social sobre las
percepciones de los estudiantes sobre el juego anual de fútbol Princeton-Dartmouth. Los
estudiantes de las escuelas opuestas vieron una película del áspero juego de fútbol de
1951 y se les pidió que registraran cuidadosamente todas las infracciones. Los dos
grupos terminaron con tarjetas de puntuación diferentes basadas en el mismo juego. Por
supuesto, vemos esto en los entusiastas del deporte y los partidarios políticos todos los
días. Sin embargo, los estudiantes utilizaron técnicas objetivas de registro de prueba por
prueba y aún así vieron diferentes infracciones si estaban en diferentes lados.

Los psicólogos sociales de la Universidad de Stanford presentaron a partidarios y


opositores de la pena de muerte con algunos documentos que supuestamente mostraban
que la disuasión funcionaba y otros hallazgos que mostraban que la pena de muerte no
tenía efecto disuasorio. Razonaron que el sentido común debería llevar a una
disminución en la certeza de las creencias de ambos grupos partidarios. Pero si los
partidarios aceptan la evidencia de apoyo tal como es, examinan críticamente la
evidencia contradictoria y interpretan la evidencia ambigua de acuerdo con sus teorías,
ambos lados podrían fortalecer realmente sus creencias.

La respuesta fue clara en la evaluación de nuestros sujetos sobre los estudios pertinentes
de disuasión. Ambos grupos creían que la metodología que había producido evidencia
de apoyo a su punto de vista había sido claramente superior, tanto en su relevancia
como en su libertad de artefactos, a la metodología que había producido evidencia no
compatible. De hecho, sin embargo, los sujetos estaban evaluando exactamente los
mismos diseños y procedimientos, con solo los resultados pretendidos variados... Para
ser más directos, los dos grupos opuestos habían interpretado cada uno los "resultados"
en términos de evidencia empírica como 'un buen estudio que respalda mi punto de vista
y un mal estudio que respalda el punto de vista opuesto', un estado de cosas que
aparentemente justificaba el mantenimiento e incluso el fortalecimiento de su punto de
vista particular.

Este resultado podría conducir a un sentimiento de pesimismo para los defensores de la


ciencia que piensan que la verdad puede llegar a través de la recolección objetiva y
científica de datos, y mediante una base de investigación sólida y replicable. Dar la
misma evidencia mixta a dos grupos opuestos puede alejar más a los partidarios.
Los estudios de juegos competitivos revelan que las personas que tienen la creencia de
que el mundo es un lugar hostil hacen que otros actúen de manera que mantengan esas
mismas creencias. Los competidores agresivos en estos estudios creían que tenían que
"ganarle" a sus oponentes antes de que sus oponentes los "vencieran". Efectivamente,
sus oponentes respondieron a sus movimientos agresivos con contraataques agresivos,
"demostrando" la teoría competitiva de la naturaleza humana.

Los sesgos pueden crearse en un período muy breve de tiempo. Una persona que
comienza bien en un concurso es considerada más inteligente que alguien que obtiene el
mismo número total de respuestas correctas pero comienza mal.

¿Por qué los políticos de todos los lados de varios problemas creen que los medios son
hostiles a su lado? A primera vista, este fenómeno parece contradecir los sesgos
asimilativos de elegir selectivamente la evidencia de apoyo. Ross y sus colegas
especularon que el mismo proceso de construcción sesgada está en juego. Los
partidarios tienen una construcción tan rígida de la verdad que cuando se presentan
evaluaciones "imparciales", parecen enfatizar la evidencia cuestionable a favor de la
oposición.

El apoyo a estas especulaciones provino de estudios sobre la cobertura de noticias tanto


de las elecciones presidenciales de 1980 y 1984 como de la "Masacre de Beirut" de
1982. Estos temas fueron elegidos porque había partidarios en ambos lados disponibles
como participantes en la investigación. Las partes opuestas vieron clips de cobertura de
noticias televisivas que los espectadores objetivos tendían a calificar como
relativamente imparciales. No solo estaban en desacuerdo sobre la validez de los hechos
presentados y sobre las creencias probables de los productores del programa, sino que
actuaban como si vieran clips de noticias diferentes:

"Los espectadores de las mismas grabaciones de 30 minutos informaron que el otro lado
había disfrutado de una mayor proporción de hechos y referencias favorables, y una
menor proporción de hechos negativos, que su propio lado".

Otro sesgo del juicio intuitivo es la estrategia de atajo (o "heurística") que define la
alternativa más probable como aquella que más fácilmente viene a la mente. Esto se
llama heurística de disponibilidad. En muchos casos, hay una correlación entre las cosas
más numerosas en el mundo y aquellas que vienen más fácilmente a la mente. Pero
algunas cosas son recordadas fácilmente por motivos relacionados con lo vívido en
lugar de la frecuencia real.

Un ejemplo de esto es el sesgo introducido por la inclinación de la televisión, la radio y


las noticias impresas a informar sobre eventos emocionantes y extraños. La gente piensa
que más muertes son causadas por tornados que por asma, aunque el asma mata
aproximadamente nueve veces más personas que los tornados. La gente piensa que los
accidentes matan a más personas que los derrames cerebrales. No lo hacen.

Un problema similar surge con la especificidad: una situación parece más probable a
medida que se vuelve más detallada, sin embargo, cada detalle adicional la hace
estadísticamente más improbable. A un grupo de expertos en política internacional se le
pidió que estimara la probabilidad de que la URSS invadiera Polonia y que los EE. UU.
rompieran relaciones diplomáticas con la Unión Soviética en el próximo año. En
promedio, dieron a esta combinación de eventos una probabilidad del 4%. Se pidió a
otro grupo de expertos en política que estimaran la probabilidad de que los EE. UU.
rompieran relaciones diplomáticas con la Unión Soviética en el próximo año. Esto se
consideró que tenía una probabilidad del 1%. Cuando los expertos en política tenían una
combinación de eventos que los llevaba a crear un escenario causal plausible, juzgaron
que una combinación de eventos era más probable que uno de sus componentes.

Otro error típico de la intuición es nuestra tendencia a generalizar en exceso y


estereotipar. Las personas tienden a hacer inferencias fuertes sobre grupos de personas
basadas en unos pocos ejemplos sin considerar mucho si estos ejemplos fueron elegidos
al azar o si son representativos del grupo más grande. En una serie de experimentos
particularmente inquietantes, las personas estaban dispuestas a hacer inferencias fuertes
sobre los guardias de prisión y sobre los beneficiarios de la asistencia social, sobre la
base de un estudio de caso, incluso cuando se les advirtió explícitamente que el estudio
de caso era atípico.

En el centro de algunos posibles malentendidos intuitivos sobre eventos psíquicos


aparentes hay una confusión generalizada sobre la aleatoriedad. Las personas creen que
las "leyes" del azar son más estrictas en instancias específicas de lo que realmente son.
Los procesos que ocurren solo por casualidad pueden parecer extremadamente
habituales. Por ejemplo, la ruleta en Monte Carlo aterrizó en "negro" veintiocho veces
seguidas. Si bien las probabilidades de este evento, tomado por sí mismo, parecerían
extremadamente improbables, y casi imposibles de predecir, en el panorama general de
los juegos de ruleta, tales eventos raros son inevitables.

Otra falacia es asumir que, cuando un segmento de una secuencia aleatoria se ha


desviado de la proporción esperada, se espera un sesgo correctivo en la otra dirección.
En la ruleta, "rojo" no es más probable que se haya seleccionado después de veintiocho
negros seguidos que después de un negro. Suponer lo contrario se ha llamado la falacia
del apostador.

Cuando las personas ven lo que parecen ser patrones en una secuencia aleatoria de
eventos, buscan causas más significativas que la casualidad sola. Se sabe que los
apostadores y los atletas profesionales se vuelven supersticiosos y atribuyen la buena o
mala suerte a alguna parte de su comportamiento o ropa.

Incluso animales de menor nivel, como las palomas, han demostrado en el laboratorio
desarrollar su propia forma de comportamiento supersticioso. Cuando la comida se
entrega según un horario aleatorio, las palomas al principio intentan controlar la entrega
picoteando el dispensador de comida. Las palomas pueden estar en medio de cualquier
acción en el momento en que llega la comida, ya que no hay relación entre su acción y
la comida. Sin embargo, continuarán repitiendo la acción que ocurrió durante la hora de
la alimentación, y eventualmente sus esfuerzos serán "recompensados" con más comida.
Esto refuerza el comportamiento "supersticioso" y se mantiene porque parece ser
exitoso.

Un ejemplo de nuestra tendencia humana a descubrir patrones en datos aleatorios es el


fenómeno de la "mano caliente" en el baloncesto profesional. El fenómeno de la mano
caliente es la percepción convincente, aunque ilusoria, mantenida tanto por los fanáticos
como por los jugadores de que algunos jugadores tienen "rachas calientes" de manera
que un tiro exitoso es probable que sea seguido por otro exitoso, mientras que un
fracaso es probable que sea seguido por otro fracaso. A los jugadores universitarios se
les pidió que hicieran apuestas prediciendo los resultados de su próximo tiro. Sus
apuestas mostraron una fuerte evidencia de creencia en la "mano caliente", pero su
desempeño no ofreció evidencia de su validez.

Los investigadores también examinaron los registros de tiros de los destacados


jugadores de la NBA y determinaron que las rachas calientes de tiros exitosos no se
apartaban de las predicciones estadísticas estándar basadas en la probabilidad general de
éxito para cada persona individualmente.

El error más serio y común en nuestra comprensión de la probabilidad es la


sobreinterpretación de la coincidencia. Para decidir si un evento o una colección de
eventos es "poco probable", debemos de alguna manera calcular un espacio muestral,
una lista de todas las demás formas en que la ocasión podría haber resultado. Luego
debemos decidir qué resultados son comparables.

Por ejemplo, si tenemos un frasco con 999 bolas negras y una bola amarilla, el espacio
muestral total está compuesto por 1000 bolas. La probabilidad es de una entre mil de
que podamos elegir la bola amarilla del frasco en un intento, siempre que definamos de
antemano que este es nuestro objetivo. En la vida real, generalmente no especificamos
de antemano. Si metemos la mano en el frasco y sacamos la bola amarilla, es posible
que estemos demasiado impresionados por la improbabilidad de ese acto. Pero sin
definir un éxito, solo tenemos un conjunto de eventos comparables. Cada bola es
igualmente improbable o igualmente probable. Cualquier bola negra en particular habría
sido tan improbable como la amarilla.

Antes de atribuir eventos inusuales y sorprendentes a la sincronicidad o la clarividencia,


sería prudente considerar las muchas formas sorprendentes en que los eventos pueden
intersectarse dentro del espacio muestral de nuestras actividades. Parece más un milagro
que un evento casual cuando encontramos a un amigo familiar en una esquina de una
ciudad distante. Nunca habríamos predicho esto de antemano. La probabilidad de esta
intersección de eventos elementales, estar en otra ciudad, en una determinada calle y
encontrarse con esta persona conocida, es realmente pequeña. Pero la intersección de
una unión de eventos elementales, estar en alguna otra ciudad, encontrarse con algún
amigo, no es tan improbable.

En la mayoría de los casos espontáneos de habilidades psíquicas aparentes, como


sueños precognitivos de desastres o apariciones en momentos de crisis seguidos de la
muerte de un familiar, no hay manera de determinar la probabilidad de que el evento
ocurra simplemente por casualidad. Por lo tanto, los casos espontáneos, como los
reportados en la Sección II, no pueden ser prueba ni de la existencia ni de la no
existencia de eventos psíquicos. Aun así, todas las personas desarrollan juicios
intuitivos sobre la naturaleza de la realidad basados en la experiencia personal.

La Ilusión de la Autoconciencia
Una fuente de exceso de confianza en nuestros propios juicios es la creencia de que
siempre podemos buscar en nuestras mentes la evidencia y el razonamiento en los que
se basan esos juicios. A veces creemos erróneamente que sabemos si estamos sesgados
y emocionalmente involucrados o si estamos evaluando objetivamente. Estudios
psicológicos indican que esta sensación convincente de autoconciencia con respecto a
nuestros procesos de decisión está exagerada. Los psicólogos han encontrado
sorprendentemente fácil manipular preferencias y elecciones sin que el actor sea
consciente.

La teoría de la percepción de uno mismo se basa en la evidencia de que las personas no


siempre tienen acceso privilegiado a sus propias motivaciones o procesos de decisión de
bajo nivel. En cambio, esta teoría afirma que las personas infieren su motivación
observando su propio comportamiento. Durante el proceso de venta de un producto, una
persona observa sus argumentos sobre ese producto y, a menos que el vendedor esté
contento de concluir que está motivado únicamente por el dinero, probablemente
concluirá que tiene muy buenas razones para creer en la calidad del producto.

En una serie de estudios conductuales, los psicólogos manipularon varias dimensiones


en un intento de cambiar las preferencias de sus sujetos. Algunas manipulaciones, como
el orden de presentación, la sugerencia verbal, la "calidez" de una persona estímulo,
afectaron mediblemente los juicios de los sujetos; otras, como ciertas distracciones, las
garantías sobre la seguridad, no lo hicieron. Pero los participantes no pudieron
determinar introspectivamente qué influencias los afectaron; en cambio, crearon teorías
sobre por qué preferían los objetos que preferían. Estas explicaciones no fueron reflejos
precisos de las manipulaciones, sino que se basaron en suposiciones similares a las que
hacían los observadores externos.

En un estudio sobre la autoengaño, se les dijo a los sujetos que ciertos índices
incontrolables diagnosticaban si tenían un corazón que probablemente causaría
problemas más adelante en la vida. Luego se les dio la oportunidad de participar en una
falsa "tarea de diagnóstico" que supuestamente indicaba qué tipo de corazón tenían. La
tarea era dolorosa y desagradable. Los sujetos que creían que continuar con la tarea
indicaba un corazón sano informaron poco dolor y continuaron con la tarea durante
mucho tiempo. Aquellos que creían que la sensibilidad al dolor indicaba un corazón
sano se encontraron incapaces de soportar la incomodidad durante más de un minuto.

Algunos de los participantes eran conscientes de que "engañaron" en el diagnóstico.


Aquellos que no estaban al tanto de su propia motivación expresaron confianza en que
tenían el tipo de corazón saludable. Estas personas no estaban engañando al
investigador, se estaban engañando a sí mismas. Continuar con la tarea dolorosa no
pudo haber hecho que su corazón fuera de cierto tipo; pero para que creyeran en el
diagnóstico, tenían que permanecer inconscientes de que estaban controlando el
resultado.

Otra serie de estudios neurofisiológicos llegó a una conclusión similar. Estas


investigaciones utilizaron pacientes con hemisferios cerebrales separados, quienes
habían tenido su cuerpo calloso seccionado como tratamiento para la epilepsia, y por lo
tanto, habían perdido la conexión entre los hemisferios derecho e izquierdo. Se
mostraban ciertas formas o imágenes al hemisferio derecho, que podía interpretarlas
pero no comunicarse verbalmente. Los pacientes respondían a estas imágenes a través
de varios gestos y comportamientos. Sin embargo, cuando se les pedía que explicaran
estas reacciones, las explicaciones verbales eran pura conjetura. El paciente ofrecía
automáticamente explicaciones "creativas" sin sentir malestar cognitivo.

Como explica el investigador cerebral Michael Gazzaniga, "El sistema cognitivo del
hemisferio izquierdo necesitaba una teoría y suministraba instantáneamente una que
tenía sentido dado la información que tenía sobre esta tarea en particular".

La Ilusión de Control

Los seres humanos distorsionamos activamente nuestras percepciones para ver lo que
queremos ver. Los psicólogos consideran que es un comportamiento normal distorsionar
nuestras imágenes de la realidad para mejorar nuestra propia autoimagen. De hecho, la
incapacidad para crear tales distorsiones protectoras puede llevar a la depresión.

Las personas deprimidas parecen estar dispuestas a aceptar que no tienen control sobre
eventos aleatorios. Por otro lado, las personas normales mantienen una ilusión de
control sobre eventos casuales que tienen relevancia personal. Ejemplos anecdóticos en
los juegos de azar son fáciles de generar: los jugadores de dados creen que sus estilos de
lanzamiento son responsables de obtener números altos o bajos, y los casinos de Las
Vegas pueden culpar a sus crupieres por rachas de mala suerte. Las personas apostarán
más antes de lanzar los dados que después del lanzamiento pero antes de conocer el
resultado, aunque las probabilidades no hayan cambiado. Las personas creen que su
probabilidad de ganar un juego de azar es mayor cuando se introducen detalles
irrelevantes que les recuerdan a juegos de habilidad. Permitir a los jugadores elegir sus
propios números de lotería o introducir a un "pardillo" como competidor hizo que las
personas tuvieran más confianza en su probabilidad de ganar, sin cambiar la naturaleza
aleatoria del resultado.

Mientras que las personas deprimidas parecen ser menos vulnerables a esta ilusión, las
personas normales se verán a sí mismas "en control" siempre que puedan encontrar
alguna razón. En un estudio de telepatía mental, los investigadores encontraron que
cuando los sujetos podían elegir su propio símbolo oculto para enviar y cuando el
emisor y el receptor podían discutir su técnica comunicativa, creían que estaban
operando a una tasa de éxito tres veces mayor que la tasa de azar. Pero cuando se les
asignaba arbitrariamente un símbolo y no tenían una participación particular en la tarea,
creían que estaban operando aproximadamente a la tasa de azar. Los puntajes reales no
se desviaron del azar en todo el experimento.

Un experimento similar utilizó una tarea de psicoquinesis para probar esta hipótesis. Las
creencias de los sujetos en su capacidad para influir en el movimiento de un dado
variaron con la participación activa en la tarea y con la práctica en la tarea.

La Necesidad de Ser Coherente (consistent)

Una de las fuerzas más poderosas que mantienen nuestras creencias a pesar de los
ataques de otros, nuestro propio cuestionamiento y el desafío de nueva evidencia, es la
necesidad de mantener la consistencia cognitiva y evitar la disonancia cognitiva. La
psicología social moderna llegó a la conciencia pública con el desarrollo de la teoría de
la disonancia cognitiva de Leon Festinger, que explica actos aparentemente irracionales
en términos de una "necesidad" humana general de consistencia, en lugar de atribuirlos,
por ejemplo, a aberraciones de la personalidad.

Las personas se sienten desagradablemente activadas cuando dos cogniciones son


disonantes, es decir, cuando se contradicen entre sí, o cuando el comportamiento es
disonante con una creencia declarada. Para evitar esta activación desagradable, a
menudo las personas reaccionarán ante evidencia que contradiga sus creencias
fortaleciendo sus creencias y creando explicaciones más consonantes. Este impulso para
evitar la disonancia es especialmente fuerte cuando la creencia ha llevado a un
compromiso público. Esta teoría atrajo la imaginación del público tanto por sus
aplicaciones en la vida real como por la manera en que explicaba la irracionalidad
humana en términos simples y razonables.

En un dramático estudio de campo de este fenómeno, Festinger y dos colegas se unieron


a un movimiento mesiánico para examinar qué sucedería con el grupo cuando "el fin del
mundo" no ocurriera según lo programado. Una mujer en el Medio Oeste de EE. UU.,
que afirmaba estar en contacto con extraterrestres en platillos voladores, había reunido a
un grupo de seguidores que estaban convencidos de que un gran diluvio inundaría la
Tierra el 21 de diciembre de 1955. Estos seguidores hicieron grandes sacrificios para
estar listos para ser llevados por los platillos voladores ese día. También sufrieron burlas
públicas por sus creencias. Festinger hipotetizó que si el diluvio no ocurría y los
platillos voladores no llegaban, los miembros del grupo sentirían individual y
colectivamente una gran disonancia entre sus creencias y los eventos reales.

Él pensó que los miembros del grupo tenían tres alternativas: podían abandonar sus
creencias y restaurar la consonancia; podían negar la realidad de la evidencia de que el
diluvio no había llegado; o podían alterar el significado de la evidencia para que fuera
congruente con el resto de su sistema de creencias.

El compromiso público hizo improbable que los miembros del grupo negaran sus
creencias. Sin embargo, la existencia de un mundo que no había sido inundado era
demasiado evidente para ser reprimida o negada. Por lo tanto, la solución
psicológicamente "más fácil" fue hacer que la evidencia fuera congruente con las
creencias anteriores. No llegaron platillos voladores, ningún diluvio cubrió la Tierra,
pero unas pocas horas después de la hora señalada, el medium recibió un mensaje: la
Tierra había sido perdonada gracias a los esfuerzos del grupo fiel. La "desconfirmación"
se convirtió en una "confirmación".

Superar la incomodidad y considerar realmente la verdad de una idea amenazante no


necesariamente conduce a una disminución de nuestro compromiso. En un estudio de la
reacción de cristianos comprometidos a ataques académicos sobre la divinidad de
Cristo, los investigadores encontraron que solo aquellos que dieron algún crédito a la
evidencia se volvieron más religiosos como resultado de su exposición a los ataques.
Solo cuando pensaban en la evidencia se angustiaban lo suficiente como para resolver la
disonancia fortaleciendo sus creencias.

Una situación similar puede existir con respecto a los escépticos de la investigación psi.
Por ejemplo, un informe reciente (y altamente criticado) preparado para el Consejo de
Investigación Nacional de la Academia Nacional de Ciencias concluye que "El Comité
no encuentra justificación científica, a partir de investigaciones realizadas durante un
período de 130 años, para la existencia de fenómenos parapsicológicos". Que esta
conclusión refleje el fortalecimiento de creencias previamente sostenidas, ante evidencia
amenazante, se sugiere por muchas líneas de argumentación. La revisión del Comité,
por ejemplo, se limitó a cuatro áreas seleccionadas de investigación realizada en los
últimos veinte años. Además, uno de los documentos de fondo preparados para el
Comité por un eminente psicólogo de Harvard calificó el rigor metodológico de los
experimentos psi de manera muy favorable en comparación con otras áreas de
investigación psicológica.

El Efecto Durmiente

Todos hacemos evaluaciones de información y afirmaciones basadas en cómo


percibimos la credibilidad de la fuente. Un hallazgo común en la investigación sobre
persuasión y cambio de actitudes es que las personas cambian sus actitudes más
fácilmente en respuesta a una comunicación de una fuente imparcial y experta. Pero esta
misma tradición de investigación también reveló el efecto durmiente, en el cual la
información recibida se separa en la memoria de su fuente. Mientras que las
afirmaciones hechas por una fuente poco confiable son inmediatamente descartadas, la
información obtenida puede convertirse en parte del conocimiento general del receptor.
En la demostración clásica de este fenómeno, a los estudiantes se les dieron argumentos
persuasivos sobre el uso de la energía nuclear y se les dijo que la fuente de los
argumentos era Pravda o un científico nuclear estadounidense. Los únicos estudiantes
que mostraron un cambio inmediato de actitud fueron aquellos que leyeron las
afirmaciones atribuidas al científico, es decir, la fuente creíble y confiable. Sin embargo,
una medición retrasada mostró que Pravda tuvo tanto efecto en el cambio de actitud una
vez que se olvidó la fuente.

El Efecto de la Investigación Formal

Lo que deseo sostener, y aquí es donde la actitud científica se vuelve imperativa, es que
la percepción, sin ser probada y respaldada, es una garantía insuficiente de la verdad,
a pesar de que gran parte de la verdad más importante es sugerida por este medio.

Bertrand Russell, Mysticism and Logic

La investigación previamente citada demuestra los problemas que surgen cuando la


intuición reemplaza a la lógica como árbitro de la verdad. Los procesos intuitivos
basados en la experiencia personal a veces parecen estar diseñados tanto para proteger
nuestra autoestima y nuestras opiniones previas como para generar predicciones y
evaluaciones precisas.

La ciencia organizada puede considerarse como una extensión de las formas en que los
humanos aprenden naturalmente sobre el mundo, con procedimientos y métodos
adicionales diseñados para proteger contra los efectos sesgadores de teorías previas,
evidencia relevante, conjuntos de evidencia convincentes y otros obstáculos naturales
que afectan a todos los humanos. El proceso de depender estrictamente de la experiencia
personal a menudo conduce a ciertas violaciones de las protecciones contra errores que
la ciencia ofrece.

Para predecir y controlar su entorno, las personas generan hipótesis sobre qué eventos
van juntos y luego recopilan evidencia para probar estas hipótesis. Si la evidencia
parece respaldar la creencia actual, se retiene la hipótesis de trabajo; de lo contrario, se
rechaza.

La ciencia agrega la medición cuantitativa a este proceso. Los procedimientos y las


mediciones pueden registrarse explícitamente y la fuerza de la evidencia para diferentes
hipótesis puede contabilizarse objetivamente. Una diferencia clave entre los métodos
intuitivos y científicos es que las mediciones y análisis de las investigaciones científicas
están disponibles públicamente para crítica y revisión, mientras que la prueba de
hipótesis intuitiva se lleva a cabo dentro de la mente de una sola persona.
¿Cuándo podemos confiar en el folklore, la filosofía, la tradición espiritual o la
experiencia personal sin sesgos? Estos ámbitos son nuestra única guía en muchos
aspectos de la vida, pero nunca pueden ser decisivos frente a la evidencia cuantitativa
objetiva. El examen informal de teorías desarrolladas a través de la experiencia personal
o la exposición a la tradición está sujeto a fallas tanto en la recopilación como en el
análisis de los datos. No podemos estar "ciegos" a nuestras teorías al recopilar los datos,
y siempre sabemos si cada punto de datos recopilado respalda o debilita la evidencia de
una teoría. Sin una consideración cuidadosa del diseño de la investigación, las personas
inevitablemente tienden a recopilar muestras de datos sesgadas a favor de las teorías que
desean confirmar.

El autoconocimiento intuitivo del tipo necesario para una amplia variedad de funciones
mentales superiores requiere un respeto saludable por nuestros sesgos naturales de
atención y memoria. Solo si somos conscientes de estos procesos sesgados a medida que
ocurren, podemos comenzar a saber cuándo confiar en nuestros juicios intuitivos.

Si bien los científicos y los métodos científicos son susceptibles a errores de juicio, una
buena investigación está diseñada para minimizar el impacto de estos problemas. Los
métodos de investigación formales no son la única ni necesariamente la mejor manera
de aprender sobre el verdadero estado de la naturaleza. Pero la buena investigación es la
única forma de garantizar que los fenómenos reales desplacen las ilusiones.

La historia del "descubrimiento" de los rayos N en Francia en 1903 revela cómo la


física, la "ciencia más dura", podría desviarse por la evaluación subjetiva. Se suponía
que esta "nueva" forma de rayos X podía ser detectada por el ojo humano en una
habitación casi oscura. Los mejores científicos físicos de Francia aceptaron este avance.
Dentro de un año de su "descubrimiento" original por el profesor R. Blondlot, la
Academia de Ciencias de Francia había publicado cerca de 100 artículos sobre el tema.

Sin embargo, en 1904, el físico estadounidense Robert Wood visitó el laboratorio de


Blondlot y descubrió, al cambiar secretamente una serie de condiciones experimentales,
que Blondlot seguía viendo los rayos N bajo circunstancias que Blondlot afirmaba que
impedirían su ocurrencia. Cuando Wood publicó sus hallazgos, quedó claro que los
científicos franceses habían creído tan firmemente en los rayos N que virtualmente
alucinaron su existencia. La buena investigación puede desconfirmar teorías, el juicio
subjetivo rara vez lo hace.

Un aspecto esencial de la investigación científica que suele descuidarse cuando nos


basamos en la experiencia personal es la necesidad de control experimental. El control
se utiliza en un experimento para asegurar que lo único que difiere entre las condiciones
"presentes" y "ausentes" es la variable particular de relevancia para nuestra hipótesis.

La necesidad de dicho control se ilustra bien en los problemas de experimentación


médica. Cuando aparecen nuevos tipos de cirugía, a veces los médicos tienen buenas
razones humanísticas para violar las condiciones científicas al proporcionar tratamiento
a pacientes experimentales. En cambio, pueden ofrecer las nuevas cirugías a los
pacientes que parecerían beneficiarse más. Los resultados de tales pruebas a menudo
parecen impresionantes en comparación con las tasas de supervivencia de aquellos que
no reciben la cirugía. Sin embargo, aquellos que reciben la cirugía comienzan de
manera diferente en variables de salud que aquellos que no la reciben. Saben que están
recibiendo un tratamiento especial y son atendidos por personal que también lo
entiende. Cuando estos ensayos de campo no controlados se comparan con ensayos
experimentales aleatorizados, resulta que alrededor del 50% de las innovaciones
quirúrgicas no ayudaron o realmente causaron daño.

La investigación médica también demuestra la necesidad de controles con placebo.


Cuando se les da a los pacientes una píldora de ningún valor médico y se les dice que
están participando en una investigación sobre un nuevo medicamento (pero no se les
dice que están en el "grupo de control"), una proporción sustancial mejora simplemente
debido a su creencia en la posible eficacia del medicamento. Por lo tanto, todos los
nuevos medicamentos o tratamientos deben compararse con un placebo para probar si
son de mayor valor que una simple sugerencia.

El análogo al efecto placebo en la investigación industrial es el efecto Hawthorne,


nombrado así por una investigación clásica sobre métodos para mejorar la eficiencia
laboral en la planta Hawthorne de la Western Electric Company. Los investigadores
encontraron que cualquier alteración en las condiciones de trabajo conducía a una
eficiencia mejorada, no porque los cambios en las condiciones afectaran la
productividad, sino porque la atención de los investigadores mejoraba la moral de los
trabajadores. (Sin embargo, este estudio en sí mismo ha sido citado tantas veces que se
ha convertido en folklore psicológico. No está claro que se sostenga bajo un escrutinio
experimental cuidadoso).

Problemas similares hacen extremadamente difícil llevar a cabo una investigación


válida sobre la psicoterapia. Los grupos de control deben ofrecer atención de apoyo sin
la psicoterapia real para probar los efectos de un procedimiento terapéutico particular.

La investigación moderna sobre psi es casi enteramente una ciencia experimental, como
cualquier vistazo superficial a sus revistas demostrará. Los artículos publicados en el
Journal of Parapsychology o en el Journal of the Society for Psychical Research
discuten explícitamente las suposiciones estadísticas y el diseño de investigación
controlado utilizados en sus estudios. La mayoría de los investigadores activos en psi
creen que el camino hacia la aceptación científica radica en la adopción de un riguroso
método experimental.

Los investigadores psi han acumulado una amplia literatura de experimentos, y este
compendio de estudios y resultados ahora puede evaluarse utilizando el lenguaje de la
ciencia. Las discusiones sobre el estado de las hipótesis de investigación psi pueden
argumentarse en función de la evidencia: evidencia cuantificada y explícita. Nuestra
capacidad, como cultura, para evaluar objetivamente esta evidencia es en sí misma una
prueba del método científico como una herramienta válida para comprender la
naturaleza de la conciencia.

La habilidad de pensamiento crítico de los creyentes y no creyentes en fenómenos


psíquicos fue examinada en dos estudios realizados por James Alcock, un conocido
escéptico, y su asociada Laura Otis. En el primer estudio, a los creyentes y escépticos se
les administró la Escala de Evaluación del Pensamiento Crítico de Watson y Glaser, así
como la Escala de Dogmatismo de Trodahl y Powell. Los escépticos mostraron un nivel
significativamente mayor de habilidad para el pensamiento crítico que los creyentes y
fueron significativamente menos dogmáticos que los creyentes.
Este resultado podría llevar a algunos lectores que se consideran a sí mismos
"creyentes" a cuestionar su propio compromiso con el pensamiento crítico. También se
podría cuestionar si tal hallazgo es el resultado de un efecto de expectativa. Dado que
muchos escépticos son creyentes-en-lo-negativo, se puede esperar que muestren un
sesgo como otros creyentes.

El segundo estudio se llevó a cabo para evaluar la habilidad de pensamiento crítico de


creyentes y escépticos en una tarea relacionada con la psicokinesis. A los "creyentes" y
"escépticos" se les pidió evaluar críticamente un artículo de investigación sobre
psicokinesis o un artículo similar sobre tolerancia al dolor. Se anticipaba que los
creyentes mostrarían un sesgo a favor del artículo de psicokinesis; sin embargo, los
resultados indicaron que los creyentes y no creyentes fueron igualmente críticos con el
artículo de psicokinesis. "Se pidió a "creyentes" y "escépticos" que evaluaran
críticamente un artículo de investigación sobre la psicoquinesis o un artículo similar
sobre la tolerancia al dolor. Se anticipaba que los creyentes mostrarían un sesgo a favor
del artículo sobre psicoquinesis; sin embargo, los resultados indicaron que tanto los
creyentes como los no creyentes fueron igualmente críticos con el artículo sobre
psicoquinesis. Este hallazgo, especialmente porque fue realizado por escépticos, apoya
la noción de que las personas que han aceptado la hipótesis Psi son capaces de realizar
una evaluación crítica y científica en esta área."

Las referencias proporcionadas se relacionan con un resumen de investigaciones realizadas por


el psicólogo de Stanford Dale Griffin titulado "Juicio intuitivo y la evaluación de evidencia". Este
resumen fue encargado por el Comité sobre Técnicas para el Mejoramiento del Desempeño
Humano de la Academia Nacional de Ciencias en Washington, DC, en 1987.

Paul Meehl, Clinical vs. Statistical Prediction. Minneapolis, MN: University of


Minnesota Press, 1955.

. P. C. Wason, "On the Failure to Eliminate Hypotheses in a Conceptual Task,"


Quarterly Journal of Experimental Psychology, 12, 1960, 129-140.

. L. J. Chapman & J. Chapman, "Test Results are What You Think They Are," in
D. Kahneman, P. Slovic, & A. Tversky (eds.), Judgment Under Uncertainty:
Heuristics and Biases. New York: Cambridge University Press, 1982.

. A. Koriat, S. Lichtenstein, & B. Fischoff, "Reasons for Confidence," Journal of


Experimental Psychology: Learning and Memory, 1980, 107-118.

. Robert K. Merton, "The Self-Fulfilling Prophecy," Antioch Review, 8, 1948,


193-210.

. R. Rosenthal & L. Jacobson, Pygmalion in the Classroom: Teacher


Expectation and Pupil's Intellectual Development. Hillsdale, NJ: Holt, Rinehart &
Winston, 1968.
. A meta-analysis is the quantitative combination of the results of a group of
studies on a given topic.

. M. Snyder, "On the Self-Perpetuating Nature of Social Stereotypes," in D. L.


Hamilton (ed.), Cognitive Precesses in Stereotyping and Intergroup Behavior.
Hillsdale, NJ: Erlbaum, 1981.

. A. Hastorf & H. Cantril, "They Saw A Game: A Case Study," Journal of


Abnormal and Social Psychology, 49, 1967, 129-134.

. C. G. Lord, L. Ross & M. R. Lepper, "Biased Assimilation and Attitude


Polarization: The Effects of Prior Theories on Subsequently Considered
Evidence," Journal of Personality and Social Psychology, 37, 1979, 2098-2109.

. L. Ross, Situational Construal. Unpublished manuscript, Stanford University,


1986. Cited in Griffin, op cit.

. H. H. Kelley & A. J. Stahelski, "Social Interaction Basis of Cooperators' and


Competitors' Beliefs About Others," Journal of Personality and Social
Psychology, 16, 1970, 66-91.

. E. E. Jones, L. Rock, K. G. Shaver, G. R. Goethals, & L. M. Ward, "Pattern of


Performance and Ability Attribution: An Unexpected Primacy Effect," Journal of
Personality and Social Psychology, 10, 1968, 317-340.

. R. Vallone, Exploring the Hostile Media Phenomenon. Unpublished doctoral


dissertation, Stanford University, 1986. Cited in Griffin, op. cit.

. R. Vallone, L. Ross, & M. R. Lepper, "The Hostile Media Phenomenon: Biased


Perception and Perceptions of Media Bias in Coverage of the Beirut Massacre,"
Journal of Personality and Social Psychology, 49, 1985, 577-585.

. L. Ross, op cit.

. A. Tversky & D. Kahneman, "Availability: A Heuristic for Judging Frequency


and Probability," Cognitive Psychology, 4, 1973, 207-232.

. P. Slovic, B. Fischoff, & S. Lichtenstein, "Facts Versus Fears: Understanding


Perceived Risk," in D. Kahneman, P. Slovic, & A. Tversky (eds.), Judgment
Under Uncertainty: Heuristics and Biases. New York: Cambridge University
Press, 1982, pp. 463-492.

. A. Tversky & D. Kahneman, "Belief in the Law of Small Numbers," in


Judgment Under Uncertainty, pp. 23-31.

. R. E. Nisbett & L. Ross, Human Inference: Strategies and Shortcomings of


Social Judgment. Englewood Cliffs, NJ: Prentice-Hall, 1980.

. D. Kahneman & A. Tversky, "On the Study of Statistical Intuitions," in


Judgment Under Uncertainty, pp. 463-492.
. B. F. Skinner, "Superstition in the Pigeon," Journal of Experimental
Psychology, 38, 1948, 168-172.

. T. Gilovich, B. Vallone, & A. Tversky, "The Hot Hand in Basketball: On the


Misperception of Random Sequences," Cognitive Psychology, 17, 1986, 295-
314.

. R. Falk, "On Coincidences," Skeptical Inquirer, 6, 1981-1982, 18-31.

. R. E. Nisbett & T. D. Wilson, "Cognitive Manipulation of Pain," Journal of


Experimental Social Psychology, 21, 1966, 227-236.

. Daryl J. Bem, "Self-Perception Theory," in L. Berkowitz (ed.), Advances in


Experimental Social Psychology, Vol. 6, New York: Academic Press, 1972, pp.
2-62.

. R. E. Nesbitt & T. D. Wilson, "Telling More Than We Can Know: Verbal


Reports on Mental Processes," Psychological Review, 84, 1977, 231-259.

. G. A. Quattrone & A. Tversky, "Causal Versus Diagnostic Contingencies: On


Self-Deception and the Votor's Illusion," Journal of Personality and Social
Psychology, 46, 1984, 237-248.

. Michael S. Gazzaniga, The Social Brain. New York: Basic Books, 1985.

. Ibid., p. 72.

. Griffin, op. cit.

. E. J. Langer, "The Illusion of Control," in Judgment Under Uncertainty, pp. 32-


47.

. Erving Goffman, Interaction Ritual. New York: Anchor, 1967.

. L. H. Strickland, R. J. Lewicki, & A. M. Katz, "Temporal Orientation and


Perceived Control as Determinants of Risk Taking," Journal of Experimental
Social Psychology, 3, 1966, 143-151.

. F. Ayeroff & R. P. Abelson, "ESP and ESB: Belief in Personal Success at


Mental Telepathy," Journal of Personality and Social Psychology, 34, 240-247.

. Victor A. Benassi, P. D. Sweeney, & G. E. Drevno, "Mind Over Matter:


Perceived Success at Psychokinesis," Journal of Personality and Social
Psychology, 37, 1979, 1377-1386.

. Leon Festinger, A Theory of Cognitive Dissonance. Stanford, CA: Stanford


University Press, 1957.

. Leon Festinger, H. W. Riecken, & S. Schachter, When Prophecy Fails.


Minneapolis, MN: University of Minnesota Press, 1956.
. El libro clásico de Festinger, When Prophecy Fails "Cuando falla la profecía",
revela, al leerlo detenidamente, que los psicólogos sociales están tan equivocados como
los seguidores del culto OVNI bajo estudio. La mayoría de los miembros del grupo
OVNI realmente abandonaron sus creencias del culto y se alejaron, lo que va en contra
de las predicciones de Festinger. Sin embargo, la teoría de la disonancia cognitiva ha
perdurado. El propio comportamiento de Festinger al respaldar su teoría a pesar de la
evidencia puede ser un ejemplo del sesgo de confirmación. Irónicamente, este error a
menudo es pasado por alto por los psicólogos sociales.

. C. D. Batson, "Rational Processing or Rationalization: The Effect of


Disconfirming Information on Stated Religious Belief," Journal of Personality
and Social Psychology, 32, 1975, 176-184.

. D. Druckman & J. A. Swets (eds.). Enhancing Human Performance: Issues,


Theories and Techniques. Washington, DC: National Academy Press, 1988.

. El presidente del Comité del NRC, solicitó a los investigadores de Harvard, Monica J.
Harris y Edward Rosenthal, que retiraran sus conclusiones favorables con respecto a la
investigación psi. Cuando se negaron a hacerlo, el informe final del Comité ignoró su
presentación. Ver John A. Palmer, Charles Honorton y Jessica Utts, Respuesta al
Estudio del Consejo Nacional de Investigación sobre Parapsicología. Research Triangle
Park, NC: Asociación de Parapsicología, 1988.

. C. I. Hovland, I. L. Janis, & H. H. Kelley, Communication and Persuasion. New


Haven, CT: Yale University Press, 1953.

. C. I. Hovland, A. A. Lumsdaine, & F. D. Sheffield, Experiments on Mass


Communication. Princeton, NJ: Princeton University Press, 1949.

. Blondlot, Rene Prosper. "N" Rays: A Collection of Papers Communicated to


the Academy of Sciences, trans. by J. Garcin. London: Longmans, Green,
1905.

. Wood, Robert. The n-rays. Nature, 70, 1904, 530-31.

. J. P. Gilbert, B. McPeek, & F. Mosteller, "How Frequently Do Innovations


Succeed in Surgery and Anesthesia?" In J. Tanur, F. Mosteller, W. H. Kruskal,
R. F. Link, R. S. Pieters, & G. R. Rising (eds.), Statistics: A Guide to the
Unknown. San Francisco: Holden-Day, 1978, pp. 45-58.

. F. J. Roethlisberger & W. J. Dickson, Management and the Worker. New York:


Wiley, 1939.

. James E. Alcock & Laura P. Otis, "Critical thinking and Belief in the
Paranormal," Psychological Reports, 46, April 1980, 479-482.

También podría gustarte